«Es war eine schwierige Entscheidung», räumt Chefentwickler Chris Urmson ein. «Aber wenn sie in einem Auto sitzen, dass die ganze Zeit von allein alles richtig macht, schwindet Ihre Aufmerksamkeit. Wenn Sie sich dann plötzlich ins Verkehrsgeschehen einschalten müssen, haben Sie nicht den Überblick über die Situation, wie Sie ihn üblicherweise hätten.»
Doch die kalifornische Straßenverkehrs-Behörde legt Googles weitreichenden Plänen zunächst einmal Steine in den Weg. Sie schlug Regeln vor, nach denen auch in Zukunft jederzeit ein Fahrer mit Führerschein in der Lage sein müsse, die Kontrolle über das Auto zu übernehmen. «Das konserviert den alten Status-Quo», kritisierte Urmson in einem Blogbeitrag. Kurz davor war ein Google-Mobil in Mountain View angehalten worden, weil es aus der Sicht eines Polizisten zu langsam fuhr und den Verkehr bremste.
Viele neue Fragen stehen im Raum. Wie soll sich ein Computer bei einem nicht unvermeidbaren Unfall verhalten? Wen soll er zuallererst schützen? Google will dieses auch ethische Problem mit Algorithmen lösen. «In unserem Fall versucht das Auto zuallererst, Fußgängern und Radfahrern auszuweichen», sagt Google-Entwickler Urmson. «Dann vermeidet es den Kontakt mit anderen fahrenden Fahrzeugen. Und erst an dritter Stelle kommen stillstehende Objekte wie Bäume.»
Der schwedische Autobauer Volvo, inzwischen in chinesischer Hand, preschte jüngst mit einem radikalen Lösungsvorschlag für eine damit verbundene zentrale rechtliche Frage vor. Volvo will bei eventuellen Unfällen mit seinen selbstfahrenden Fahrzeugen die volle Haftung übernehmen. Nach bisherigen Regelungen sind die Fahrer am Steuer verantwortlich. Die Bundesregierung fordert in einem Strategiepapier, Verkehrsregeln und Haftung anzupassen - und auch die Fahrausbildung.
Bei Continental hofft man auf die Fähigkeit der Software, Unfälle zu vermeiden. «Wenn ich ein selbstfahrendes Auto habe, werde ich in eine solche Situation gar nicht erst kommen», sagt Lenninger. «Das ist ja schließlich der Gag am selbstfahrenden Auto.»