Glücklicherweise wurde niemand verletzt, als eines der selbstfahrenden Autos von Google kürzlich an einer Kreuzung mit einem Bus zusammenstieß. Das Auto war ja auch nur mit 2 km/h unterwegs. Das Unternehmen hat zugegeben, dass es „eine gewisse Verantwortung“ für den Unfall trug, weil der Testfahrer (und vermutlich auch das Auto) davon ausging, dass der Bus langsamer fahren würde, um dem Auto das Ausfahren zu ermöglichen.
Google hat seine Algorithmen inzwischen überarbeitet, um dies zu berücksichtigen, aber der Vorfall wirft die wichtige Frage auf, wer in den Augen des Gesetzes für Unfälle verantwortlich ist, die von fahrerlosen Autos verursacht werden. Ist es der Autobesitzer, der Hersteller oder der Softwareentwickler? Wer würde im Falle einer Anklage vor Gericht gestellt werden? Und wessen Versicherung müsste für den Schaden aufkommen?
Die meisten modernen Autos verfügen über Technologien, die ohne menschliches Eingreifen funktionieren, von Airbags und Antiblockiersystemen bis hin zu Tempomaten, Kollisionsvermeidung und sogar selbsttätigem Einparken. Aber nur sehr wenige Autos sind völlig autonom in dem Sinne, dass sie ihre eigenen Entscheidungen treffen. Ein menschlicher Fahrer hat in der Regel immer noch die Kontrolle – obwohl diese Annahme immer schwieriger aufrechtzuerhalten ist, da fortschrittliche Fahrerassistenztechnologien wie elektronische Stabilitätskontrollen es dem Fahrer ermöglichen, die Kontrolle über das Fahrzeug zu behalten, wenn er sie sonst nicht hätte.
Fahrer- und Unternehmensverschulden
Nach dem derzeitigen Stand der Dinge konzentriert das Gesetz die spezifischen Vorschriften für Kraftfahrzeuge immer noch auf den menschlichen Fahrer. Das internationale Wiener Übereinkommen über den Straßenverkehr überträgt dem Fahrer die Verantwortung für das Auto: „Der Fahrer muss jederzeit in der Lage sein, sein Fahrzeug zu beherrschen“. Der Fahrer muss außerdem über die körperlichen und geistigen Fähigkeiten verfügen, um das Fahrzeug zu beherrschen, sowie über angemessene Kenntnisse und Fähigkeiten, um zu verhindern, dass das Fahrzeug andere Personen schädigt. Auch nach britischem Recht ist die Person, die das Auto benutzt, im Allgemeinen für dessen Handlungen haftbar.
Nach einem Unfall kann die rechtliche Haftung jedoch davon abhängen, ob die Kollision auf die Fahrlässigkeit des menschlichen Fahrers oder auf einen Defekt des Fahrzeugs zurückzuführen ist. Und manchmal kann auch beides der Grund sein. So kann man zum Beispiel von einem Fahrer erwarten, dass er die nötige Sorgfalt walten lässt und auf mögliche Gefahren achtet, bevor er eine Selbstparkfunktion aktiviert.
Fahrerlose Autotechnologien werden mit der Warnung ausgeliefert, dass sie nicht vor Software- oder Konstruktionsfehlern geschützt sind. Dennoch können Hersteller für Fahrlässigkeit haftbar gemacht werden, wenn es Beweise dafür gibt, dass ein Unfall durch einen Produktfehler verursacht wurde. Rechtliche Präzedenzfälle für unternehmerische Fahrlässigkeit gibt es im Vereinigten Königreich seit 1932, als eine Frau den Hersteller einer Flasche Ingwerbier, die eine tote Schnecke enthielt, erfolgreich verklagte, nachdem sie daraus getrunken hatte und erkrankte.
Seit den 1930er Jahren haben wir einen sehr langen Weg zurückgelegt. Gesetze wie das Verbraucherschutzgesetz von 1987 bieten nun einen Rechtsbehelf für Menschen, die fehlerhafte Produkte kaufen. Im Fall von fahrerlosen Fahrzeugen kann sich dies nicht nur auf den Autohersteller, sondern auch auf das Unternehmen erstrecken, das die autonome Software programmiert. Die Verbraucher müssen nicht beweisen, dass das Unternehmen fahrlässig gehandelt hat, sondern nur, dass das Produkt fehlerhaft war und einen Schaden verursacht hat.
Während der Nachweis bei Komponenten wie Scheibenwischern oder Schlössern jedoch nicht allzu schwierig ist, ist es komplizierter, nachzuweisen, dass Softwarekomponenten fehlerhaft sind und – was noch wichtiger ist – dass dies zu Verletzungen oder Schäden geführt hat. Die Feststellung der Haftung kann auch schwierig sein, wenn es Beweise dafür gibt, dass der Fahrer in die Software eingegriffen oder eine Fahrerassistenzfunktion außer Kraft gesetzt hat. Dies ist vor allem dann problematisch, wenn fortschrittliche Technologien es ermöglichen, dass das Auto und der Fahrer tatsächlich gemeinsam fahren. Die Produkthersteller haben auch spezielle Einreden, wie z.B. die Grenzen der wissenschaftlichen Erkenntnisse, die sie daran hindern, den Fehler zu entdecken.
Sorgfaltspflicht
Was die Verantwortung des Fahrers anbelangt, so verlangt das geltende Recht von ihm, dass er die gleiche Sorgfalt walten lässt, unabhängig davon, wie fortschrittlich das Fahrzeug ist oder wie gut er mit der Technologie vertraut ist. Von den Fahrern wird erwartet, dass sie ein angemessenes Maß an Kompetenz an den Tag legen, und wenn sie das Fahrzeug nicht überwachen oder ein vorhersehbares Risiko von Schäden oder Beeinträchtigungen verursachen, verstoßen sie gegen ihre Sorgfaltspflicht. Das bedeutet, dass selbstfahrende Autos uns ohne eine Gesetzesänderung nicht erlauben werden, unsere Augen von der Straße zu nehmen oder am Steuer ein Nickerchen zu machen.
Das derzeitige Gesetz bedeutet, dass bei einem Unfall mit einem selbstfahrenden Auto die Verantwortung bei der Person liegt, die fahrlässig gehandelt hat, sei es der Fahrer, weil er nicht die nötige Sorgfalt walten ließ, oder der Hersteller, weil er ein fehlerhaftes Produkt hergestellt hat. Wenn man bedenkt, dass autonome Software eine Reihe rationaler Regeln befolgen muss und noch nicht so gut wie der Mensch mit Unvorhergesehenem umgehen kann, ist es sinnvoll, dass der Fahrer trotzdem zur Verantwortung gezogen wird. Im Fall des Google-Unfalls ging das Auto davon aus, dass der Busfahrer rational ist und ausweichen würde. Ein Mensch würde (oder sollte) wissen, dass dies nicht immer der Fall sein wird.