Klare Strategien für den Notfall
Roboterautos ist Moral egal

Es gilt als Dilemma des autonomen Fahrens: Was, wenn künstliche Intelligenz entscheiden muss, wen es bei einem Unfall «opfert»? Die gute Nachricht: Diese Frage stellt sich gar nicht, und längst arbeiten Autobauer und Regierungen an künftigen Sicherheitsstandards.
Publiziert: 04.03.2021 um 09:36 Uhr
|
Aktualisiert: 19.04.2021 um 12:21 Uhr
Timothy Pfannkuchen

Das moralische Dilemma scheint unausweichlich. Wir schreiben das Jahr 2042. Ein Baum fällt direkt vor unserem autonom fahrenden Auto auf die Strasse. Crash unvermeidlich. Was tut die künstliche Intelligenz (KI) des Rechners jetzt? Frontal in den Baum – was uns das Leben kosten könnte? Nach links weg, wo eine junge Familie im Auto und ein Teenager auf dem Velo entgegenkommen? Nach rechts, wo ein Senior läuft?

Diese Diskussion irrlichtert seit Jahren durch die Medien. Da wird diskutiert über Moral, in Deutschland hat sich sogar der sogenannte Ethikrat damit beschäftigt. Doch bei Gesprächen mit Experten entpuppt sich die Diskussion vor allem als überflüssig: Die Frage wird sich, KI hin oder her, schlicht nicht stellen – weil Maschinen keine Menschen sind.

KI ist nicht das Problem

Was der Mensch nicht lösen kann, könne auch KI nicht lösen, sagt etwa der im Tessin forschende Jürgen Schmidhuber (58), der weltweit als einer der Väter der KI-Forschung gilt. «Manche sagen, man solle eher den Rentner überfahren. Dann frage ich: Auch wenn er Staatspräsident war?» In 99 von 100 Fällen sei es richtig, hart zu bremsen, also werde ein Ingenieur die KI so erziehen. Auch wenn das in einem Prozent der Fälle die falsche Reaktion sei – im Prinzip bleibe sie richtig, weil im Schnitt die Opferzahl sinke.

Bremsen oder ausweichen? Trotz künstlicher Intelligenz (KI) wird kein autonomes Auto moralisch abwägen. Stattdessen wird es stets ...
Foto: zVg
1/10

Das Fatalste, was ein Roboterauto in der Situation tun könnte, wäre, plötzlich das Steuer wieder an den Fahrer abzugeben. Oder völlig anders zu reagieren als das Roboterauto gegenüber. Längst ist die Autobranche dazu an gemeinsamen Prinzipien. Gerade weil Gesetze noch uneinheitlich sind. «Wir arbeiten an einer internationalen Regelung, aber bis auf Weiteres müssen wir ad hoc entscheiden, weil wir keine Glaskugel haben», sagt etwa die Schweizerin Renata Jungo Brüngger (59), Vorständin für Integrität und Recht bei Daimler: «Also haben wir uns zum Beispiel Grundsätze zur Anwendung künstlicher Intelligenz gegeben, denn wir müssen den Ingenieuren Leitlinien geben und zu erahnen versuchen, wie es in Zukunft aussehen könnte.»

Autobauer sind an Leitlinien dran

Ein Beispiel: BMW, Fiat-Chrysler, Daimler und Volkswagen haben gemeinsam mit Zulieferern wie Aptiv (Ex-Delphi) und Continental sowie Tech-Grössen wie Baidu, Infineon, Intel oder Here 2019 ein «Weissbuch» erstellt. Das definiert keine fixen Technikstandards, aber erste Abläufe und Strategien. Dieses 157 Seiten starke Dokument gibt zu bedenken: Je nach Land seien etwa 94 bis 98 Prozent der tödlichen Unfälle vom Menschen verursacht. Und: Autonomes Fahren werde die Unfallzahlen extrem reduzieren, könne Unfälle jedoch nie völlig ausschliessen.

Die Überlegungen beginnen bei vermeintlichen Kleinigkeiten: Das Auto müsse klar zeigen, dass es selbst fährt. Falls das System an den Menschen übergibt, müsse das nach klaren Mustern geschehen und das Auto sicher stoppen, falls der Mensch nicht reagiere. Im Zweifel solle das System die Vorfahrt nicht nehmen, sondern geben. Es soll ein Bild der Umwelt vorausahnen, statt nur zu reagieren. Bei Ampelgrün dürfe das Auto zwar davon ausgehen, dass andere Autos bei Rot stoppen – nicht aber davon, dass ein Passant das auch tue. Dabei sei etwa das Fussgängerverhalten nach Land unterschiedlich, was das System berücksichtigen müsse.

UN einigt sich auf Regularien

Als grosser Schritt gilt, dass seitens der UN Anfang 2021 erste Regelwerke in Kraft traten. Und ohnehin werden die Autohersteller klare Regeln bevorzugen. Denn nur dann wird der Autopilot im Auto bewirken, was ihm ja in der Luftfahrt gelang: Die Fortbewegung sicherer machen, weil ein Computer nie abgelenkt ist. Autonome Autos werden so defensiv unterwegs sein, dass sie sich erst gar nicht in potenzielle Gefahren begeben. Und falls doch der Notfall eintritt? Dann wird der Rechner in der Krisensituation das tun, was wir täten: Voll in die Bremse treten oder dorthin ausweichen, wo das Risiko schwerer Folgen am geringsten ist.

Und was, wenn es doch mal wegen eines Systemfehlers kracht? Dann wird der Hersteller den Schaden tragen, falls das System ihn verursacht und der Mensch es gemäss Vorgaben des Herstellers angewendet hat. Allerdings: Die zivilrechtliche Haftung ist das eine. Heikler ist die Frage, wer etwa bei einem Todesfall strafrechtlich haftet.

Fehler gefunden? Jetzt melden
Was sagst du dazu?