Roboterautos Wie sollen sich Fahrzeuge bei unvermeidbaren Unfällen verhalten?
Anbieter zum Thema
Autonom steuernde Fahrzeuge sollten im Notfall besser reagieren als ein Mensch. Was aber, wenn ein Unfall trotz überlegener Reaktionszeit unvermeidbar ist? Forscher der TU München arbeiten an einer Entscheidungslogik.

Technisch und juristisch ist beim autonomen Fahren noch einiges zu klären. Auch moralische Fragen sind noch offen: Wie zum Beispiel soll sich ein Robotermobil bei nicht abzuwendenden Unfällen verhalten? Forscher der TU München haben nun einen Algorithmus entwickelt, der die Frage ethisch korrekt beantworten soll.
Das autonome Auto der Zukunft tötet bei einem Unfall planvoll. Während der Mensch in den Sekunden vor dem Aufprall kaum eine Chance zum bewussten Reagieren hat, kann das Roboterauto in dieser Zeit Millionen Berechnungen durchführen – und aus mehreren Handlungsoptionen wählen. Rast es lieber vor die Wand und opfert seine Insassen oder nimmt es den Weg in die Menschenmenge? Kollidiert es mit dem dicken SUV oder dem für ihn ungefährlicheren Kleinwagen? Rammt es eher den Radfahrer mit oder den ohne Helm aus dem Sattel? Um das zu entscheiden, braucht die Maschine eine Art moralischen Kodex. Und den muss der Mensch ihr einprogrammieren.
Einheitliche Vorgaben für alle Hersteller gefordert
Die Ethik von Roboterautos beschäftigt zunehmend auch die Autohersteller: Wie soll das vollautomatisiert fahrende Auto der Zukunft in derartigen Dilemma-Situationen entscheiden? Wenn trotz mehrerer Handlungsalternativen immer Menschenleben oder zumindest Sachwerte auf dem Spiel stehen? Schon 2017 sprachen sich 86 Prozent der befragten Branchenvertreter bei einer Umfrage des IT-Verbands Bitkom für die Schaffung eines unabhängigen Ethikrates ein, der die Regel für das Verhalten bei Unfällen festlegt. Besetzt werden sollte das Gremium mit Philosophen, Juristen, Technikern und Politikern.
Die Alternative, dass jeder einzelne Autohersteller seine eigenen Regeln anwendet, galt schon damals als gefährlich. Dann nämlich würde die Programmierung des Fahrzeugs zu einem wichtigen Punkt bei der Kaufentscheidung. Und wer würde ein Auto kaufen wollen, dass bei einem unvermeidbaren Unfall im Zweifel seinen Fahrer gefährdet, um andere Schäden zu vermeiden? Die Folge könnte ein rigoroser Egoismus der Algorithmen sein.
Dieser „Charakterschwäche“ soll der nun in der Zeitschrift „Nature Machine Intelligence“ veröffentlichte ethische Algorithmus der Münchner Forschergruppe nicht unterliegen. Dafür hat sie fünf Faktoren bestimmt, die bei der Entscheidungsfindung eine Rolle spielen sollen: das akzeptable Maximalrisiko eines Manövers, den besonderen Schutz der gegebenenfalls am schlimmsten Betroffenen, die Gleichbehandlung aller Menschen, die Minimierung des Gesamtrisikos und die Eigenverantwortung der Verkehrsteilnehmer. So soll das Risiko künftig fair zwischen autonomen Fahrzeugen, normalen Autos, Fußgängern und Zweiradfahrern verteilt werden.
Auto müsste zwischen unerwünschten Folgen abwägen
Bis jetzt gibt es diesen Algorithmus nur im Labor und nicht auf der Straße. Allerdings existieren auch noch keine komplett autonom fahrenden Serienautos. Doch die Technik schreitet voran, langsam, aber stetig. Bereits heute können Pkw ohne menschlichen Eingriff Bremsmanöver durchführen, die Fahrtrichtung ändern oder im Stau mitschwimmen. Bis zum Ende des Jahrzehnts soll der Computer dem menschlichen Fahrer einen immer größeren Teil seiner Aufgaben abnehmen.
Erste Autos wie der Mercedes EQS fahren zumindest unter bestimmten Bedingungen vollständig automatisiert, während der Mensch hinterm Steuer sich anderen Tätigkeiten widmen darf. Dazu dürften auch in Deutschland mittelfristig Roboauto-Fahrdienste ihren Serienbetrieb starten und Passagiere ganz ohne Fahrer, Lenkrad oder Pedalerie durch die Gegend chauffieren.
Die autonomen Autos sollen durch eine vorausschauende und eher defensive Fahrweise kritische Entscheidungen nach Möglichkeit vermeiden. In komplexeren Verkehrssituationen sind mittelfristig aber Situationen denkbar, in denen das nicht mehr ausreicht. Dann könnte das Auto gezwungen sein, zwischen mehreren Handlungen mit unerwünschten Folgen abzuwägen. Und – wie eingangs erwähnt – zwischen der Kollision mit einem Laster und einem Kleinwagen entscheiden.
Widersprüche zwischen den Kriterien
Dass die Software der Münchner Forscher bei der Bewertung solcher Situationen grundsätzlich taugt, haben die Wissenschaftler nach eigenen Angaben in Tausenden Simulationen bestätigt. Trotzdem wird das System immer an Grenzen stoßen. So kann es bei der Bewertung der Eigenverantwortung anderer Verkehrsteilnehmer beispielsweise nicht unterscheiden, ob jemand aus Unachtsamkeit auf die Straße tritt oder ob er gestoßen wird.
(ID:49107527)