Suchen

Wenn Autos über Menschenleben entscheiden

Seite: 2/2

Firma zum Thema

Dass es solche Situationen in einem vollautomatisierten Straßenverkehr geben würde, ist für Professor Oliver Bendel klar. Der Philosoph und Wirtschaftsinformatiker beschäftigt sich seit Jahren mit der relativ neuen Disziplin der Maschinenethik. Für die Entscheidungsfindung autonomer Autos schlägt er einen eindeutigen Regelkatalog vor, kombiniert mit einer Folgeeinschätzung durch das Fahrzeug selbst. Letztlich hätte aber auch solch ein „Moralkodex“ seine Grenzen – vor allem, wenn es um die Entscheidung gehen sollte, welcher von mehreren unbeteiligten Passanten überfahren werden soll. Bendel rät generell davon ab, Maschinen in solch komplexe Situationen zu verwickeln. „Sie sollten nicht entscheiden, ob zwei Menschen weniger wert sind als vier oder jüngere Menschen mehr wert sind als ältere.“ In solchen Fällen müsse der Mensch eingreifen, auch wenn das im Einzelfall in einer Katastrophe ende.

Eine Entscheidung über Leben und Tod in die Maschine auszulagern, hätte aber laut Bendel noch drastischere Folgen. „Ich denke, dass vielen Menschen sehr unwohl dabei sein wird, wenn ihr Partner oder Kind durch eine Maschine – und zwar absichtsvoll – getötet wird. Die Menschen werden auf die Barrikaden gehen.“ Selbst dann, wenn die Maschine eindrucksvoll darlegen könne, dass sie alle Alternativen abgewogen habe und zum bestmöglichen Ergebnis gekommen sei.

„Viele werden das nicht wollen, selbst wenn der Computer richtig entschieden hat. Andere werden das autonome Auto aber aus politischen, ökonomischen, wissenschaftlichen Gründen durchsetzen wollen. Es wird die Maschinenstürmer geben und die Gegner der Maschinenstürmer. Und hier sehe ich erhebliches Konfliktpotenzial.“ Der Maschinenethiker plädiert daher dafür, den automatisierten Verkehr auf bestimmte Bereiche und Zeiten zu beschränken, um Konflikte möglichst zu vermeiden. So werde man die Zahl der Verkehrstoten gegenüber heute immerhin halbieren können. „Das hört sich vielleicht zynisch an, aber diese Lösung wäre mir lieber, als die Verkehrstoten ganz abzuschaffen.“

Regeln müssen festgelegt werden

Die Vision der Autoindustrie ist aber eine andere. Aktuell zumindest sieht sie den autonomen Verkehr als potenziell universell. An einer Art „Moral“ für Autos führt daher kein Weg vorbei. Daimler-Mann Zeeb spricht sich bei der Aufstellung der Verhaltensregeln für einen breiten gesellschaftlichen Konsens aus. Bei Volvo hingegen sieht man in erster Linie den Autohersteller in der Pflicht, da die Verantwortlichkeit für das Produkt bei ihm liegt. Auch Maschinenethiker Bendel glaubt, dass zunächst der Hersteller in Zusammenarbeit mit Experten der Künstlichen Intelligenz sowie Philosophen die Regeln festlegt, der Kunde aber durch sein Kaufverhalten Einfluss nehmen wird. Denkbar sei auch, dass der Kunde die Einstellungen der Maschine in einem abgesteckten Rahmen selbst verändern kann.

Wie immer es auch weitergeht: Klar ist, dass Autos schon heute moralische Entscheidungen treffen könnten. Man denke zum Beispiel an Volvos Kamerasysteme mit Bilderkennung, die bereits heute zwischen Menschen und Tieren unterscheiden. Noch machen sie ihre Fahrstrategie nicht davon abhängig, wer vor der Motorhaube auftaucht – technisch wäre es ohne weiteres möglich, für das eine Lebewesen auszuweichen, für das andere aber nicht. Bevor wir Kaffee trinkend und Nachrichten lesend dem Auto möglicherweise alle Entscheidungen überlassen, sind also noch ein paar wichtige Fragen zu klären.

(ID:43186301)