Ethik für autonome Fahrzeuge – Wer soll sterben?

„Wer soll bei einem Unfall sterben?“ Diese Frage klingt brutal, ist aber unglaublich wichtig für eine Künstliche Intelligenz. Es wird immer Situationen geben, bei dem ein Unfall unausweichlich ist und für die eine Ethik für autonome Fahrzeuge wichtig ist.

Während der Mensch oft nicht groß nachdenkt, sondern einfach reagiert, hat eine KI ganz andere Möglichkeiten eine Situation zu analysieren und zu bewerten. Welche Personen sind beteiligt? Wie alt sind sie? Gruppe oder allein? Wer hätte beim Zusammenstoß größere Überlebenschancen? Welches Leben ist es mehr wert, gerettet zu werden?

Intuitiv trifft auch der Mensch in solchen Momenten Entscheidungen, aber eben nicht so analytisch. Das ist auch für die Verantwortlichen eine Herausforderung, die eine KI genau auf solche Szenarien programmieren.

Die KI von Autonomen Autos ist somit auch ein politisch sehr wichtiges Thema. Das Bundesministerium für Verkehr und digitale Infrastruktur hat beispielsweise eine Ethik-Kommission für automatisiertes und vernetztes Fahren. Diese hat 2017 in einem Bericht 20 ethische Regeln für den automatisierten
und vernetzten Fahrzeugverkehr beschrieben. Für Hersteller sind unterschiedliche Anforderungen je nach Land aber eine zusätzliche Hürde.

Das moralische Dilemma

Eine Maschine zu programmieren, die Entscheidung über Leben und Tod fällt, ist ein moralisches Dilemma. Das gilt auch für jene, die sie programmieren. Eine Gruppe des Massachusetts Institute of Technology (MIT) entwickelte mit der Moral Machine eine Online-Plattform, auf der Nutzer mit Unfallszenarien konfrontiert werden, bei der es mit Sicherheit Tote gibt. 

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die dort gezeigten Szenarien sind natürlich möglichst einfach gehalten. Es gibt nur zwei Entscheidungen mit feststehenden Folgen. Die Realität ist nochmal einiges komplexer. Da gibt es mehr als zwei Möglichkeiten, unterschiedliche Wahrscheinlichkeiten wer überlebt und viele Faktoren, die weder ein Computer, noch ein Mensch abschätzen können. Und vor allem geht es nur in den seltensten Fällen um Leben und Tod.

Trotzdem braucht es die Ethik für autonome Fahrzeuge, um solche Entscheidungen zu treffen, falls es dazu kommt. 

Allerdings wirft es überhaupt essentielle Fragen für künstliche Intelligenz auf. Darf eine künstliche Intelligenz überhaupt ein Leben höher bewerten als ein anderes? Das geht von der einfachen Frage, ob Kind oder Senior, bis hin zur Frage, ob Verbrecher, Obdachlose oder chronisch kranke – angenommen das Auto greift auch auf solche Daten zurück – anders behandelt werden müssen.

Ein Problem dabei ist nicht nur bei der Ethik für autonome Fahrzeuge, sondern auch für KI im Allgemeinen, dass eine unzureichende oder unausgeglichene Datenlage auch zu einer rassistisch oder sexistisch urteilenden KI führen kann.  

Das sagt die Ethik-Kommission in Deutschland

Im Abschlussbericht der Ethik-Kommission für automatisiertes und vernetztes Fahren verfasste die Kommission unter anderem 20 ethische Regeln für automatisiertes Fahren. Die meisten dieser Regeln sind eher allgemeine Regeln für die Hersteller. Wir schauen uns daher eher die Regeln an, die sich mit den moralischen Entscheidungen auseinandersetzen.

Regel 2 besagt, dass der Schutz Vorrang vor allen anderen Nützlichkeitserwägungen hat. Die Zulassung solcher Systeme ist also nur zulässig, wenn sie in der Summe dazu beiträgt, dass es weniger Personenschäden gibt. 

Der Schutz menschlichen Lebens genießt auch in Regel 7 oberste Priorität in der Rechtsgüterabwägung. Sach- und Tierschäden sind demnach in Kauf zu nehmen, wenn damit Menschenschäden vermeidbar sind. Interessant ist hier, dass Tierleben eindeutig dem Menschenleben untergeordnet sind.

Die Regel 8 ist mehr das Dilemma selbst als eine Regel. Hier geht es darum, dass echte dilemmatische Entscheidungen nicht ethisch zweifelsfrei sind. Es gibt immer unberechenbare Einflüsse der beteiligten, die das Einschätzen der Unfallfolgen nicht eindeutig abschätzbar machen. Regel 9 besagt aber zumindest, dass es keine Qualifizierung nach Merkmalen wie etwa Alter oder Geschlecht geben darf und eine Aufrechnung von Opfern untersagt ist. Eine auf Minimierung der Personenschäden programmierte KI ist dennoch zulässig, sofern sie keine an der Situation Unbeteiligte opfert.

Das Dilemma mit dem Dilemma

Die Dilemma-Situationen werden auch später in den Diskussionsergebnissen und offenen Fragen weiter thematisiert. Dazu gehört die Entscheidungsfreiheit des Menschen in solchen Situationen. Ein menschlicher Fahrer kann selbst entscheiden, ob er sein eigenes Leben opfert um beispielsweise mehrere andere Leben zu retten. Entscheidet es ein Programm, fällt diese persönliche Freiheit weg. Problem ist dabei auch, dass der Staat damit die ethisch korrekte Handlung vorgibt.

Auch bezüglich Regel 9 führt die Kommission das Problem noch weiter aus. So müsste eine Entscheidung der KI für eine Minimierung des Personenschadens das Risiko aller Teilnehmer minimieren. Situationen in denen ein Leben mehrere andere retten kann sind wiederum problematisch, weil das Programm damit den wahrscheinlichen Tod einer Person selbst beschließt.

Das Problem mit der Ethik für autonome Fahrzeuge bleibt, dass allerdings eine Entscheidung getroffen werden muss. Das Auto darf schließlich auch nicht einfach fahren, als wenn es keine solche Situation gäbe. Denn selbst das beschließe den Schaden von Menschenleben, in den meisten Fällen sogar mit schwerwiegenderen Folgen.

Für Entwickler autonomer Fahrzeuge sind die Anforderungen gleich eine mehrfache Herausforderung. So wie wir ethische Anforderungen an die KI haben, so ist es auch in vielen Ländern. Am Ende müssen die Fahrzeuge also in der Lage sein, den jeweils geltenden Bestimmungen zu entsprechen. Ein Fahrzeug muss beim Überfahren einer Landesgrenze anderen Vorgaben gerecht werden. 

Wenn eine KI Fehler macht…

Trotz aller Überlegungen, und selbst wenn die KI richtig entschieden hat, ist jeder Unfall eines autonomen Autos ein Problem für die Weiterentwicklung. Sobald ein fahrerloses Auto in einen Unfall verwickelt ist, besonders mit Personenschaden, lässt der Aufschrei nicht lange warten.

Dabei sind schon jetzt die Unfallstatistiken autonomer Fahrzeuge besser, als mit Fahrern am Steuer. Laut einer McKinsey-Studie ließe sich durch Autonome Fahrzeuge sogar bis zu 90 Prozent der tödlichen Unfälle vermeiden. Manchmal passieren aber auch der KI Fehler, wie beim tödlichen Unfall vom März 2018, als ein autonomes Fahrzeug eine Frau tödlich verletzte.

Obwohl zu dem Zeitpunkt noch eine Sicherheitsfahrerin mit an Bord war, die allerdings zu spät reagierte, brach Uber seine Tests auf öffentlichen Straßen danach ab. Ende 2019 veröffentlichte die US-Verkehrsbehörde Ergebnisse der Untersuchungen, dass hier tatsächlich eklatante Fehlinterpretationen durch Sensoren vorlagen. So erkannte das Auto die Fußgängerin, die ihr Fahrrad schob, bereits 5,6 Sekunden vor dem Unfall, klassifizierte sie aber fälschlich als Auto auf der Gegenspur.

Die Klassifizierung wechselte in den folgenden Sekunden mehrfach, bis erst 1,2 Sekunden vor dem Aufprall eine korrekte Einschätzung vorlag. Zum Ausweichen war es zu spät. Ein Unfall der also tatsächlich vermeidbar war, auch wenn die Frau ohne Beleuchtung die Straße trotz Verkehrs (bis 72 km/h) an ungeeigneter Stelle überquerte.

Gerade so ein tatsächliches Versagen der Technik zerstört dann auch die Reputation des Autonomen Fahrens an sich. Damit kämpft dann nicht nur das Unternehmen, dem es passiert ist, sondern die ganze Branche, die sich wieder neues Vertrauen erarbeiten muss.

Stefan Reismann

Das Internet ist sein Zuhause, die Gaming-Welt sein Wohnzimmer. Der Multifunktions-Nerd machte eine Ausbildung zum Programmierer, entdeckte dann aber vor allem die inhaltliche Seite für sich. Nun schreibt er für die Netzpiloten und betreibt nebenher einen Let's Play-Kanal, auf dem reichlich gedaddelt wird.


Artikel per E-Mail verschicken
Schlagwörter: , ,