Warum selbstfahrende Autos trotzdem menschliche Kontrolle benötigen

Berichten zufolge schaute Joshua Brown gerade einen Harry Potter-Film, als die „Autopilot“-Funktion seines Tesla Model S das Auto in einen LKW steuerte und ihn unvermittelt tötete. Dieser Vorfall – das erste Mal, dass jemand bei einem Unfall, in dem ein selbstfahrendes Auto beteilgt war, getötet wurde – zeigt nicht, dass autonome Fahrzeuge grundsätzlich unsicher sind. Dennoch ist es eine Erinnerung daran, dass die Technologie noch nicht an einem Punkt angelangt ist, an dem wir unseren Blick von der Straße abwenden können. Vor dem Tesla-Vorfall vor einigen Wochen befragte ich im Rahmen meines PhD- Forschungsprojekts 12 Experten aus dem Kosmos der Fachleute für selbstfahrende Autos in puncto Vertrauen in automatische Fahrzeuge. Die Experten waren Akademiker und Branchenexperten mit profundem Wissen und Erfahrung mit der Technologie und dem Design automatischer Fahrzeuge. Auf Basis ihrer Forschung sagten sie, dass wir so lange selbstfahrende Autos mit einer gesunden Skepsis betrachten müssen, bis es eines Tages soweit sei, dass der Autopilot selbstständig das Steuer übernehmen kann, wenn wir uns nicht in eine echte Gefahr begeben wollen. Die Problematik ist derart gravierend, dass es Fahrern ohne ein spezifisches Training nicht gestattet sein sollte, diese Technologien zu benutzen.

Ein paar Gänge hochschalten

Auch wenn es bereits zu erahnen ist, ist eine Zukunft, in der der Mensch überhaupt nicht mit dem Fahrsystem des Autos interagiert (bekannt als Automatisierung der Stufe Fünf), noch weit entfernt. Um dorthin zu kommen, müssen wir durch verschiedene, überlappende Stadien der Technologie gehen (Stufe Zwei, Drei und Vier), in denen die Technik zunehmend, aber nicht vollständig die Kontrolle über das Fahrzeug übernimmt. Der Autopilot von Tesla ist beispielsweise als eine Automatisierung der Stufe zwei oder drei einzuschätzen, denn er kann mindestens über zwei Funktionen wie das Lenken und die Beschleunigung die Kontrolle übernehmen. Dennoch muss der Fahrer das Auto und die Umgebung beobachten. Diese Übergangsstadien stellen möglicherweise die größte Herausforderung für die Technologie dar. Immer mehr Fahrzeuge verlassen die Fertigungsanlage mit kombinierten automatischen Funktionen, die sie auf eine Automatisierungsstufe Zwei und Drei bringen. Die Mehrzahl der Autohersteller bieten als Standard- oder Premiumausstattung solche Funktionen wie einen Parkassistenten, Abstandsregeltempomat, automatisches Notfall-Bremssystem und so weiter an – Automatik-Funktionen, die, zusammengefügt und kombiniert, Jahr für Jahr einen aufsteigenden Weg in Richtung selbstfahrender Fahrzeuge weisen. Selbstfahrende Fahrzeuge benötigen eine Produktreihe mit Radar, LIDAR (dieses funktioniert wie Radar, jedoch mit Licht- anstatt mit Radiowellen), Videokameras, GPS und Trägheitsnavigationssystemen neben vielen anderen Funktionen, die ein Bewusstsein für die Umgebung des Autos schaffen. Die Fahrer müssen sich darauf verlassen können, dass diese Systeme in den potentiell gefährlichen und nicht voraussagbaren Situationen, die der Straßenverkehr mit sich bringt, verlässlich zusammenarbeiten. Andernfalls werden sie sie nicht umfassend nutzen und so von den Vorteilen, die diese Systeme mit sich bringen, nicht profitieren können.

Vertrauen Sie Ihrem Auto – aber nicht blind

Trotz einer bestehenden Sorge um die Sicherheit selbstfahrender Autos hat eine Umfrage, die wir letztes Jahr mit 239 Personen durchführten, ergeben, dass die Leute tatsächlich eher geneigt sind, einem automatischen System zu vertrauen als anderen Fahrern. Dies liegt darin begründet, dass die Menschen unberechenbarer und anfälliger für Emotionen sind. Ein selbstfahrendes Auto würde sich niemals Aggression im Straßenverkehr, rücksichtsloses Fahren oder Tagträumen zu Schulden kommen lassen. Jedoch besteht ebenfalls die Gefahr, dass die Leute der Selbstfahr-Technologie bereits zu sehr vertrauen. Von dem jüngsten Unfall einmal abgesehen, könnte die scheinbare Verlässlichkeit des Tesla-Autopiloten die Menschen glauben lassen, sie müssten sich nicht mehr auf die Straße konzentrieren und das Auto selber fahren lassen – sodass sie sich mit anderen Dingen beschäftigen können. Jedoch sind diese Technologien nicht dafür gedacht, die komplette Kontrolle über das Auto zu übernehmen, und der Fahrer sollte bereit sein, jederzeit die Kontrolle an sich zu nehmen. So sagte es einer der Experten, mit denen wir sprachen:

Die Leute werden beginnen, dem Auto zu vertrauen. Die Dinge werden zunehmend schief laufen. Und die Fahrer werden nicht mehr in der Lage sein, die Kontrolle wieder zu erlangen, weil sie sich von einem trügerischen Gefühl der Sicherheit haben verführen lassen.

Selbst wenn ein Fahrer sich nur teilweise auf ein automatisches System verlässt, verliert er das Gefühl für das, was um ihn herum passiert. Um die Kontrolle über das Fahrzeug in einer potentiell gefährlichen Situation wieder zu erlangen, muss er sein Bewusstsein für die Situation zurückgewinnen, und das kostet Zeit. So hat zum Beispiel eine Studie mit einem Fahrsimulator gezeigt, dass Fahrer, die eine Automatisierung der Stufe Drei nutzen (bei der das Auto die Steuerung und die Beschleunigung kontrolliert und die Umwelt beobachtet), ungefähr 15 Sekunden benötigen, um die Kontrolle über das Fahrzeug wieder zu erlangen. Gemäß der Aussage eines Robotik-Experten, den wir befragt haben, wird der Verlust des Bewusstseins für die Situation schlimmer, je länger der Fahrer die automatische Technologie benutzt. Sie fanden heraus, dass die Nutzung eines einfachen Tempomaten für die Abstandsregelung, der lediglich die Geschwindigkeit des Autos so anpasst, dass ein sicherer Abstand zu anderen Fahrzeugen eingehalten wird, für eine Stunde oder länger die Aufmerksamkeit des Fahrers effektiv so verringert wie wenn er ein vollständig selbstfahrendes Auto nutzen würde.

Benutzerhandbuch lesen, Test absolvieren

Wie können wir also sicherstellen, dass die Fahrer der teilautomatisierten Fahrzeugtechnologie nicht über die Maße vertrauen und sich und andere dabei in Gefahr bringen? Immerhin ist es allgemein bekannt, dass die Leute Benutzerhandbücher oder die Informationsanzeigen neuer Software eher spärlich lesen. Die Mehrzahl der Experten, mit denen wir sprachen, waren sich einig, dass die Fahrer ein spezifisches Training bekommen sollten, bevor sie solche Systeme nutzen. Dies könnte folgendes beinhalten: Anpassung des aktuellen Standardtests für Fahranfänger, Nachschulungskurse, das Verpflichten der Hersteller zur Vorführung der neuen Technologien, noch bevor sie diese verkaufen, oder sogar ein erster Test in Simulatoren – diese könnten in speziellen Zentren oder in Autohäusern zur Verfügung gestellt werden. Da automatisierte Fahrzeugtechnik immer beliebter wird, ist es besodners wichtig, dass die Menschen lernen, wann man ihnen sicher vertrauen kann und wann nicht. Wenn sie dies nicht tun, kann es zu einer Reihe von Unfällen führen. In der Folge würden die Menschen das Vertrauen in die Sicherheit dieser Systeme verlieren. Die Industrie wäre letztlich gezwungen, einen Schritt zurückzutreten. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „DRIVING IN THE MORNING“ by Eliecer Gallegos (CC BY-SA 2.0)


Schlagwörter: , , , , , , , ,
George Filip

George Filip

arbeitet am Nottingham Geospatial Institute und ist in der Forschungsgruppe für menschliche Faktoren an der Universität Nottingham aktiv. Seine Forschungen untersuchen, wie sich das menschliche Vertrauen auf die Nutzung selbstfahrender Autos auswirkt.

More Posts - Twitter