Brains vs. Robots: Der Aufstieg der Roboter ist nicht aufzuhalten

Elon Musk, der Tesla-Boss und Gründer von OpelAl, schlug vor ein paar Tagen vor, dass die Menschheit ihre eigene Irrelevanz hinauszögern könnte, indem sie sich selbst mit ihnen verbindet und zu Cyborgs werden möge. Jedoch lassen aktuelle Trends in der Software künstlicher Intelligenz und tiefergehender Lerntechnologie, vor allem auf lange Sicht gesehen ernsthafte Zweifel über die Plausibilität dieser Aussage entstehen. Diese Zweifel lassen sich nicht nur auf Einschränkungen in der Hardware zurückführen, sie haben auch damit zu tun, welche Rolle das menschliche Gehirn bei dem Zuordnungsprozess spielt.

Musks Theorie ist einfach und direkt: Ausreichend entwickelte Schnittstellen zwischen dem Gehirn und dem Computer soll es den Menschen ermöglichen, ihre Fähigkeiten durch besseres Verständnis über den Einsatz von Technologien wie maschinelles Lernen und tiefergehende Lernerfahrungen massiv zu erweitern. Aber der Austausch verläuft in beide Richtungen. Durch den Menschen als „Lückenfüller“ in der Verbindung zwischen Hirn und Maschine könnte die Leistung maschineller Lernalgorithmen verbessert werden, vor allem in Bereichen wie differenzierten kontextabhängigen Entscheidungen, in denen die Algorithmen noch nicht ausgereift genug sind.

Die Idee an sich ist nicht neu. So spekulierte beispielsweise unter anderem J. C. R. Licklider bereits Mitte des 20. Jahrhunderts über die Möglichkeit und Implikation der „Mensch-Computer Symbiose“. Allerdings entwickelte sich der Prozess seitdem nur langsam. Ein Grund hierfür ist die Entwicklung der Hardware. „Es gibt einen Grund, wieso sie ‚Hardware‘ genannt wird – sie ist ziemlich kompliziert“ (engl.: hard), sagte Tony Fadell, der Entwickler des iPods. Die Schaffung der Hardware, die sich mit organischen Systemen verbindet, sei noch schwieriger. Aktuelle Techniken sind primitiv im Vergleich zu der Vorstellung einer Verbindung von Gehirn und Maschine, wie sie uns in Science-Fiction-Filmen wie Matrix verkauft wird.

Macken der tiefgehenden Lernerfahrung

Angenommen, das Hardware-Problem würde letztendlich gelöst, gibt es noch weitaus größere Probleme. Das vergangene Jahrzehnt der enormen Fortschritte in der Forschung des Deep Learning hat aufgedeckt, dass weiterhin grundlegende Herausforderungen bezwungen werden müssen. Eine davon ist die Problematik, die Funktionsweise komplexer neuronaler Netzwerksysteme zu verstehen und zu charakterisieren. Wir vertrauen in einfache Technologien wie einen Taschenrechner, weil wir wissen, dass er immer genau das tun wird, was wir von ihm erwarten. Fehler lassen sich fast ausschließlich auf menschliche Eingabefehler zurückführen.

Eine Vorstellung der Verschmelzung von Gehirn und Maschine ist es, uns zu Supermenschen mit unfassbaren Rechenfähigkeiten zu machen. Statt einen Taschenrechner oder das Smartphone zu zücken, könnten wir die Rechnung einfach denken und sofort die richtige Antwort der „assistierenden“ Maschine erhalten. Besonders knifflig wird es bei dem Versuch, tiefer in die fortgeschrittenen Funktionen der maschinellen Lerntechniken zu gehen, wie beispielsweise bei Deep Learning.

Angenommen, Sie arbeiten in am Flughafen in der Sicherheitsabteilung und verfügen über eine Verschmelzung von Gehirn und Maschine, die jeden Tag automatisch tausende Gesichter scannt und über mögliche Sicherheitsrisiken alarmiert. Die meisten maschinellen Lernsysteme leiden unter einem Problem, bei dem eine kleine Veränderung in der äußeren Erscheinung einer Person oder eines Objekts dazu führen kann, dass katastrophale Fehler in der Klassifizierung entstehen. Verändern Sie das Bild einer Person um weniger als ein Prozent, kann es vorkommen, dass das maschinelle System denkt, es sähe ein Fahrrad statt eines Menschen.

Terroristen oder Verbrecher würden die verschiedenen Schwachstellen der Maschine ausnutzen, um Sicherheitskontrollen zu umgehen – solcherlei Probleme bestehen bereits bei der Online-Sicherheit. Auch wenn Menschen auf andere Weise eingeschränkt sind, bestünde diese Verwechslungsgefahr bei ihnen zumindest nicht.

Ungeachtet seiner Reputation als nicht emotionale Technologie leiden maschinelle Lerntechnologien wie Menschen unter Voreingenommenheit und können mit entsprechender Dateneingabe sogar rassistisches Verhalten aufweisen. Diese Unvorhersehbarkeit hat grundlegende Auswirkungen darauf, was passiert, wenn ein Mensch sich in die Maschine einklinkt und, wichtiger noch, dieser auch vertraut.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Vertraue mir, ich bin Roboter

Vertrauen ist ebenfalls eine beidseitige Angelegenheit. Menschliches Denken ist eine komplexe, höchst dynamische Angelegenheit. Schaut man sich dasselbe Sicherheitsszenario mit einer ausreichend entwickelten Verbindung von Gehirn und Maschine an, stellt sich die Frage: Woher soll die Maschine wissen, welche menschlichen Neigungen sie zu ignorieren hat? Schließlich sind unbewusste Neigungen eine Herausforderung, von der jeder betroffen ist. Was, wenn die Technologie bei der Befragung möglicher Bewerber hilft?

Wir können in bestimmtem Ausmaß die Vertrauensprobleme einer Hirn-Maschine-Verbindung vorhersehen, wenn wir auf die weltweiten Verteidigungskräfte blicken, die versuchen, das Vertrauen in menschliche Maschinen in einem stetig wachsenden menschlich-autonom gemischten Schlachtfeld anzusprechen. Die Forschung beschäftigt sich mit beiden Fällen: Bekannte autonome Systeme, bei denen Menschen den Maschinen vertrauen und Maschinen sich wiederum auf die Menschen verlassen.

Es existiert eine Parallele zwischen einem Roboter-Krieger, der die ethische Entscheidung trifft, eine rechtswidrige Anweisung des Menschen zu ignorieren und dem, was im Interface zwischen Gehirn und Maschine passieren muss. Dies sind Interpretationen der menschlichen Gedanken durch die Maschine, während flüchtige Gedanken und tiefe unbewusste Neigungen gefiltert werden.

In Verteidigungssituationen übernimmt die logische Rolle für ein menschliches Hirn die Prüfung, ob Entscheidungen ethisch vertretbar sind. Doch wie wird das funktionieren, wenn das menschliche Gehirn an eine Maschine angeschlossen ist, die Schlussfolgerungen aus Daten zieht, die kein Hirn begreifen kann? Auf lange Sicht ist das Problem, ob und wie Menschen in Prozesse involviert sein müssen, die zunehmend von Maschinen bestimmt werden. Bald werden Maschinen vielleicht sogar medizinische Entscheidungen übernehmen, die kein menschliches Team ausloten kann. Welche Rolle kann und sollte das menschliche Gehirn in diesem Prozess spielen?

In manchen Fällen vermehrt die Kombination aus Automatisierung und menschlicher Arbeitskraft die Jobaussichten, jedoch dürfte dieser Effekt demnächst verschwunden sein. Die gleichen Roboter und automatische Systeme werden allerdings weiterhin verbessert und schlussendlich die von ihnen geschaffenen Jobs ersetzen. Während Menschen zunächst eine „nützliche“ Rolle in Gehirn-Maschine-Systemen spielen könnten, entwickelt sich die Technologie weiter und es wird dementsprechend weniger Gründe geben, Menschen überhaupt in den Prozess zu integrieren.

Der Gedanke, die Relevanz der Menschheit mit der Verbindung von menschlichen und künstlichen Gehirnen aufrechtzuerhalten, scheint verlockend. Abzuwarten bleibt auch, welchen Beitrag das menschliche Gehirn hier beitragen wird – besonders, weil die technologische Entwicklung die des menschlichen Gehirns um eine Million zu eins überbietet.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Arzt“ by tmeier1964 (CC0 Public Domain)


The Conversation

ist Dozent an der Queensland University of Technology. Er ist einer der führenden Robotic-Forscher und leitet die interdisziplinäre Forschung an der Schnittstelle zwischen Robotern, Neurowissenschaft und Computer-Vision.


Artikel per E-Mail verschicken
Schlagwörter: , , , , , , , , , , , , , , , , , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert