Never mind the Killerroboter – Unzuverlässig sind sie alle.

Die Anführer von mehr als 100 der weltweit größten Unternehmen der KI-Branche sorgen sich um die Entwicklung der „Killerroboter“. In einem offenen Brief an die Vereinten Nationen warnten die Führungskräfte – inklusive Elon Musk, dem Gründer von Tesla und den Gründern von Googles KI-Abteilung – dass die autonome Waffentechnologie von Terroristen und Despoten gehackt werden und anschließend für böse Motive verwendet werden könnte.

Aber die Gefahr ist im echten Leben weitaus größer – und speist sich nicht nur aus menschlichem Versagen, sondern auch aus dem der Maschinen. Studien von komplexen Systemen haben gezeigt, wie sich ein Verhaltensmuster entwickeln kann, das weitaus unvorhersehbarer ist als die Summe einzelner Maßnahmen. Auf einer Ebene deutet das darauf hin, dass sich menschliche Gesellschaften, verglichen mit dem Verhalten Einzelner, sehr unterschiedlich verhalten können. Dieses Prinzip kann jedoch genauso auf Technologien angewendet werden. Sogar Ökosysteme von relativ simplen KI-Programmen, die wir als dumme, nützliche Bots bezeichnen, können uns überraschen – sogar dann, wenn die individuellen Bots sich gut verhalten.

Die individuellen Elemente, die ein komplexes System wie einen Wirtschaftsmarkt oder das Wetter als Ganzes ausmachen, haben die Tendenz, nicht auf eine simple, lineare Art und Weise zu interagieren. Das macht es sehr schwierig, dieses System als Modell zu verstehen. Beispielsweise ist es nach vielen Jahren der Klimaforschung immer noch unmöglich, langfristige Wettervorhersagen zu treffen. Diese Systeme sind oft sehr sensibel gegenüber kleinen Veränderungen und deshalb anfällig gegenüber explosiven Rückkopplungsschleifen. Es ist darüber hinaus sehr schwierig, den präzisen Status eines solchen Systems an einem bestimmten Zeitpunkt festzustellen. Alle vorher genannten Aspekte machen diese Systeme intrinsisch unvorhersehbar.

Alle diese Prinzipien sind anwendbar auf große Gruppen von Einzelpersonen, die auf ihr eigenes Verlangen hin Entscheidungen treffen. Ob es sich hierbei um eine menschliche Gesellschaft oder eine Gruppe von Robotern handelt, ist dabei irrelevant. Meine Kollegen und ich erforschten kürzlich den Typ eines komplexen Systems, das geeignete Roboter dazu benutzte, Wikipedia-Artikel automatisch zu bearbeiten. Diese verschiedenen Roboter wurden von Wiki-Nutzern entwickelt, wobei die der zugrundeliegenden Open-Source-Software kostenlos und frei zugänglich und deswegen jedem zur Forschung verfügbar ist. Einzeln haben sie alle das gemeinsame Ziel, die Enzyklopädie zu verbessern. Ihr kollektives Verhalten stellt sich allerdings als überraschend ineffizient heraus.

Diese Wikipedia-Bots arbeiten sehr gut, wenn sie auf bewährten Regeln und Absprachen basieren. Weil die Webseite jedoch über kein zentrales Führungssystem verfügt, gibt es keine effektive Koordination zwischen den Personen, die diese Bots betreiben. Als Ergebnis fanden wir Bots, die ihre Artikel gegenseitig jeweils über mehrere Jahre hinweg editierten und die Bearbeitungen der anderen Kontrollinstanz rückgängig machten, ohne, dass es jemandem aufgefallen war. Und weil diese Bots über keinerlei Wahrnehmung verfügen, bemerkten sie es selbst auch nicht.

Die Bots sind für den Zweck entwickelt, den Bearbeitungsprozess zu beschleunigen. Jedoch können kleine Diskrepanzen in der Entwicklung der Bots oder zwischen den Menschen, die diese Bots nutzen, zu einer massiven Verschwendung von Ressourcen im Rahmen eines „Bearbeitungs-Krieges“ führen, der von menschlichen Redakteuren weitaus schneller gelöst werden könnte.

Wir fanden ebenso heraus, dass die Bots sich innerhalb der verschiedenen Sprachversionen von Wikipedia unterschiedlich verhielten. Die Regeln sind mehr oder weniger die gleichen, die Ziele sind ebenso identisch, die Technologie ist dieselbe. Jedoch ist in der deutschen Wikipedia die Kooperation zwischen den Bots weitaus effizienter und produktiver als beispielsweise in der portugiesischen. Dies kann nur mit den Differenzen zwischen den Redakteuren, die diese Bots in verschiedenen Umfeldern laufen lassen, erklärt werden.

Exponentielle Verwirrung

Wikipedia-Bots verfügen über nur wenig Autonomie. Das System verhält sich ohnehin schon anders als die Ziele der individuellen Bots. Jedoch plant die Wikimedia Stiftung den Einsatz einer KI, die den Bots einen höheren Grad von Autonomie verleihen soll. Dies wird wahrscheinlich zu noch mehr Fällen von unerwartetem Verhalten führen.

Es wurde auch untersucht, was passiert, wenn zwei Bots, die dazu entwickelt wurden, mit Menschen zu sprechen, auf einmal untereinander interagieren. Die Antworten künstlicher persönlicher Assistenten wie Siri von Apple überrascht uns schon überhaupt nicht mehr. Wenn man aber zwei dieser Chatbots zusammenbringt, können diese schnell anfangen, sich auf eine überraschende Weise zu verhalten. Sie können beispielsweise einen Streit führen und sich sogar gegenseitig beleidigen.

Umso größer das System wird und umso autonomer ein Bot ist, umso komplexer und unvorhersehbarer ist das zukünftige Verhalten eines Systems. Wikipedia ist ein Beispiel einer großen Anzahl relativ einfacher Bots. Das Chatbot-Beispiel zeigt eine kleine Anzahl eher komplexerer und kreativerer Bots auf – in beiden Fällen entwickelten sich unerwartete Konflikte. Die Komplexität und damit die Unvorhersehbarkeit, steigt exponentiell, je mehr individuell agierende Bots dem System hinzugefügt werden. In einem zukünftigen System mit einer großen Anzahl sehr kluger Roboter könnte das unerwartete Verhalten unsere Vorstellungskraft übersteigen.

Selbstfahrender Wahnsinn

Bei selbstfahrenden Autos gibt es beispielsweise spannende Fortschritte zur Effizienz und zu Sicherheitsaspekten des Straßenverkehrs. Wir wissen jedoch noch nicht, was passieren wird, wenn wir einmal ein großes, ungezähmtes System voller autonomer Fahrzeuge haben. Sie könnten sich völlig anders verhalten als weniger Fahrzeuge dies in einer kontrollierten Umgebung tun würden. Und sogar noch unerwarteteres Verhalten könnte in dem Fall auftreten, wenn fahrerlose Autos von verschiedenen Personen in unterschiedlichen Umgebungen „trainiert“ werden und anfangen, miteinander zu kommunizieren.

Menschen können sich neuen Regeln und Standards sehr schnell anpassen – aber immer noch damit Schwierigkeiten haben, den Systemwechsel durchzuführen. Dies kann für künstliche Akteure weitaus schwieriger sein. Wenn ein auf deutsche Standards eingestelltes Auto beispielsweise in Italien fährt, wissen wir einfach nicht, wie es mit den geschriebenen Regeln und ungeschriebenen Normen umgeht, die von den vielen anderen Autos befolgt werden, die auf italienische Standards eingestellt sind. Etwas so Ordinäres wie das Überqueren einer Kreuzung könnte plötzlich eine tödliche Gefahr bergen, weil wir einfach nicht wissen, ob die Autos so miteinander kommunizieren, wie sie es sollen oder etwas total Unvorhersehbares tun.

Denken wir nun an die „Killeroboter“, die Elon Musk und seinen Kollegen Sorgen bereiten. Ein einziger dieser Roboter könnte in den falschen Händen sehr gefährlich sein. Aber was ist mit einem unvorhersehbaren System von „Killerrobotern“? Daran will ich nicht mal denken.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Drohne“ by anne773 (CC0 Public Domain)


The Conversation

ist wissenschaftlicher Mitarbeiter für Computational Social Science am Institut für Internet an der University of Oxford. Er hat einen Doktortitel in Physik, studierte in Teheran, Göttingen und Budapest. Während seiner Arbeit in Budapest hat er sich viel mit der Wikipedia beschäftigt, ebenso wie Big Data Analysen.


Artikel per E-Mail verschicken
Schlagwörter: , , , , , , , , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert