Künstliche Intelligenz: Wovor die Forscher sich fürchten

Als KI-Forscher begegne ich oft dem Umstand, dass viele Menschen Angst haben, was KI für die Zukunft bedeuten könnte. Angesichts der Geschichte und der Unterhaltungsindustrie ist es wohl wenig überraschend, dass wir Angst vor einer kybernetischen Machtübernahme haben, die uns zwingt, eingesperrt zu leben wie in der „Matrix“ – als eine Art menschliche Batterie.

Und doch ist es schwer für mich, von den evolutionären Computermodellen aufzusehen, die ich nutze, um die KI zu entwickeln. Ich kann mir kaum vorstellen, dass die unschuldigen, animierten Kreaturen auf meinem Bildschirm die Ungeheuer der Zukunft werden könnten. Könnte ich „der Zerstörer der Welten“ werden, wie Oppenheimer klagte, nachdem er die Konstruktion der ersten Atombombe leitete?

Ich würde den Ruhm mitnehmen, denke ich, aber vielleicht liegen die Kritiker tatsächlich richtig. Vielleicht sollte ich aufhören, mich um die folgende Frage zu drücken: Habe ich, als KI-Experte Angst vor künstlicher Intelligenz?

Angst vor dem Unvorhergesehenen

Der Supercomputer HAL 9000, der von dem Science-Fiction-Autor Arthur C. Clarke erdacht und von dem Filmregisseur Stanley Kubrick in „2001: Odyssee im Weltraum“ zum Leben erweckt wurde, ist ein gutes Beispiel für ein System, das wegen unbeabsichtigter Auswirkungen fehlschlägt. Bei vielen komplexen Systemen – der RMS Titanic, dem Space Shuttle der NASA und dem Kernkraftwerk in Tschernobyl, verbinden Ingenieure viele verschiedene Komponenten miteinander. Die Konstrukteure haben wohl gewusst, wie jedes Element einzeln gearbeitet hat, aber sie wussten nicht genug darüber, wie sie alle zusammen arbeiteten.

Das führte zu Systemen, die niemals vollständig verstanden werden konnten und daher auf unvorhersehbare Weise versagten. Bei jeder Katastrophe – ein Schiff versenken, zwei Shuttles zur Explosion bringen und radioaktive Kontaminationen in ganz Europa und Asien freisetzen – wirkte eine Reihe von relativ kleinen Fehlern zusammen, um eine Katastrophe zu verursachen.

Ich sehe die Gefahr, dass wir in der KI-Forschung in die gleiche Falle laufen könnten. Wir betrachten die neuesten Forschungsergebnisse aus der Kognitionswissenschaft, übersetzen das in einen Algorithmus und fügen diesen zu einem bestehenden System hinzu. Wir versuchen, KI zu konstruieren, ohne Intelligenz oder Kognition vorher zu verstehen.

Systeme wie Watson von IBM und Alpha von Google statten künstliche neuronale Netze mit enormer Rechenleistung aus und machen Unmögliches möglich. Doch wenn diese Maschinen Fehler machen, verlieren sie bei „Jeopardy!“ oder scheitern daran, einen Go-Meister zu besiegen. Das wird nicht die Welt verändern – in der Tat ist das Schlimmste, was dabei passieren könnte, dass man etwas Geld beim Wetten verliert, wenn man auf den Computer gesetzt hat.

Aber da KI-Konstruktionen noch komplexer und Computer-Prozessoren noch schneller werden, werden sich ihre Fähigkeiten weiter verbessern. Wir werden ihnen mehr Verantwortung übergeben, auch wenn das Risiko von unbeabsichtigten Konsequenzen dabei steigt. Wir wissen, dass irren menschlich ist, somit ist es wohl unmöglich für uns, ein wirklich sicheres System zu entwickeln.

Angst vor Missbrauch

Ich bin nicht sehr besorgt über unbeabsichtigte Konsequenzen bei den künstlichen Intelligenzformen, die ich entwickle, indem ich einen Ansatz namens Neuro-Evolution nutze. Ich generiere virtuelle Umgebungen und entwickle digitale Lebewesen und deren Gehirne, um immer komplexere Aufgaben zu lösen. Die Leistungen der Geschöpfe werden dann ausgewertet. Diejenigen, die die beste Leistung bringen, werden ausgewählt, um sich zu reproduzieren und die nächste Generation zu erschaffen. Über viele Generationen entwickeln diese Maschinen-Kreaturen kognitive Fähigkeiten.

Im Moment machen wir nur winzige Schritte, um Maschinen zu entwickeln, die einfache Navigationsaufgaben erledigen können, einfache Entscheidungen treffen oder sich an ein paar Bits erinnern. Aber bald werden wir Maschinen entwickeln, die komplexere Aufgaben ausführen können und eine viel bessere allgemeine Intelligenz haben werden. Letztlich hoffen wir, Intelligenzen von menschlichem Niveau zu erschaffen.

Auf dem Weg dorthin finden und beseitigen wir Fehler und Probleme durch den Prozess der Evolution. Mit jeder Generation werden die Maschinen besser in der Handhabung der Fehler, die in früheren Generationen aufgetreten sind. Das erhöht die Chancen, dass wir ungewollte Auswirkungen in der Simulation finden werden, die dann eliminiert werden können, bevor sie jemals in der realen Welt eingesetzt werden.

Eine andere Möglichkeit, die in entfernterer Zukunft auftreten wird, besteht darin, evolutionäre Prinzipien zu nutzen, um die Ethik der künstlichen Intelligenzsysteme zu beeinflussen. Es ist wahrscheinlich, dass menschliche Ethik und Moral, wie Vertrauenswürdigkeit und Altruismus, ein Ergebnis unserer Evolution sind – und ein Faktor unseres Fortbestehens. Wir könnten unsere virtuellen Umgebungen so aufbauen, dass sie evolutionäre Vorteile für Maschinen bieten, die Güte, Ehrlichkeit und Empathie zeigen. Dies könnte ein Weg sein, um sicherzustellen, dass wir mehr gehorsame Diener oder vertrauenswürdige Begleiter und weniger rücksichtslose Killer-Roboter entwickeln.

Obgleich die Neuro-Evolution die Wahrscheinlichkeit von unbeabsichtigten Auswirkungen verringern könnte, verhindert sie keinen Missbrauch. Aber das ist eine moralische Frage, keine wissenschaftliche Frage. Als Wissenschaftler muss ich meiner Verpflichtung zur Wahrheit folgen und berichten, was ich bei meinen Experimenten herausfinde, ob ich die Ergebnisse nun mag oder nicht. Mein Fokus liegt nicht darauf, zu bestimmen, ob ich etwas mag oder akzeptiere; es kommt nur darauf an, dass ich es aufdecken kann.

Angst vor falschen sozialen Prioritäten

Ein Wissenschaftler zu sein, entbindet mich allerdings nicht von meiner Menschlichkeit. Ich muss mich auf irgendeiner Ebene wieder mit meinen Hoffnungen und Ängsten auseinandersetzen. Als moralisches und politisches Wesen muss ich die möglichen Implikationen meiner Arbeit und ihre möglichen Auswirkungen auf die Gesellschaft berücksichtigen.

Als Forscher und als Gesellschaft haben wir noch keine klare Vorstellung davon, was die KI tun oder werden soll. Zum Teil natürlich, weil wir noch nicht wissen, wozu sie fähig ist. Aber wir müssen entscheiden, worin die gewünschte Auswirkung fortgeschrittener KI besteht. Ein großer Bereich, dem die Menschen ihre Aufmerksamkeit widmen, ist die Erwerbstätigkeit. Roboter können bereits harte Arbeit wie Autoteile schweißen selbständig durchführen. Eines Tages könnten sie auch kognitive Aufgaben übernehmen, die wir einst für eindeutig menschlich hielten. Selbstfahrende Autos könnten Taxifahrer ersetzen; autonome Flugzeuge könnten Piloten ersetzen.

Anstatt medizinische Hilfe in einer Notaufnahme von potenziell übermüdeten Ärzten zu bekommen, könnten die Patienten eine Untersuchung und Diagnose von einem Expertensystem mit sofortigem Zugriff auf alle medizinischen Kenntnisse erhalten, die jemals gesammelt wurden – und die Operation von einem unermüdlichen Roboter mit einer vollkommen ruhigen „Hand“ durchführen lassen. Rechtsberatung könnte aus einer allwissenden juristischen Datenbank kommen; Anlageberatung könnte aus einem Markt-Vorhersage-System kommen.

Vielleicht werden eines Tages alle menschlich besetzten Arbeitsplätze von Maschinen übernommen. Sogar mein eigener Job könnte von einer großen Anzahl von Maschinen, die unermüdlich erforschen, wie man noch intelligentere Maschinen herstellt, schneller erledigt werden.

In unserer heutigen Gesellschaft verdrängt die Automatisierung Menschen aus ihren Arbeitsplätzen und macht die Leute reicher, die die Maschinen besitzen – und alle anderen ärmer. Das ist kein wissenschaftliches Problem; es ist ein politisches und sozioökonomisches Problem, das wir als Gesellschaft lösen müssen. Meine Forschung wird das nicht ändern, obwohl mein politisches Selbst – zusammen mit dem Rest der Menschheit – möglicherweise in der Lage sein wird, Umstände zu schaffen, in denen die KI einen vorteilhaften Effekt für die Masse haben wird, anstatt die Diskrepanz zwischen dem einen Prozent und dem Rest von uns zu erhöhen.

Angst vor dem Albtraum-Szenario

Es gibt eine letzte Angst, verkörpert von HAL 9000, dem Terminator und einer unüberschaubaren Anzahl von anderen fiktiven Superintelligenzen: Wenn die KI sich weiter verbessert, bis sie die menschliche Intelligenz übertrifft, wird dann ein superintelligentes System (oder mehrere davon) zu der Erkenntnis gelangen, dass Menschen nicht mehr gebraucht werden? Wie werden wir unsere Existenz im Angesicht einer Superintelligenz rechtfertigen, die Dinge tun kann, die Menschen niemals tun könnten? Können wir vermeiden, dass wir von den Maschinen, die wir selbst erschaffen haben, ausgelöscht werden?

Die zentrale Frage in diesem Szenario ist: Warum sollte eine Superintelligenz uns erhalten? Ich würde so argumentieren, dass ich ein guter Mensch bin, der vielleicht sogar dazu beigetragen hat, die Superintelligenz zu erschaffen. Ich würde das Mitgefühl und die Empathie ansprechen, um die Superintelligenz zu veranlassen, mich, eine mitfühlende und einfühlsame Person, am Leben zu halten. Ich würde auch argumentieren, dass die Vielfalt einen Wert an sich hat, und dass das Universum so absurd groß ist, dass die Existenz der Menschheit in ihm wahrscheinlich überhaupt keine Rolle spielt.

Aber ich spreche nicht für die ganze Menschheit, und ich finde es schwer, für uns alle ein überzeugendes Argument zu liefern. Wenn ich einen scharfen Blick auf uns alle zusammen werfe, sehe ich viel Falsches: Wir hassen uns gegenseitig. Wir führen Krieg gegeneinander. Wir gewähren keinen gleichberechtigten Zugang zu Essen, Wissen oder medizinischer Hilfe. Wir verschmutzen den Planeten. Es gibt viele gute Dinge in der Welt, aber all das Böse schwächt die Argumente für unsere Existenzberechtigung.

Glücklicherweise müssen wir unsere Existenz noch nicht rechtfertigen. Wir haben noch etwas Zeit – etwa 50 bis 250 Jahre, je nachdem wie schnell sich die KI entwickelt. Als Spezies können wir zusammen kommen und eine gute Antwort darauf finden, warum eine Superintelligenz uns nicht auslöschen sollte. Aber das wird schwierig werden: Zu sagen, dass wir Vielfalt begrüßen, und danach zu handeln, sind zwei verschiedene Dinge – genau so, wie zu sagen, dass wir den Planeten retten wollen, und es dann erfolgreich umzusetzen.

Wir alle – jeder für sich und wir als Gesellschaft, müssen uns auf dieses Albtraum-Szenario vorbereiten, indem wir die Zeit nutzen, die wir noch haben, um zu zeigen, warum unsere Kreationen uns weiterhin leben lassen sollten. Oder wir könnten uns entschließen, daran zu glauben, dass das nie passieren wird, und aufhören, uns Sorgen zu machen. Aber unabhängig von den physischen Bedrohungen, die Superintelligenzen darstellen können, stellen sie auch eine politische und ökonomische Gefahr dar. Wenn wir keinen Weg finden, unseren Reichtum besser zu verteilen, werden wir den Kapitalismus weiter anheizen, indem wir KI-Arbeitskräfte beschäftigen, die nur den wenigen Menschen dienen, die alle Produktionsmittel besitzen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Roboter“ by Ramdlon (CC0 Public Domain)


Schlagwörter: , , , , , , , , , , , ,
Arend Hintze

Arend Hintze

ist Assistenzprofessor/ Hilfswissenschaftlicher Mitarbeiter an der Michigan State Universität für integrative Biologie, Computerwissenschaft und Ingenieurwesen. Im Hintzelab, dem Labor an der Michigan State Universität, untersucht er gemeinsam mit seinen Kollegen/innen unter anderem die Evolution von natürlicher und künstlicher Intelligenz.

More Posts