All posts under Matrix

Leben wir in der Matrix? Was Elon Musk glaubt – und was wirklich dran sein könnte

In einem Interview im vergangenen Jahr hat der Technikunternehmer Elon Musk darauf hingewiesen, dass wir inmitten einer Computersimulation leben. Hört man das zum ersten Mal, scheint diese Behauptung weit hergeholt. Als Gründer von mehreren namhaften Unternehmen wie Tesla und Space X liegen die Interessen von Musks Geschäft eindeutig in führenden Technologien.

Der Schlüssel zu seiner Behauptung ist, dass sich Computerspiele in den letzten 40 Jahren rapide bis zu dem Punkt weiterentwickelt haben, dass sie innerhalb der nächsten paar Jahre so gestaltet sein werden, dass man vollkommen in ihnen verloren gehen kann. Dies geschieht mittels einer computergenerierten und kontrollierten Welt, die nahtlos mit der physischen Welt verschmolzen sein wird. Anders gesagt, wir sind kurz davor, eine Art erweiterte Realität (AR) zu erleben, die mit künstlicher Intelligenz einhergeht. Letztlich könnten die realen Erlebnisse und die Simulationen voneinander nicht mehr zu unterscheiden sein.

Musk sagt dazu folgendes: „Wenn Sie ein beliebiges Maß an Veränderung annehmen, werden die Spiele von der Realität nicht mehr zu unterscheiden sein. Das kann sogar dann passieren, wenn dieses Maß an Fortschritt im Vergleich zu dem jetzigen Standpunkt massiv abfallen würde. Dann sagen Sie einfach, okay, stellen wir uns vor, es sind 10.000 Jahre in der Zukunft. Auf der Evolutionsskala ist das noch gar nichts.

Also angenommen, wir bewegen uns dorthin, wo Spiele von der Realität nicht mehr unterscheidbar sind und diese Spiele könnten auf jedem digitalen Gerät oder einem PC oder wo auch immer gespielt werden und da wären vermutlich Billionen von diesen Computern und digitalen Geräten, dann wäre die logische Konsequenz, dass die Chance dafür, dass wir uns in der Basisrealität befinden, etwa eins zu einer Milliarde.“

Die Idee, dass Menschen in einer Realität leben, die von außenstehenden Institutionen wie Computern oder anderen Entitäten kontrolliert werden, geht schon seit einer Weile um. Dies ist eine Frage, die Philosophen und sogar Physikern über die Jahrhunderte hinweg erforscht haben. Der Philosoph Nick Bostrom kam schon 2003 zum gleichen Entschluss.

Die Ähnlichkeiten zwischen den Argumenten, die von Musk und Bostrom hervorgebracht wurden, gehen allerdings weiter als nur anzunehmen, dass wir ein Teil einer größeren Computersimulation sind. Beide betrachten die Entwicklung der künstlichen Intelligenz (KI) als einen gefährlichen Technikbereich. Laut Musk wird das Ergebnis des Fortschritts der KI-Forschung und ihrer Entwicklung das Ende der Zivilisation darstellen. Bostrom vertritt einen ähnlichen Standpunkt, sollte eine angemessene Risiko-Beurteilung während den Entwicklungsprojekten nicht durchgeführt werden.

Fakt oder Fiktion?

Aber ist das nur Paranoia? Die Behauptungen beinhalten mehr als seine bestehende Ähnlichkeit zu Science-Fiction-Filmen, wie Matrix und Odyssee im Weltraum, aber sind die von Musk und Bostrom geäußerten Ansichten wirklich Grund zur Sorge?

Die Möglichkeit, dass wir nicht in einer Simulation leben, wird stark durch wissenschaftliche Argumente unterstützt. Man bedenke die unglaubliche Rechenkraft der Computer, die benötigt würde, um eine solche Simulation zu erstellen. Ein Simulationssystem müsste all die Einheiten der Welt und deren Interaktionen managen. Dies würde eine riesige Menge an Verarbeitung erfordern. Weitere Unterstützung kann in Argumenten hinsichtlich der Quantenmechanik gefunden werden – eine wahrhafte lebensechte Simulation einer Stadt zu betreiben, mit all ihren Milliarden an Interaktionsbeispielen, würde einen Rechner erfordern, der ebenso groß wie eine Stadt ist. Das macht die Möglichkeit, dass wir in einer Simulation leben, höchst unwahrscheinlich.

Gesetzt dem Fall, eine Maschine würde existieren, die unsere Existenz simulieren könnte, wäre die Wahrscheinlichkeit recht hoch, dass wir sogenannte “Realitätsmängel“ erleben würden. Diese Fehler in der Simulation würden durch Pannen im Modell gesehen oder gehört werden.  Beispielsweise würden Sterne entweder existieren oder nicht, wenn sie durch Teleskope verschiedener Größen betrachtet werden. Solche Fehler wären in einer Simulation von diesem Ausmaß unausweichlich, aber bisher hat kein Mensch solcherlei Fehler bemerken können.

Maschinen, die mittels Selbstlernfunktion arbeiten oder eine Art superintelligenter Softwares sind immer noch sehr weit entfernt von dem momentanen Entwicklungsstand entfernt, außerdem können Systeme, die KI nutzen, diese nur in sehr eingeschränkt definierten Bereichen verwenden. Gegenwärtige Systeme lernen es, ihre Leistung in spezifischen Arbeitsbereichen zu optimieren – und gerade nicht die Welt zu übernehmen.

Neuronale Netzwerke, die manchmal auch als elektronisches Modell des Gehirns betrachtet werden, werden beispielsweise verwendet, um Veränderungen in Aktienmärkten vorauszusagen. Mithilfe der Nutzung von vorhandenen Aktiendaten können diese Systeme darauf trainiert werden, Gewohnheiten in Live-Datenübertragungen zu identifizieren, die darauf hinweisen könnten, dass etwas passieren wird. So können Händler rechtzeitig etwas tun, um negative Auswirkungen abzuschwächen.

Zudem gibt es Systeme, die eigens entwickelt wurden, um KI-Technik zu verwenden. Sie sollen die Arbeitsbelastung abmildern, indem sie voreingestellte Regeln und Fakten anwenden. Diese kennt man als wissensbasierte Systeme. Während die menschlichen Nutzer dieser Systeme nicht mitbekommen, dass sie mit einer Maschine interagieren – so wie Jill, der KI-Online-Tutor, der in einem KI-Kurs Fragen von Studenten beantwortet und ihnen Feedback gibt, sind sie auch entwickelt worden, um an oder mit klar definierten Problemen oder Bereichen zu arbeiten. 

Nimmt man die eingeschränkten Bereiche, in denen KI-Systeme entwickelte werden, erscheint die Gefahr, dass es zu einem Ende der Zivilisation durch die Erschaffung einer KI kommt, sehr gering. Tatsächlich wird die KI hauptsächlich dazu verwendet, um menschliche Entscheidungen und Handlungen zu unterstützen, statt sie zu ersetzen.

Alternative Realität

Allerdings scheint Musk in einem gewissen Teil seiner Theorie davon auszugehen, dass bestimmte Dinge in der nahen Zukunft auftreten werden. Eines davon ist die Entwicklung von Technologien, die die Schnittstelle zwischen Mensch und Maschine unterstützen sollen. Während wir im Alltag immer abhängiger von technischen Geräten werden, verändert sich die Art und Weise, wie wir sie nutzen, permanent. Unser Verlangen, auf Daten zuzugreifen und zu kommunizieren, hat zu einer Weiterentwicklung im Bereich der Wearables geführt. 

Musk behauptet, dass wir für die KI zu einer Art Haustier werden, sollten wir keine effektive Schnittstellen zwischen Hirn und Maschine entwickeln. Allerdings setzt sich Steve Mann, der Begründer der Wearables und der erweiterten Realität, dafür ein, beide Technologien zu kombinieren, damit die Gesellschaft davon profitiert. Diese Idee hat Hand und Fuß, da viel Arbeit auf unterstützende medizinische Systeme ausgelegt ist. Forscher entwickeln beispielsweise Hirnimplantate, um elektronische Signale im Gehirn zu nutzen und die Bewegung von beeinträchtigten Gliedmaßen zu stimulieren.

Es ist anzunehmen, dass wir eher nicht in einer Computersimulation leben und die Behauptungen von Musk haarsträubend sind. Dennoch denkt er in die richtige Richtung, denn wir werden in Zukunft noch viel mehr technische Entwicklungen erleben.

Künftige Entwicklungen innerhalb der AR und mit ihr verwandte Technologien werden uns in einer Welt leben lassen, die zunehmend miteinander verbunden ist. In diesen erweiterten Realitäten werden wir nahtlosen Zugang zu Daten und digitalen Darstellungen haben, die in die physische Welt projiziert werden. KI-Technik hilft uns dabei, die Daten zu verstehen und Entscheidungen zu treffen, die von Computern aufgestellt worden sind. Aber auch wenn sie in ihren Funktionen erweitert sind, werden diese Realitäten immer noch auf und in der echten Welt geschaffen sein.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „sea-landscape-nature-sky“ by Bradley Hook (CC0 Public Domain)


The Conversation

Weiterlesen »

Brains vs. Robots: Der Aufstieg der Roboter ist nicht aufzuhalten

Arzt (adapted) (Image by tmeier1964 [CC0 Public Domain] via pixabay)

Elon Musk, der Tesla-Boss und Gründer von OpelAl, schlug vor ein paar Tagen vor, dass die Menschheit ihre eigene Irrelevanz hinauszögern könnte, indem sie sich selbst mit ihnen verbindet und zu Cyborgs werden möge. Jedoch lassen aktuelle Trends in der Software künstlicher Intelligenz und tiefergehender Lerntechnologie, vor allem auf lange Sicht gesehen ernsthafte Zweifel über die Plausibilität dieser Aussage entstehen. Diese Zweifel lassen sich nicht nur auf Einschränkungen in der Hardware zurückführen, sie haben auch damit zu tun, welche Rolle das menschliche Gehirn bei dem Zuordnungsprozess spielt.

Musks Theorie ist einfach und direkt: Ausreichend entwickelte Schnittstellen zwischen dem Gehirn und dem Computer soll es den Menschen ermöglichen, ihre Fähigkeiten durch besseres Verständnis über den Einsatz von Technologien wie maschinelles Lernen und tiefergehende Lernerfahrungen massiv zu erweitern. Aber der Austausch verläuft in beide Richtungen. Durch den Menschen als „Lückenfüller“ in der Verbindung zwischen Hirn und Maschine könnte die Leistung maschineller Lernalgorithmen verbessert werden, vor allem in Bereichen wie differenzierten kontextabhängigen Entscheidungen, in denen die Algorithmen noch nicht ausgereift genug sind.

Die Idee an sich ist nicht neu. So spekulierte beispielsweise unter anderem J. C. R. Licklider bereits Mitte des 20. Jahrhunderts über die Möglichkeit und Implikation der „Mensch-Computer Symbiose“. Allerdings entwickelte sich der Prozess seitdem nur langsam. Ein Grund hierfür ist die Entwicklung der Hardware. „Es gibt einen Grund, wieso sie ‚Hardware‘ genannt wird – sie ist ziemlich kompliziert“ (engl.: hard), sagte Tony Fadell, der Entwickler des iPods. Die Schaffung der Hardware, die sich mit organischen Systemen verbindet, sei noch schwieriger. Aktuelle Techniken sind primitiv im Vergleich zu der Vorstellung einer Verbindung von Gehirn und Maschine, wie sie uns in Science-Fiction-Filmen wie Matrix verkauft wird.

Macken der tiefgehenden Lernerfahrung

Angenommen, das Hardware-Problem würde letztendlich gelöst, gibt es noch weitaus größere Probleme. Das vergangene Jahrzehnt der enormen Fortschritte in der Forschung des Deep Learning hat aufgedeckt, dass weiterhin grundlegende Herausforderungen bezwungen werden müssen. Eine davon ist die Problematik, die Funktionsweise komplexer neuronaler Netzwerksysteme zu verstehen und zu charakterisieren. Wir vertrauen in einfache Technologien wie einen Taschenrechner, weil wir wissen, dass er immer genau das tun wird, was wir von ihm erwarten. Fehler lassen sich fast ausschließlich auf menschliche Eingabefehler zurückführen.

Eine Vorstellung der Verschmelzung von Gehirn und Maschine ist es, uns zu Supermenschen mit unfassbaren Rechenfähigkeiten zu machen. Statt einen Taschenrechner oder das Smartphone zu zücken, könnten wir die Rechnung einfach denken und sofort die richtige Antwort der „assistierenden“ Maschine erhalten. Besonders knifflig wird es bei dem Versuch, tiefer in die fortgeschrittenen Funktionen der maschinellen Lerntechniken zu gehen, wie beispielsweise bei Deep Learning.

Angenommen, Sie arbeiten in am Flughafen in der Sicherheitsabteilung und verfügen über eine Verschmelzung von Gehirn und Maschine, die jeden Tag automatisch tausende Gesichter scannt und über mögliche Sicherheitsrisiken alarmiert. Die meisten maschinellen Lernsysteme leiden unter einem Problem, bei dem eine kleine Veränderung in der äußeren Erscheinung einer Person oder eines Objekts dazu führen kann, dass katastrophale Fehler in der Klassifizierung entstehen. Verändern Sie das Bild einer Person um weniger als ein Prozent, kann es vorkommen, dass das maschinelle System denkt, es sähe ein Fahrrad statt eines Menschen.

Terroristen oder Verbrecher würden die verschiedenen Schwachstellen der Maschine ausnutzen, um Sicherheitskontrollen zu umgehen – solcherlei Probleme bestehen bereits bei der Online-Sicherheit. Auch wenn Menschen auf andere Weise eingeschränkt sind, bestünde diese Verwechslungsgefahr bei ihnen zumindest nicht.

Ungeachtet seiner Reputation als nicht emotionale Technologie leiden maschinelle Lerntechnologien wie Menschen unter Voreingenommenheit und können mit entsprechender Dateneingabe sogar rassistisches Verhalten aufweisen. Diese Unvorhersehbarkeit hat grundlegende Auswirkungen darauf, was passiert, wenn ein Mensch sich in die Maschine einklinkt und, wichtiger noch, dieser auch vertraut.

Vertraue mir, ich bin Roboter

Vertrauen ist ebenfalls eine beidseitige Angelegenheit. Menschliches Denken ist eine komplexe, höchst dynamische Angelegenheit. Schaut man sich dasselbe Sicherheitsszenario mit einer ausreichend entwickelten Verbindung von Gehirn und Maschine an, stellt sich die Frage: Woher soll die Maschine wissen, welche menschlichen Neigungen sie zu ignorieren hat? Schließlich sind unbewusste Neigungen eine Herausforderung, von der jeder betroffen ist. Was, wenn die Technologie bei der Befragung möglicher Bewerber hilft?

Wir können in bestimmtem Ausmaß die Vertrauensprobleme einer Hirn-Maschine-Verbindung vorhersehen, wenn wir auf die weltweiten Verteidigungskräfte blicken, die versuchen, das Vertrauen in menschliche Maschinen in einem stetig wachsenden menschlich-autonom gemischten Schlachtfeld anzusprechen. Die Forschung beschäftigt sich mit beiden Fällen: Bekannte autonome Systeme, bei denen Menschen den Maschinen vertrauen und Maschinen sich wiederum auf die Menschen verlassen.

Es existiert eine Parallele zwischen einem Roboter-Krieger, der die ethische Entscheidung trifft, eine rechtswidrige Anweisung des Menschen zu ignorieren und dem, was im Interface zwischen Gehirn und Maschine passieren muss. Dies sind Interpretationen der menschlichen Gedanken durch die Maschine, während flüchtige Gedanken und tiefe unbewusste Neigungen gefiltert werden.

In Verteidigungssituationen übernimmt die logische Rolle für ein menschliches Hirn die Prüfung, ob Entscheidungen ethisch vertretbar sind. Doch wie wird das funktionieren, wenn das menschliche Gehirn an eine Maschine angeschlossen ist, die Schlussfolgerungen aus Daten zieht, die kein Hirn begreifen kann? Auf lange Sicht ist das Problem, ob und wie Menschen in Prozesse involviert sein müssen, die zunehmend von Maschinen bestimmt werden. Bald werden Maschinen vielleicht sogar medizinische Entscheidungen übernehmen, die kein menschliches Team ausloten kann. Welche Rolle kann und sollte das menschliche Gehirn in diesem Prozess spielen?

In manchen Fällen vermehrt die Kombination aus Automatisierung und menschlicher Arbeitskraft die Jobaussichten, jedoch dürfte dieser Effekt demnächst verschwunden sein. Die gleichen Roboter und automatische Systeme werden allerdings weiterhin verbessert und schlussendlich die von ihnen geschaffenen Jobs ersetzen. Während Menschen zunächst eine „nützliche“ Rolle in Gehirn-Maschine-Systemen spielen könnten, entwickelt sich die Technologie weiter und es wird dementsprechend weniger Gründe geben, Menschen überhaupt in den Prozess zu integrieren.

Der Gedanke, die Relevanz der Menschheit mit der Verbindung von menschlichen und künstlichen Gehirnen aufrechtzuerhalten, scheint verlockend. Abzuwarten bleibt auch, welchen Beitrag das menschliche Gehirn hier beitragen wird – besonders, weil die technologische Entwicklung die des menschlichen Gehirns um eine Million zu eins überbietet.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Arzt“ by tmeier1964 (CC0 Public Domain)


The Conversation

Weiterlesen »