Die Künstliche Intelligenz scheitert an der Sprache

Von allen Seiten des Internets sieht man gefühlt nur Artikel, die uns davor warnen, wie gefährlich uns künstliche Intelligenz in der Zukunft werden kann. Es geht darum, dass Deep-Learning Techniken letztendlich dazu führen würden, dass Maschinen sich ohne unser Wissen selbst verbessern, bis wir nicht mal mehr verstehen, was genau sie dort lernen. Auch von einem großen Arbeitsplatzverlust, durch das Ersetzen aller möglichen Stellen mit intelligenten Systemen, ist die Rede. Man spricht von „Superintelligenzen“, die in den Augen einiger Autoren die Weltherschafft an sich reißen könnten. Doch sind viele dieser Ansätze realistisch? Sieht so wirklich unsere Zukunft aus? Ein gerade veröffentlichter Artikel der Website MIT Technology Review zeigt ein deutlich „gemildertes“ Bild der künstlichen Intelligenzen von heute. Eines, wo diese noch starke Probleme aufweisen, bei so vergleichsweisen simplen Aufgaben wie dem Interpretieren von Sprache.

Binär-Code ist nicht gleich humanistische Sprache

Die künstlichen Intelligenzen, die heute entwickelt werden, kommunizieren auf einem ganz anderen Level als wir. Wenn sie untereinander kommunizieren, tun sie das durch das Übertragen von Datensätze. Die Daten werden 1:1 von der anderen Maschine gelesen und ausgeführt. Wenn es jedoch darum geht mit dem Benutzer aus Fleisch und Blut zu kommunizieren, stehen die künstlichen Intelligenzen vor ganz anderen Herausforderungen. Das Online-Magazine MIT Technology Review hat nun ein wenig gefiltert, woran es im Moment noch bei den künstlichen Intelligenzen harkt.

Künstliche Intelligenzen wissen nicht, was sie tun

Und das ist wohl das größte Problem. Viele sprach-basierte KIs sind darauf programmiert, aus ihnen zugeführten Texten zu analysieren, welche Wörter wie oft, in welchem Kontext, verwendet werden. Daraus ziehen sie einfach Schlüsse und versuchen dann, die Sprachwiedergabe nachzuahmen. Aber dabei verstehen sie selbst den Sinn hinter ihren eigenen Sätzen nicht und bemerken somit auch offensichtliche Fehler nicht. Was dabei rauskommen kann, sieht man an dem Beispiel, als eine KI versuchte, eigenständig ein Harry Potter-Buch zu schreiben.

Aber es gibt schon Beispiele wo KIs erfolgreich mit Menschen interagieren! Wie zum Beispiel bei Alexa. Das liegt aber hauptsächlich daran, dass sie einzig darauf programmiert ist, aus gesprochenen Sätzen die Eckpfeiler „was, wann, wo und wer“ herauszufiltern. Wenn sie in ihrem System diese Fragen beantworten kann, gibt sie eine Antwort, die Sinn macht. Ihr Vorteil ist also, dass sie Sätze in Bausteine zerlegen und diese separat analysieren kann. Nuancen kann sie jedoch bis heute noch nicht erkennen und kreatives Schreiben ginge erst recht nicht.

Die Nuancen der Semantik

Dann gibt es in der menschlichen Kommunikation aber auch noch die sogenannte Model-theoretische Semantik. Diese ist für das Übermitteln einfacher Informationen von Mensch zu Mensch verantwortlich. Künstliche Intelligenzen, die dieses Wissen wiedergeben sollen, sind basierend auf der Annahme programmiert, dass alles menschliche Wissen einfach in einen Code umgeschrieben und den KIs gefüttert werden kann. Allerdings verhalten sich künstliche Intelligenzen hier wie ein Kleinkind: Man muss ihnen buchstäblich alles eigenhändig beibringen. Der Artikel des MIT Technology Review führt hier einen sehr guten Vergleich an. Wenn man einer KI beibringt: Adler sind Vögel, Vögel können fliegen, also können Adler fliegen, wird das spätestens bei den Pinguinen wieder zu einem Problem. Die sind schließlich auch Vögel, sie können aber nicht fliegen. Unterm Strich: Es gibt zu viele Ausnahmen in der Welt, als dass man einer KI alle Nuancen beibringen könnte.

Und schließlich für die Hobby-Psychologen hier noch ein Extra: Sprache ist auch immer sehr stark abhängig vom jeweiligen Kontext. Selbst wenn wir nur im Englischen bleiben würden, und somit zunächst die Bedeutung verschiedener Wörter/Betonungen in anderen Sprachen außer Acht lassen würden, ist Sprache ein sich ständig veränderndes Feld. Sie wird von jedem Individuum, selbst innerhalb einer Kultur, unterschiedlich verstanden und benutzt. Sprache ist immer auch ein Ergebnis unsere eigenen Erfahrungen, unseres eigenen sozialen Umfelds und letztlich auch unserer individuellen Prägung. Und gerade in der kreativen Literatur wird sie oft aus dem Kontext genommen, abgewandelt und umgeändert, damit etwas Neues und eben Kreatives dabei entsteht.

OpenAI versucht sich am kreativen Schreiben

Bis die Maschinen sich den Menschen soweit annähern, dass sie alle diese Nuancen und Bedeutungen verstehen, sodass von künstlicher Intelligenz geschriebene Manuskripte Sinn ergeben, wird es also wohl noch dauern.

Ursprung für den Artikel von MIT Technology Review war der Durchbruch der Firma OpenAI, die eine KI erschaffen hat, die fast perfekte Texte verfassen kann. Aber eben nur fast. In diesem Test hat ein Mensch die „Rahmenhandlung“ erfunden, Wissenschaftler hätten Einhörner entdeckt. Daraufhin sollte die KI die Geschichte weiterspinnen. Was sie daraus gemacht hat, ist zumindest unterhaltsam.


Image by lassedesignen / adobestock.com

Leonie Werner

interessiert sich für alles, was mit Medien zu tun hat. Insbesondere für Themen im digitalen Bereich ist sie offen und in Sachen Gaming immer auf dem neuesten Stand.


Artikel per E-Mail verschicken
Schlagwörter: , , , , , , , , , ,