Über Verbrecher, Emotionen und Künstliche Intelligenz: Verstehen ist nicht programmierbar

Wie fänden Sie es, sich von einem Roboter therapieren zu lassen? Emotional intelligente Maschinen sind vielleicht nicht so weit weg, wie es scheint. In den letzten Jahrzehnten hat sich die künstliche Intelligenz zunehmend darin verbessert, emotionale Reaktionen beim Menschen zu lesen.

Jedoch ist lesen ist nicht damit vergleichbar, sie wirklich zu verstehen. Wenn die KI selbst keine Emotionen erleben kann, kann sie uns dann jemals wirklich verstehen? Und wenn nicht, gibt es ein Risiko, dass wir Robotern Eigenschaften zuschreiben, die sie nicht haben?

Die jüngste Generation von KIs ist dank größer erreichbaren Datenmengen, mit denen die KIs ihre Fähigkeiten schulen, und ihrer verbesserten Rechenleistung entstanden. Diese Maschinen werden zunehmend wettbewerbsfähiger in Bereichen, die immer als menschlich wahrgenommen wurden. Die KI kann nun unter anderem Gesichter erkennen, Gesichtskizzen in Fotos verwandeln, Sprache erkennen und Go spielen.

Identifizierung von Kriminellen

Vor kurzem haben Forscher eine KI entwickelt, die nur durch Analyse der Gesichtszüge in der Lage ist, zu sagen, ob eine Person kriminell sein könnte. Das System wurde mithilfe von Ausweisbildern aus einer chinesischen Datenbank getestet und die Ergebnisse sind erstaunlich. Nur in etwa 6 Prozent der Fälle kategorisierte die KI Unschuldige fälschlicherweise als Kriminelle, gleichzeitig war sie in der Lage, etwa 83 Prozent der Kriminellen erfolgreich zu identifizieren. Dies führte zu einer erstaunlichen Gesamtgenauigkeit von fast 90 Prozent.

Das System basiert auf einem Ansatz, der als ‚Deep Learning‘ bezeichnet wird und bei Wahrnehmungsaufgaben wie Gesichtserkennung erfolgreich war. In Kombination mit einem ‚Gesichtsdrehungsmodell‘ ermöglicht das Deep Learning der KI, zu verifizieren, ob zwei verschiedene Aufnahmen eines Gesichts dieselbe Person repräsentieren, selbst wenn die Beleuchtung oder der Winkel zwischen den Fotos sich ändert.

Deep Learning baut ein ’neuronales Netzwerk‘, das sich grob am menschlichen Gehirn orientiert. Dieses besteht aus Hunderttausenden von Neuronen, die in verschiedenen Schichten organisiert sind. Jede Schicht wandelt die Daten, beispielsweise ein Bild eines Gesichts, in eine höhere Abstraktionsstufe, etwa einen Satz von Kanten an bestimmten Ausrichtungen und Stellen. Dies unterstreicht automatisch die Merkmale, die für die Durchführung einer bestimmten Aufgabe am relevantesten sind.

Angesichts des Erfolges des Deep Learning ist es nicht verwunderlich, dass künstliche neuronale Netze Kriminelle von Nicht-Kriminellen unterscheiden können – wenn es wirklich Gesichtszüge gibt, mit denen zwischen ihnen unterschieden werden kann. Die Forschung deutet darauf hin, dass man dies an drei Merkmalen erkennen kann. Eines ist der Winkel zwischen der Nasenspitze und den Mundwinkeln, der bei Kriminellen im Durchschnitt 19,6 Prozent kleiner war als bei Nicht-Kriminellen. Die Krümmung der oberen Lippe war für Kriminelle ebenfalls durchschnittlich um 23,4 Prozent größer, während der Abstand zwischen den inneren Winkeln der Augen durchschnittlich 5,6 Prozent schmaler war.

Auf den ersten Blick scheint diese Analyse darauf hinzudeuten, dass veraltete Ansichten, dass Kriminelle durch physikalische Attribute identifiziert werden können, nicht völlig falsch sind. Allerdings ist das womöglich nicht die ganze Wahrheit. Es ist interessant, dass sich zwei der wichtigsten Merkmale auf die Lippen beziehen, die unsere ausdrucksstärksten Gesichtszüge sind. Für Ausweisbilder, wie sie in der Studie verwendet wurden, muss der Gesichtsausdruck neutral sein. Es könnte jedoch sein, dass es der KI gelungen ist, versteckte Emotionen in diesen Fotos zu finden. Diese könnten so gering sein, dass die Menschen sie möglicherweise nicht einmal selbst bemerken.

Es ist schwierig, der Versuchung zu widerstehen, auf die Beispielfotos zu schauen, die in dem Dokument enthalten sind, das noch begutachtet werden muss. Tatsächlich offenbart ein sorgfältiger Blick ein kleines Lächeln auf den Fotos derenigen ohne kriminelle Vergangenheit – sehen Sie selbst. Es sind jedoch nur wenige Musterfotos verfügbar, sodass wir unsere Schlussfolgerungen nicht auf die gesamte Datenbank verallgemeinern können.

Die Stärken der affektiven Datenverarbeitung

Das war nicht das erste Mal, dass ein Computer menschliche Emotionen erkennen konnte. Das sogenannte Feld der „affektiven Datenverarbeitung“ gibt es schon seit mehreren Jahren. Es wird argumentiert, dass, wenn wir in einer uns angenehmen Art und Weise mit Robotern leben und interagieren wollen, diese Maschinen in der Lage sein sollten, die menschlichen Emotionen zu verstehen und angemessen darauf zu reagieren. Es liegt auf diesem Gebiet noch viel Arbeit vor uns und die Möglichkeiten sind riesig.

Zum Beispiel haben Forscher die Gesichtsanalyse verwendet, um Studenten, die sich in computergesteuerten Nachhilfeseminaren schwer taten, herauszufiltern. Die KI wurde ausgebildet, um verschiedene Ebenen von Engagement und Frustration zu erkennen, sodass das System wissen konnte, wann die Schüler die Arbeit zu einfach oder zu schwierig fanden. Diese Technologie könnte nützlich sein, um die Lernerfahrung auf Online-Plattformen zu verbessern.

Das Unternehmen BeyondVerbal nutzte die KI auch, um Emotionen auf Grundlage des Klanges unserer Stimme zu erkennen. Sie haben Software produziert, die die Sprachmodulation analysiert und in der Art und Weise, wie Menschen sprechen, spezifische Muster sucht. Das Unternehmen gibt an, in der Lage zu sein, Emotionen mit einer 80prozentigen Genauigkeit zu identifizieren. In Zukunft könnte diese Art von Technologie zum Beispiel Autisten helfen, Emotionen zu identifizieren.

Sony versucht sogar, einen Roboter zu entwickeln, der in der Lage ist, emotionale Bindungen mit Menschen einzugehen. Es gibt nicht viele Informationen darüber, wie sie das erreichen wollen, oder was genau der Roboter tun wird. Sie erwähnen jedoch, dass sie versuchen, „Hardware und Dienstleistungen zu verbinden, um emotional anregende Erfahrungen zu liefern“.

Eine emotional intelligente KI hat mehrere potenzielle Vorteile, sei es, jemandem ein Freund zu sein oder uns zu helfen, bestimmte Aufgaben durchzuführen – vom Verhören Krimineller bis zur Gesprächstherapie. Doch es gibt auch ethische Probleme und Risiken. Ist es richtig, einen Patienten mit Demenz einem KI-Begleiter anzuvertrauen und zu glauben, dass dieser ein emotionales Eigenleben hat, obwohl das nicht der Fall ist? Und könnte man eine Person auf der Grundlage einer KI, die sie als schuldig klassifiziert, verurteilen? Natürlich nicht. Aber es könnte, wenn ein solches System weiter verbessert und vollständig ausgewertet wird, auf eine weniger schädliche, vielleicht sogar hilfreiche Weise verwendet werden, wenn Personen, die von der KI als „verdächtig“ angesehen werden, fortan genauer überprüft werden.

Was können wir also von der KI erwarten? Subjektive Dinge wie Emotionen und Gefühle sind für die KI immer noch schwer zu erlernen, zum Teil deshalb, weil die KI keinen Zugang zu ausreichend guten Daten hat, um sie objektiv zu analysieren. Wird eine KI beispielsweise jeso etwas wie Sarkasmus verstehen? Ein Satz kann sarkastisch sein, wenn er in einem bestimmten Kontext gesagt wird, aber in einem anderen Kontext ist er es nicht.

Doch die Menge an Daten und Rechenleistung wächst weiter. Mit wenigen Ausnahmen könnte die KI deshalb in den nächsten Jahrzehnten durchaus in der Lage sein, verschiedene Arten von Emotionen genauso gut zu erkennen, wie Menschen das können. Aber ob eine KI jemals Emotionen erleben kann, ist ein kontroverses Thema. Selbst wenn sie es könnten, würde es sicherlich Emotionen geben, die sie niemals durchleben können wird – und das macht es ihnen schwierig, sie tatsächlich zu verstehen.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-NC-SA 3.0 US. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) tabletop assistant by Matthew Hurst (CC BY-SA 2.0)


Schlagwörter: , , , , , , , , ,
Leandro Minku

Leandro Minku

ist Dozent für Computer wissenschaften an der Universität Leicester. Sein Forschungsfeld umfasst die KI-Forschung, insbesondere Machine Learning und evolutionäre Algorithmen.

More Posts