All posts under Emotionen

Bad News, Everyone: Chatbots ohne Emotionen übernehmen den Kundenservice

Headset (adapted) (Image by ronaldo [CC0 Public Domain] via Pixabay)

Es ist heutzutage nicht einfach, einen echten Menschen ans Telefon zu kriegen. Nahezu jedes Mal, wenn man seine Bank, seinen Arzt oder irgendeinen anderen Service anrufen muss, wird man höchstwahrscheinlich von einem vollautomatischen Service begrüßt. Dieser wurde scheinbar nur dafür gemacht, um uns davon abzuhalten, mit jemanden zu sprechen, der tatsächlich für das Unternehmen arbeitet. Und dank der auf dem Vormarsch befindlichen Chatbots dürfte das bald noch schlimmer werden.

Chatbots sind Programme, die sich künstlicher Intelligenz bedienen. Sie werden häufig in Apps oder Nachrichtenservices eingesetzt. Die Bots sind darauf ausgerichtet, die Fragen von Leuten im Gesprächsstil zu beantworten, anstatt sie nur in die Richtung der korrekten Antwort zu leiten, wie es eine Suchmaschine tut. Unternehmen wie Uber, Lufthansa und Pizza Express nutzen sie bereits, um die Anfragen von Kunden entgegen- und Buchungen anzunehmen – und für noch vieles mehr.

Sie haben das Potential, einige Aspekte des Kundenservices zu verbessern und sind sicherlich einfacher zu nutzen als automatisierte Telefonsysteme, die schon Schwierigkeiten haben, einfache Angaben zu verstehen. Doch sie sind trotzdem ein weiteres Hindernis, das Kunden von einem realen Menschen trennt, der in der Lage ist, schwierigere Fragen zu beantworten und, ganz wichtig, das Mitgefühl und Entgegenkommen zeigt, das elementar für einen guten Kundenservice ist. Es kann gut sein, dass Chatbots dies sowohl Kunden als auch Unternehmen auf die harte Tour herausfinden lassen werden.

Den Kundenservice, oder zumindest einen Teil davon, zu automatisieren, ist für viele Unternehmen ein verlockender Gedanke. Nicht nur sind die menschlichen Mitarbeiter den Unannehmlichkeiten des Jobs weniger ausgesetzt – es kann auch dabei behilflich sein, viele gängige oder triviale Probleme herauszufiltern, bevor die kostspielige Arbeitszeit eines Menschen dafür geopfert wird. Dies könnte Unternehmen dabei unterstützen Kosten zu sparen. Gleichzeitig werden diejenigen Kunden zufriedengestellt, die lediglich eine einfache Lösung für Standardprobleme benötigen.

Doch menschliche Angestellte durch künstliche zu ersetzen, ist nicht ganz so einfach. Zunächst einmal ist die Sprache mit all ihren Variationen und Fehlern – und obwohl es mittlerweile wirklich beeindruckende Fortschritte im automatischen Sprachverstehen und Übersetzen gibt, bleibt dies eine schwierige Angelegenheit. Vollautomatische Vertreter sind immer noch deutlich weniger kompetent und sprachbewusst. Bei manchen Problemen wäre es daher schwierig, wenn nicht unmöglich, diese zu kommunizieren.

Gut, aber nicht gut genug

Talent ist die Fähigkeit, gute Leistung abzuliefern. Können ist die Fähigkeit, eine ungewöhnlich schwierige Situation zu lösen. Die Ausnahme zu beherrschen, ist eine Kunst, und bei gutem Kundenservice geht es oft um die ungewöhnlichen oder unerwarteten Fälle, die auch noch potentiell verärgerte Kunden mit sich bringen. Während Chatbots überzeugende Antworten auf simple Fragen geben können, ist künstliche Intelligenz dennoch noch nicht schlau genug, mit seltenen und außergewöhnlichen Fällen umgehen zu können.

Unternehmen mögen dies zu Anfang nicht als ein Problem sehen, da Chatbots eine neue Möglichkeit darstellen, um Kunden zu sortieren, deren Anliegen einen gewissen Extraaufwand mit sich bringt. Nur diejenigen Kunden, deren Anliegen den Bot irritieren, werden zu einem menschlichen Angestellten weitergeleitet. Doch die Kommunikation mit einem verwirrten Computer kann schnell als ein frustrierender Vorgang wahrgenommen werden, und kann dazu führen, dass sich der Kunde noch mehr über den Service ärgert als zuvor. Auf lange Sicht könnte er schließlich dazu ermuntert werden, anderswo Geschäfte zu machen – besonders, wenn es schwer ist, zur Problemlösung endlich an einen menschlichen Vertreter weitergeleitet zu werden, sollte der Bot nicht in der Lage sein, zu helfen.

Eine Erfahrung dieser Art habe ich selber gemacht, als ich nach einem Zugausfall versuchte, ein Taxi zu ergattern. Als ich den einzigen lokalen Anbieter, von dem ich die Nummer hatte, anrief, wurde ich zu einem vollautomatischen Service weitergeleitet, der absolut nicht in der Lage war, den Abholort zur verstehen, obwohl ich schon alle Variationen des Namens und der Aussprache probiert hatte, die mir eingefallen waren.

Durch eine glückliche Fügung wurde ich irgendwie zu einem menschlichen Gesprächspartner durchgestellt. Doch bevor ich mein Anliegen vortragen konnte, hieß es: „Ich stelle Sie an das Buchungssystem durch“ – und der Teufelskreis begann von vorn. Die traurige Geschichte endete mit einem sehr langen Fußmarsch, dem glücklichen Aufgelesenwerden durch ein Taxi in einer ansonsten weitgehend menschenleeren Gegend, und dem Schwur, dieses Taxiunternehmen zu meiden, wo nur möglich.

Vollautomatische Systeme mögen in der Lage sein, gängige Probleme zu lösen. Doch sie können sich noch nicht auf außergewöhnliche Umstände einstellen oder gar erkennen, dass die Anpassungsfähigkeit einer menschlichen Interaktion vonnöten ist. Und aus Kundensicht geht das Problem noch weiter: Einige Situationen erfordern nicht bloß menschliches Verständnis und Problemlösefähigkeit, sondern auch eine Spur Mitgefühl und Empathie.

Ein Chatbot kann so programmiert sein, einen bestimmten Gesprächsstil anzunehmen, doch dieser wird sich in unerwarteten oder schwierigen Zusammenhängen dennoch seltsam fehl am Platz anhören. Zum heutigen Zeitpunkt gibt es keinen praktizierbaren Fahrplan in der Forschung im Bereich künstlicher Intelligenz, wie man etwas implementieren könnte, das menschlichem Mitgefühl überzeugend nahekommt.

Neben der tatsächlichen Lösung ihres Problems benötigen verärgerte Kunden manchmal vielmehr ein paar nette Worte und die Möglichkeit, sich bei jemandem auszusprechen, der bereitwillig zuhört. Und häufig beruht guter Kundenservice auf Gesten des Entgegenkommens, die nach Ermessen eines individuellen Angestellten ausfallen, der eher dem eigenen Mitgefühl als einem festen Regelwerk folgt.

Aufgrund der starken Kontextabhängigkeit der Situation ist es für die künstliche Intelligenz sehr schwer, dies nachzubilden. Meiner Meinung nach ist Kontextverständnis noch immer eines der extrem schwer fassbaren und ungelösten Probleme der künstlichen Intelligenz – und wird es auch noch für eine ganze Zeit bleiben.

Davon abgesehen werden Chatbots und andere Kundendienste, die auf künstliche Intelligenz zurückgreifen, aufgrund des kostensparenden Versprechens und anderer Vorteile, die Automatisierung mit sich bringt, in den kommenden Jahren drastisch auf dem Vormarsch sein. Das wahrscheinliche Ergebnis ist ein umso technokratischerer Umgang mit Problemen und weniger Flexibilität. Schlimmer noch: Sollte der Algorithmus deutlich verfeinert werden, wird der Prozess der Entscheidungsfindung immer intransparenter und lässt immer weniger Raum für die mildernde menschliche Intervention.

Wenn wir das verhindern wollen, müssen wir uns bewusst werden, dass der Weg zur Hilfe nicht mit guten Vorsätzen gepflastert ist, sondern darin liegt, zu verstehen, wie eingeschränkt die künstliche Intelligenz ist, wenn es um das Verstehen von Kontexten, Ausnahmefällen und menschlichen Umständen geht.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Headset“ by ronaldo (CC0 Public Domain)


The Conversation

Weiterlesen »

Wie Roboter den Mangel an Pflegekräften beenden könnten

Altenpflege(adapted)(Image by StockSnap [CCo Public Domain] via Pixabay

Es gibt bereits einige Erfindungen, die es Senioren einfacher machen, eigenständig zuhause zu leben, damit sie nicht in ein Altersheim oder eine anderweitige Pflegeeinrichtungen übersiedeln müssen. Dennoch können die meisten Älteren weitere Hilfsmittel bei täglichen Hausarbeiten und anderen anfallenden Erledigungen gebrauchen.

Freunde und Verwandte können hier oft nicht die gesamte Arbeit erledigen. Viele Studien deuten außerdem darauf hin, dass dies weder nachhaltig noch gesund ist – weder für die Senioren, noch für ihre Liebsten. So steigt die Nachfrage nach professionellen Pflegekräften stetig an und es gibt bei Weitem weniger Pflegekräfte als nötig wären. Experten sind überzeugt, dass sich diese Knappheit in Zukunft verschlimmern wird.

Es stellt sich also die Frage: Wie wird unsere Gesellschaft diese Lücke schließen? Die Antwort lautet: Mithilfe von Robotern. Die Automatisierung und Technologisierung haben bereits mehrere Arbeitsbereiche abgelöst, die zuvor von Menschen besetzt waren, wie zum Beispiel das Verladen von Gütern in Warenhäusern. In Zukunft werden Roboter jedoch auch euren älteren hilfsbedürftigen Verwandten unter die Arme greifen. Als Forscherin auf dem Feld der Robotik bin der Meinung, dass künstliche Intelligenz nicht nur das Potential hat, Senioren zu pflegen – ich bin überzeugt, dass Maschinen dies darüber hinaus auf eine Art und Weise tun könnten, die die Unabhängigkeit stärken und die soziale Isolation von Senioren reduzieren könnte.

Personalisierte Roboter

In dem Film „I, Robot“ aus dem Jahr 2004 entdeckt der technikfeindliche Protagonist Del Spooner (gespielt von Will Smith) zu seinem großen Erschrecken, wie ein Roboter in dem Haus sein Großmutter Kuchen bäckt. So mancher von uns wird ein ähnliches Bild vor Augen haben: Stellt man sich heute einen Roboter vor, sieht er am Ehesten aus wie eine Art mechanischer Putzfraue, die Hausarbeiten in mehr oder weniger menschlicher Art und Weise erledigen.

In Wirklichkeit jedoch werden viele der Roboter, die Alte und Senioren bei ihren täglichen Arbeiten zuhause unterstützen sollen, nicht wie Menschen aussehen. Stattdessen wird es sich dabei um spezielle Systeme handeln, wie beispielsweise die Staubsauger aus dem oben genannten Film. Es handelt sich hierbei um kleine Geräte mit spezifischen Funktionen, die nicht nur einfach designbar und einsetzbar sind, sondern auch eine stufenweise Anpassung an die sich veränderten Voraussetzungen ermöglichen.

Senioren brauchen verschiedene Dinge, wie alle anderen auch. Viele brauchen Hilfe bei den alltäglichen Aktivitäten, wie essen, baden, anziehen und aufstehen. Beim täglichen Kochen und der Verwaltung ihrer Medikamente könnten sie viele Vorteile aus der Hilfe des Roboters ziehen, der zudem auch bei gelegentlich anfallenden Dingen wie Wäschewaschen oder Arztbesuche helfen kann.

Vielleicht hört sich das weit hergeholt an, aber schon heute können Roboter nicht nur Staubsaugen, sondern auch unseren Boden wischen oder unseren Rasen mähen. Roboter helfen dabei, Menschen in Stühle und Betten zu befördern, etwas nach Rezept zuzubereiten, Handtücher zu falten und ihre Pillen rechtzeitig einzunehmen. Und bald werden autonome, selbstfahrende Autos die Menschen zu ihren Terminen kutschieren.

Die Roboter, die heute bereits auf dem Markt sind, umfassen unter anderem Modelle, die fahren, haustierähnliche Gesellschaft bereitstellen und Gäste begrüßen. Einige dieser Geräte befinden sich bereits zu Testzwecken in Pflegeheimen – so können sich einige Senioren auf ihre eigenen Roombas verlassen.

Außerdem können Roboter-Gefährten vielleicht schon bald Einsamkeit lindern oder vergessliche ältere Herrschaften daran erinnern, regelmäßig zu essen. Wissenschaftler und andere Erfinder sind dabei, Roboter zu entwickeln, die diese und viele andere Aufgaben in Zukunft erledigen werden.

Pflege rund um die Uhr

Natürlich bleiben einige Aufgaben, wie beispielsweise das Schneiden von Fußnägeln, nach wie vor den Menschen vorbehalten. Trotzdem können mechanische Pflegekräfte einige Vorteile gegenüber ihren menschlichen Gegenstücken vorweisen. Am offensichtlichsten ist, dass sie in der Lage sind, rund um die Uhr zu arbeiten. Wenn sie zuhause zum Einsatz kommen, können sie eine ganzheitliche Pflege und die Möglichkeit, zuhause zu altern, unterstützen.

Ein weiterer Vorteil: Wenn man sich auf die Technik verlässt, um täglich anfallende Aufgaben zu erledigen – zum Beispiel die Bodenpflege – kann dies zum Zeitmanagement beitragen. Senioren können die gesparte Zeit nun mit Freunden und Familie verbringen. Mühselige Hausarbeiten auf Roboter zu übertragen, lässt den älteren Personen außerdem mehr Zeit, in der Gesellschaft der Leute zu sein, die sich um sie sorgen – und nicht nur für sie.

Zudem besteht ein großer Unterschied zwischen der Gerätenutzung und dem Bitten um Hilfe. Die Tatsache, dass man sich auf Roboter als Haushaltshilfe verlässt, kann dazu führen, dass die ältere Person sich dadurch autonomer fühlt, als wenn sie um Hilfe hätte bitten müssen.

Interagieren mit Robotern

Doch diese schöne neue Welt der Roboter-Pflegerkräfte wird nicht Wirklichkeit, wenn wir die Roboter nicht benutzerfreundlich und intuitiv machen. Das heißt, dass die Art und Weise der Interaktion von großer Bedeutung ist. In meinem Labor arbeiten wir an Robotern, die durch Sprache mit Menschen interagieren können. Glücklicherweise zeigen neuste Forschungen des Pew Research Center, dass Alte die neue Technik mehr und mehr annehmen und verinnerlichen, so wie alle anderen auch.

Da es jetzt Roboter gibt, die einige Aufgaben komplett übernehmen können, versuchen Forscher wie Jenay Beer, Professorin für Informatik und Ingenieurswissenschaften an der Universiät in South Carolina, herauszufinden, bei welchen Aktivitäten die Senioren die meiste Hilfe brauchen und welche Art von Roboter sie dabei am ehesten akzeptieren würden.

Bis dahin müssen sich die Forscher folgendes fragen:

Fakt ist, dass wir nicht alle Antworten auf diese Fragen brauchen, um älteren Menschen zuhause die Hilfe durch Roboter zur Verfügung zu stellen.

Ein Blick in die Zukunft

Es gibt keine Zeit zu verlieren. Das Volkszählungsbüro schätzt, dass 15 Prozent der Amerikaner – also fast jeder sechste – im Jahr 2016 um die 65 Jahre alt oder älter war. Im Jahr 2000 waren es lediglich 12 Prozent. Demografen schätzen, dass im Jahr 2060 bereits jeder vierte in diese Altersklasse fallen wird. Das bedeutet, dass es dann 48 Millionen mehr ältere Menschen in den USA geben wird als jetzt.

Ich glaube, dass in diesem Zeitalter Roboter viele Aufgaben der Altenpflege übernehmen werden. Für einige Aufgaben wird dennoch menschliches Personal von Nöten sein und natürlich gibt es auch Menschen, für die die Hilfe von Robotern nie in Frage kommen wird. Aber wir können darauf wetten, dass Roboter den Menschen in Zukunft dabei helfen werden, zuhause zu altern – auch wenn sie dabei nicht wie Dienstboten oder Küchenhilfen aussehen werden.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted)“Altenpflege“ by StockSnap [CC0 Public Domain]


The Conversation

Weiterlesen »

Das war der #neuenähe-Hackathon 2016

Hackathon (adapted) (Image by Andrew Eland [CC BY-SA 20] via flickr)

Dieser Beitrag ist Teil einer Artikelreihe zum gemeinsamen Event und Hackathon von Microsoft und der Aktion Mensch für mehr Inklusion und Teilhabe im Netz.


Wenn man an Inklusion denkt, ist das Internet nicht zwingend der erste Ort, der einem in den Sinn kommt. Cyber-Mobbing, Hatespeech und auch einfach schlechte Usability für Menschen mit Behinderungen überwiegen derzeit noch. „Neue Wege gehen und damit Begegnungen schaffen“ – das haben sich Aktion Mensch und Microsoft für den ersten #neuenähe -Hackathon zur Aufgabe gemacht. Vom 25. Bis 27. November hat die Veranstaltung für mehr Inklusion und Teilhabe im Netz im Berliner Microsoft Office stattgefunden.

Getreu des Namens „Hackathon“ haben es sich vielfältige Entwicklerteams, bestehend aus rund 60 Teilnehmern mit und ohne Behinderung, zum Ziel gemacht, Projekte innerhalb eines Programmier-Marathons zu entwickeln, die Lösungen und Ansätze für bestimmte Themen und Technologien darstellen. Zum ‚Internationalen Tag der Menschen mit Behinderung‘ am 1. Dezember veranstalteten die Verantwortlichen schließlich eine feierliche Preisverleihung, bei der die Gewinner-Projekte mit insgesamt 30.000 Euro Fördergeld ausgezeichnet wurden und die Möglichkeit haben, die jeweilige Idee als Start-up auf den Markt zu bringen.

Entwickeln und Einbeziehen – darum ging es in den prall gefüllten 48 Stunden des Hackathons. Insgesamt drei Teams konnten sich dabei besonders beweisen und wurden als Gewinner ausgezeichnet. Inklusion braucht Innovation – genau das war das Ziel des Hackathons und mit vielen tollen Projekten wurde damit ein Schritt in die richtige Richtung für mehr Barrierefreiheit im Netz und im Umgang mit Software gemacht.

„I’m pickin‘ up good vibrations“

WhatsApp, Facebook, Skype – eigentlich muss man gar nicht mehr aufs Smartphone schauen, um zu wissen, über welchen der zahlreichen Social-Media-Kanäle, ganz zu schweigen vom kultigen, aber veralteten „oh oh“-Ton des Messengers ICQ man diesmal kontaktiert wurde. Nicht nur der Smartphone- und Multimedia-Alltag ist stark über auditive Einflüsse gesteuert, sondern auch das ganz normale ‚real life‘. Als Mensch ohne Behinderung und mit allen Sinnen denkt man schon mal, man wäre im Signal-Wirrwarr verloren. Aber wie bewältigen dann Menschen mit Sinnes-Behinderungen, wie beispielsweise Gehörlose, den audiovisuellen Alltag?

Diese Frage stellte sich das Team rund ums Projekt „Good Vibrations“ innerhalb des Themenbereichs „Interchangable Communication“. Die fünf Jungs aus Berlin konnten mit ihrer Idee auf ganzer Linie überzeugen. Die App rund um ein Smartband, das Geräusche wie beispielsweise ein Türklingeln übersetzt, richtet sich auf die Bedürfnisse von hörbehinderten Menschen aus. Zweck der App ist es, Hörbehinderten den Umgang mit dem häufig auf auditive Inputs ausgerichteten Alltagsgegenständen durch die Vibrationsfunktion des dazugehörigen Armbandes zu erleichtern.

Was bisher eher mit einer kompletten Wohnungsausstattung oder gar einem Signalhund üblich war, soll jetzt Inklusion im Smartphone-Zeitalter bewirken. Indem die App Alltagstöne und Signale, wie etwa den Wecker oder auch mal im Notfall einen Feueralarm, durch ein vibrierendes Gerät am Handgelenk spürbar macht, wird der Alltag eines Gehörlosen in der lauten Gesellschaft so immerhin ein wenig einfacher. Key-Aspekte des Projekts sind also die praktische Usability im Haushalt, die angestrebten geringen Kosten für das Armand und kein Bedarf für einen Umbau der Wohnung oder ähnliches. Hier stellt sich das Projekt nochmal mit eigenen Worten im Pitch vor:

Das Team hat zudem die Chance, sich für die dritte Auswahlrunde des viermonatigen Microsoft Accelerator-Programms in Berlin zu qualifizieren. Dort können sie ihre Idee mit fachkundiger Unterstützung marktreif machen. Dabei stehen ihnen Mentoren und Coaches zur Seite und das Projekt kann in zahlreichen Workshops zusammen weiterentwickelt werden. Jedes Jahr im Dezember werden die ausgearbeiteten Projekte schließlich präsentiert.

Emotionen erkennen

Menschen und deren teilweise subtilen und nur nuanciert unterschiedlichen Emotionen sind nicht immer leicht zu lesen und einzuschätzen, schon gar nicht mit einer Beeinträchtigung. Das Team Metrilus hat deswegen eine Technologie entwickelt, die Emotionen erkennen soll. Mittels einer digitalen Körper- und Spracherkennung sollen Mimik und Gestik der Personen erkannt und eingeordnet werden.

Die aus dem Raum Nürnberg und Erlangen stammende Metrilus GmbH gibt es bereits seit 2010. Sie spezialisiert sich in 3D-Sensorik und deren Nutzen für computerbasierte Assistenzsysteme. Zum Hackathon haben sie zwei junge Entwickler aus ihrem Team geschickt, die an einer softwarebasierten Technologie mit dem Namen „Emotionserkennung“ arbeiteten.

Der Software-Prototype erkennt Gesichtsausdrücke und projiziert daraufhin den Smiley-Äquivalent zur jeweiligen Emotion auf den Bildschirm. Doch Emotion setzt sich noch aus so viel mehr zusammen, deswegen soll auch mittels einer Spracherkennung eine Diskrepanz zwischen Mimik und Tonfall erkannt werden. Beispielsweise fällt es Personen mit dem Asperger-Syndrom besonders schwer, Gestik oder Mimik zu deuten, die Technologie würde eine Kommunikation und ein besseres Miteinander also definitiv bereichern.

Kommunikation sollte Menschenrecht sein

Gregor Biswanger ist CEO bei CleverSocial und hat mit „Projekt Werner” beim Hackathon eine echte Herzenssache realisiert. Sein älterer Bruder Werner ist schwerstbehindert, kann nicht laufen, sprechen oder schlichtweg selbstständig sein. Kommunizieren kann der 32-jährige ausschließlich mit seiner Mutter, selbst der jüngere Bruder, der mit ihm aufgewachsen ist, hat Probleme damit. Das wollte Gregor so aber nicht akzeptieren. Die Fähigkeit, barrierefrei mit behinderten Menschen zu kommunizieren, ist für ihn laut eigener Aussage ein Menschenrecht – und so hat er das nach seinem Bruder benannte „Projekt Werner“ ins Leben gerufen.

Den Startschuss für das Projekt gab Gregor bereits Anfang 2016 mit einem Aufruf an Entwickler und Programmierer, mit denen er schließlich im März einen eigenen Hackathon in Ingolstadt veranstaltete.

Zur Entwicklung wurden Hardwares wie die Intel RealSense-Kamera oder die Microsoft Kinect verwendet, wobei letztere vor allem durch ihre Zugänglichkeit – denn sie ist ganz einfach im Elektrohandel erhältlich – bestochen hat. Mausklicks sind beispielsweise durch das Microsoft Tobii eye-tracking -System möglich, das Schließen des linken oder rechten Auges ist dann das Äquivalent des jeweiligen Mausklicks und funktioniert laut den Entwicklern präziser als gedacht.

Konkret soll die Software die Mimik des Nutzers erkennen und so eine gesichtsgesteuerte Browserbedienung am PC ermöglichen. Persönliches Highlight für Gregor: zum ersten Mal im Leben seines Bruders Werner kann dieser etwas selbstständig kontrollieren, ohne direkt auf die Hilfe anderer angewiesen zu sein.

Sein Anliegen war es auch, dass das „Projekt Werner“ ein Open Source-Programm ist, also für jeden zugänglich und kostenfrei – eben, wie er sagt, ein Recht zur Kommunikation für jeden. Als seine erste hochoffizielle Amtshandlung mit „Projekt Werner“ möchte Werner Mädchen anschreiben!


Image (adapted) „Hackathon“ by Andrew Eland (CC BY-SA 2.0)


Weiterlesen »

Wenn Roboter fühlen lernen

human-face-image-by-kuloser-cc0-public-domain-via-flickr

Roboter sind nicht mehr aus unserem Leben wegzudenken. Die 24-Stunden-Hilfskräfte, die für uns stellvertretend schrauben, löten, Botengänge erledigen, Fragen beantworten und zu unserer Unterhaltung und Zerstreuung bereitstehen, sind rund um die Uhr mit nimmermüder Geschäftigkeit für uns da.

Schöne neue Welt, wenn auch vielleicht ein bisschen gruselig. Denn die maschinellen Helfer sind günstiger und verlässlicher als so mancher Mensch: ein Arzt-Bot wird nie selbst krank, eine selbstdenkende Roboter-Hebemaschine kriegt keinen Bandscheibenvorfall. Ob sie unsere Arbeitskraft irgendwann vollständig ersetzen sollen und ob wir das überhaupt wollen, wird noch immer heiß diskutiert.

Von Androiden und geheimen Wünschen

So weit, so gut. Der reine Nutzen der Helfer steht ohnehin nicht infrage. Wie weit unsere Faszination bezüglich der maschinellen Gehirne und Lernprozesse geht, kann seit Jahrzehnten in der Literatur- und Filmwelt untersucht werden.

So prägt der polnische Philosoph und Autor Stanislaw Lem seit mehr als 60 Jahren die Science-Fiction-Szene eingehend mit seinen Ideen von virtueller Realität, neuralen Netzen und künstlicher Intelligenz. Oft nahm er dabei die scheinbar uneingeschränkte Zukunftsgläubigkeit der Menschen aufs Korn, um ihnen, ähnlich wie in Ray Bradburys „Mars-Chroniken“ (absolute Leseempfehlung für den Herbst!), den Spiegel des Menschen als rücksichtsloses Raubtier an seiner Umwelt vorzuhalten.

Der Autor Philip K. Dick entwickelte die Idee der menschenähnlichen Androiden mit seinem Roman „Träumen Androiden von elektrischen Schafen“ weiter, der später in der bekannteren Dystopie „Blade Runner“ mit Harrison Ford verarbeitet wurde. Hier treffen wir auf eine künstliche Intelligenz, die nicht nur unsterblich und geradezu übermenschlich stark ist, sondern auch fühlen kann und will. Sehr ähnlich wird dieser Gedanke auch gerade mit dem gerade erschienenen Westworld-Remake erzählt, der sich gerade in den Serien-Charts nach oben arbeitet.

Ähnlich aufgebaut ist auch die Figur des Data im Star-Trek-Universum (TNG), die nach einem Roboter aus dem 50er-Jahre-Film „Alarm im Weltall“ geschaffen wurde. Datas innigster Wunsch ist es, so menschlich und emotional wie möglich zu werden. Dank eines eigens für ihn entwickelten Emotions-Chips gelingt ihm das in einigen Folgen von „Raumschiff Enterprise“ zunehmend, jedoch unterscheidet er sich noch immer von den Menschen: Zwar hat er ein ausgeprägtes Selbstbewusstsein, was man den heute existierenden KIs höchsten als einprogrammierte Widerborstigkeit anrechnen kann, aber er versteht beispielsweise keine Witze. Humor ist eine allzu menschliche Eigenschaft, und diese Hürde kann Data nicht überspringen.

Kommen zwei Roboter in eine Bar…

Auch Humorversuche von Computern aus dem echten Leben scheitern hier, oder sind zumindest Geschmackssache. Wer jemals versucht hat, eine sinnvolle oder gar erheiternde Diskussionen mit Bots wie Apples Siri zu führen, wird ihr wohl zumindest keinen Sendeplatz für die nächste Late-Night-Show anbieten wollen – Computer sind einfach nicht witzig.

Von Marvin, dem depressiven Roboter aus „Per Anhalter durch die Galaxis“ über GERTY, der dem Mondeinsiedler Sam Bell in „Moon“ die Einsamkeit erleichtern soll bis hin zu der fantastischen Liebesgeschichte zwischen Mensch und Interface: Wir wollen von dem Gedanken nicht ablassen, unsere Roboter zu emotionalisieren. Vielleicht ist das auch verständlich – schließlich rücken sie immer näher an uns heran.

Braucht Pflege Emotionen?

Die neue Generation der Roboter soll nach diesen Ideen vielleicht nicht den menschlichen Humor, aber doch eine gewisse Emotionalität und Empathie lernen. Ob das klappt, testen wir gerade unter anderem in Pflegeheimen, wo die neuen Pflegeroboter zum Einsatz kommen, denn wie vieles andere auch, wird derzeit bei Robotern die Emotionen noch stark infrage gestellt. Allerdings verstehen viele Forscher, Wissenschaftler und Psychologen unter dem Wort Emotionen jeder etwas anderes. Wie soll auch ein Roboter das gleiche menschliche Lächeln und Empathie imitieren, wie es nur ein Mensch von Natur aus kann?

In Japan wird in der Pflege schon recht viel Technologie eingesetzt, so gab es hier den einen oder anderen Extremfall: der oft beunruhigende Einsatz der Technik – wie die Anti-Weglauf-Halskette oder Bewegungssensoren – gehen vielen Menschen dann doch deutlich zu weit. Mit solchen Maßnahmen wird hierzulande wohl eher nicht zu rechnen sein. Dezent eingesetzte Technik in den Pflegeheimen oder Wohnungen, wie das Heben aus dem Bett oder in die Badewanne kann eine gute Lösung sein, ist aber derzeit leider noch sehr teuer. Dabei müssen Roboter weder Emotionen zeigen noch mit uns sprechen. Hier geht es ausschließlich um die körperliche Entlastung der Pflegekräfte. Alles andere, wie freundliche Bedienung, Hilfsbereitschaft oder ein herzliches “Guten Morgen”, beherrschen wir Menschen selbst wahrscheinlich am besten.

Bots, die mit uns sprechen

Die Technik entwickelt sich immer weiter. So scheint es mittlerweile fast normal zu sein, sich statt eines Haustiers einen eigenen sprechenden Roboter zuzulegen. Der Roboter Kirobo Mini, der im nächsten Jahr auf den Markt kommen soll, tanzt auf dem schmalen Grat zwischen Spielzeug und Helferlein. Vielleicht taugt er auch als Begleiter für ältere Menschen oder als Beifahrer für lange Autofahrten?

Mal abgesehen von den eher wenigen Emotionen und den vorprogrammierten Sätzen der Roboter, die ja scheinbar irgendwann zum alltäglichen Leben der Menschheit dazugehören werden, gibt es immer wieder kuriose Geschichten über Roboter, die auf ganz andere Art und Weise mit uns sprechen, wie beispielsweise in der Geschichte von Eugenia Kuyda und Roman Mazurenko beschrieben wird.

Nach einem Verkehrsunfall starb Roman Mazurenko mit nur 34 Jahren. Seine beste Freundin Eugenia kam auf eine ganz ausgefallene Idee: Sie sammelte sämtliche SMS und Kurznachrichten von Roman zusammen und schrieb daraus ein Programm – das ganze klingt ein bisschen wie der Film “Transcendence” mit Johnny Depp. Anhand dieses Programms war es ihr möglich, virtuelle Gespräche mit Roman zu führen.

screenshot-by-zeit-online
Screenshot by Zeit Online Blog – Wie ein Toter als Chatbot weiterlebt

Auf diese Weise möchte ein australisches Startup die Menschheit unsterblich machen. Bislang halten sie sich bezüglich der konkreten Umsetzung sehr bedeckt, aber dennoch kann verraten werden, dass Daten der Menschen, ihre Verhaltensweisen, Kommunikationsarten und Denkweisen gesammelt werden, um daraus eine künstliche Intelligenz zu schaffen. Des Weiteren wird verraten, dass das menschliche Gehirn eines Verstorbenen eingefroren und in einen künstlichen Körper eingesetzt werden soll. Ziemlich kurios wirkt das Ganze definitiv – und abgesehen von der grundsätzlichen Frage danach, ob das überhaupt möglich sein wird, bleibt auch die Frage nach ethischen Bedenken bestehen.

Eine Frage der Ethik

Die Frage, wie man das Thema Roboter und Emotionen und ein mögliches, digitales Weiterleben nach dem Tod – was ja eigentlich auch kein richtiges Leben ist, sondern lediglich eine Sammlung von Daten, die einen echten Menschen imitieren soll – ethisch einordnen soll und kann, ist schwer zu beantworten. Für den einen mag es sehr sinnvoll sein und vielleicht auch ein Stück weit über die Trauer eines Verstorbenen hinweg helfen. Wenn man noch ein paar Worte an jemanden richten, der nicht mehr wieder kommen kann, dann kann das für manche Menschen eine große Hilfe sein.

Auf der anderen Seite ist es aber auch vorstellbar, dass die Menschen sich in die Vorstellung eines digitalen Abbilds eines Menschen verrennen und eventuell nicht in der Lage sind, die Endlichkeit und den Tod zu akzeptieren. Dieser Gedanke wird in einer Folge der britischen Science-Fiction-Serie „Black Mirror“ behandelt. Hier wird deutlich: Wenn wir den Tod tabuisieren oder sogar vollkommen verlernen, mit ihm umzugehen, sondern uns ein Substitut suchen, werden wir niemals loslassen können.

Wenn Roboter in unser Leben eingreifen und uns einen Vorteil bieten, indem sie uns schwere Arbeiten abnehmen oder uns den Alltag erleichtern, dann ist das schön und gut. Aber sie sollten nicht zu sehr in unser Menschsein eingreifen. Menschlichkeit und Einzigartigkeit macht uns aus. Wir sollten sie uns in der Zeit der Digitalisierung umso dringender bewahren.


Image „Human Face“ by Kuloser (CC0 Public Domain)


Weiterlesen »

Warum Smartphones oft schlechte Laune machen

Apple (Image by Ed Gregory [CC0 Public Domain] via Pexels)

Mehr als die Hälfte der Deutschen nutzen Smartphones. Die Meisten verbringen auch sehr viel Zeit in sozialen Netzwerken. Facebook, Instagram, Twitter und Snapchat tragen dazu bei, dass wir unsere Bilder und Erlebnisse mit anderen teilen. Doch welche Auswirkungen hat der häufige Konsum eigentlich auf unseren Alltag und wie beeinflussen Smartphones unsere Emotionen?

Sarah Diefenbach hat sich mit diesem Thema genauer beschäftigt. Sie ist Professorin für Wirtschaftspsychologie an der Ludwig-Maximilians-Universität in München, studiert hat sie Psychologie mit Nebenfach Informatik. Schwerpunkte ihrer Forschung sind das Konsumentenerleben im Bereich interaktiver Produkte und die Betrachtung von Mensch-Technik-Interaktion aus einer psychologischen Perspektive. Gemeinsam mit Daniel Ullrich hat sie das Buch „Digitale Depression: Wie neue Medien unser Glücksempfinden verändern“ [Affiliate Link] geschrieben. Ullrich ist Post-Doc am Lehrstuhl für Medieninformatik der LMU München. Er promovierte zum Thema Intuitive Interaktion mit technischen Produkten. Seine Forschungsschwerpunkte sind Nutzererleben und positive Erlebnisse mit Technik, insbesondere mit intelligenten Systemen und Robotern.

Sarah Diefenbach
Sarah Diefenbach erforscht Emotionen und die alltägliche Nutzung von Smartphones

Ihr gemeinsames Buch handelt davon, dass viele Menschen ihre Glücksmomente zerstören, indem sie alles mit ihrem Smartphone festhalten wollen. Dadurch, dass wir unser Glück ständig tracken, posten und teilen wollen, verlernen wir, es direkt zu erleben. Wir posten Fotos in sozialen Netzwerken, um uns gut zu fühlen, wir wollen das Glück intensivieren, indem wir es mit anderen teilen.

Allerdings treten wir damit auch in einen Wettbewerb. Alle posten Fotos und suchen Bestätigung durch möglichst viele Likes. Neben den vielen tollen Urlaubsfotos der Kontakte scheint das eigene Leben plötzlich belanglos. Doch das ist nur eine der vielen Alltagssituationen, die unser Glück gefährdet. Egal ob wir mit jemandem essen gehen oder im Zug sitzen, Technik und digitale Medien sind meistens in unserem Alltag vertreten. Diese ständige Präsenz kann auch zu Konflikten führen und unsere Gefühle beeinflussen.

Im Interview erzählt Sarah Diefenbach unter anderem, worauf es bei der Nutzung von Smartphones ankommt und wie unsere Emotionen davon beeinflusst werden.

Marina Blecher: Finden Sie, dass wir unsere Umwelt anders wahrnehmen als diejenigen, die kein Smartphone benutzen? Und wenn ja, wie?

Sarah Diefenbach: Das kann man auf jeden Fall sagen. In unserem Buch beschreiben wir die Smartphones als eine Linse, durch die wir unsere Umwelt permanent wahrnehmen. Man könnte fast sagen, das Smartphone nimmt für uns wahr, erklärt uns, wie wir die Welt zu sehen haben. Besorgniserregend ist, dass wir uns dieser Filterfunktion oft nicht bewusst sind. Auch was uns Amazon empfiehlt oder was Google uns als Treffer vorschlägt, ist ja schon eine Vorselektion. Es wird immer schwerer, zwischen direkter Wahrnehmung und gefilterter Realität zu unterscheiden.

In Ihrem Buch schreiben Sie auch darüber, dass es in manchen Situationen unglücklich macht, wenn man sich zu viel mit dem Smartphone beschäftigt. Gibt es auch Studien dazu, dass die sozialen Medien emotionale Auswirkungen haben?

Ja, da gibt es einige Studien. Eine, die ich sehr anschaulich und interessant finde, handelt von Facebook. Je mehr Zeit man auf Facebook verbringt, umso überzeugter ist man, dass andere ein besseres Leben haben und glücklicher sind als man selbst. Eine andere Studie zeigt, dass die Nutzung von Facebook oft schlechte Laune macht – dennoch nutzt man es immer wieder. Da stellt sich natürlich die Frage: Liegt es daran, dass die Leute diesen Effekt nicht vorhersagen können? Oder ist es eine Art Sucht – man weiß, dass es nicht gut tut, aber man kann nicht anders? Oder einfach nur dieser Wunsch nach schneller Ablenkung?

Und finden Sie auch, dass die neuen Medien Auswirkungen auf den Umgang miteinander haben? Beispielsweise, dass die Menschen sich mittlerweile schlechter unterhalten können?

Man muss mit kausalen Aussagen dieser Art vorsichtig sein, das Verhalten zeigen wir ja immer noch selbst. Ein Beispiel aus unserem Buch ist, dass die Diskussionen nicht mehr so tiefgehend sind. Wenn man zusammen mit Freunden an einem Tisch sitzt und es gibt irgendwo Uneinigkeiten sagt einer „Ach, das schau ich schnell nach.“ Wikipedia sagt so und so – „End of Discussion“. Es wird vieles schnell abgebügelt.

Soziale Netzwerke begünstigen Vergleiche und Bewertungen: man urteilt über andere Menschen wie über Produkte aus einem Online-Shop. Ich will nicht generell den sozialen Medien die Schuld zuspielen, aber ich denke, sie unterstützen uns leider in Verhaltensweisen, die nicht gerade gut für uns sind.

Und wieso wollen wir ständig erreichbar sein und können selbst bei einem gemeinsamen Essen unsere Smartphones nicht einfach weglegen?

Ich habe den Eindruck, dass es mittlerweile so eine Art antrainierte Angst ist, etwas zu verpassen. Durch diese Norm, ständig erreichbar zu sein, wird auch erwartet, dass andere ständig antworten. Und wenn man es nicht tut, gilt es fast schon als Beleidigung oder mangelnder Respekt dem anderen gegenüber. Jedoch haben wir diese Normen selbst geschaffen und wir können auch wieder neue Normen schaffen.

Wie gehen Sie mit der Technik um? Ärgern Sie sich manchmal auch über Ihren Konsum oder achten Sie darauf, die Technik nicht so häufig zu nutzen?

Ja, ich achte darauf und deshalb ärgere ich mich selten. Aber ich finde es auch bei mir selbst interessant zu beobachten, wie sich Routinen oder Automatismen entwickeln. Wenn ich mein Notebook anmache – eigentlich nur, um eine bestimmte Information nachzuschauen – mache ich oft automatisch auch das E-Mail-Programm auf. Ich bekomme neue Nachrichten und setzte mich damit auseinander. Am Ende habe ich vielleicht vergessen, was ich ursprünglich wollte. Das sind erstmal Kleinigkeiten, aber trotzdem machen sie bewusst, wie stark diese Einflüsse sind und wie leicht man in Verhaltensweisen reinrutscht, die man nicht beabsichtigt hat.

Bei vielen Jugendlichen hat man das Gefühl, dass sie sozusagen süchtig nach ihren Smartphones sind. Ab wann sollte man sich Ihrer Meinung nach Sorgen um den Umgang mit digitalen Medien machen?

Ich finde, man kann schlecht sagen, dass es ab einer bestimmten Dosis problematisch wird. In unserem Buch schlagen wir vor, einfach mal den letzten Tag Revue passieren zu lassen. Wie oft habe ich mit Technik interagiert und wie viel davon waren positive Momente? Und wenn man dabei entdeckt, dass es eigentlich mehr Stress ist oder man sogar Menschen im direkten Umfeld vernachlässigt, wenn man das Gefühl hat, keine Erholung zu finden und niemandem gerecht zu werden – viele Menschen berichten, dass sie ständig erreichbar sind, aber trotzdem das Gefühl haben, sie sind nicht genug für andere da. Solche Beobachtungen könnten ein Anlass sein, den Konsum zu reduzieren – und gleichzeitig mehr Zeit für andere schöne Dinge zu gewinnen.


Image „Apple“ by Ed Gregory (CC0 Public Domain)

Image by Sarah Diefenbach


Weiterlesen »

Wie man Freunde gewinnt und Menschen beeinflusst – mit der Hilfe von Robotern

EPKOT-JETLAG-Betrieb-054 (adapted) (Image by BlinkenArea.org [CC BY-SA 2.0] via flickr)

Obwohl er in Moskau festsitzt, schlendert der NSA-Whistleblower Edward Snowden oft durch Besprechungszimmer und Konferenzsäle in New York City. Dabei benutzt er dieselbe Technologie, die es der elfjährigen Lexie Kinder, die mit einer unheilbaren Herzkrankheit ans Haus gefesselt ist, gestattet, sich in einer Schule in South Carolina zu bewegen und mit Gleichaltrigen am Unterricht teilzunehmen. Fortschritte im Bereich der ferngesteuerten Roboter erlauben jetzt Menschen, die durch die Umstände eingeschränkt sind, an einer ganzen Reihe öffentlicher Ereignisse teilzuhaben. Sie besuchen Hochzeiten und Beerdigungen, erfreuen sich an Konferenzen und Festivals und können sogar auf einer alltäglicheren Ebene zur Arbeit pendeln, ohne jemals ihr Haus zu verlassen.

Momentan sind diese Roboter-Vertreter lediglich Bildschirme und Kameras auf Rädern – ferngesteuert durch die Nutzer mithilfe von Tastatur und Joystick. Die Räder gestatten es dem Bildschirm bewegt zu werden und die Kamera lässt den Nutzer andere sehen und hören.

Und doch ist es so: Jeder, der Skype schon einmal benutzt hat, um an einer Besprechung teilzunehmen, weiß, dass ein Gesicht auf einem Bildschirm einer Person zwar Präsenz verschaffen kann – aber es ist nicht dasselbe, wie tatsächlich anwesend zu sein. Zumindest ist die Erfahrung etwas körperlos. Es gibt keine Hände, mit denen man gestikulieren oder etwas berühren kann. Die Sinneskanäle zum Erfahren einer wirklichen Verbindung mit anderen Menschen sind eingeschränkt.

Ein aktuelles Forschungsprojekt hat sich damit beschäftigt, wie wir die Entwicklungen in den digitalen Technologien nutzen können, um die Erfahrung, sich im öffentlichen Raum zu bewegen, zu verbessern. Wir haben untersucht, wie wir in der Öffentlichkeit mit anderen in Verbindung stehen, wie Gesten und Blicke Informationen über Intentionen und Gefühle vermitteln, und wie Berührung das Vertrauen in Menschen und Technologie formen kann. Unsere Forschung zielt darauf ab, die Interaktionsqualität zwischen dem Roboter-Stellvertreter und den Menschen, mit denen er in Kontakt kommt, zu verbessern. Wir wollen auch erreichen, dass die Nutzer den Robotern mehr zu vertrauen, wenn sie als unsere Stellvertreter agieren. Durch die Nutzung der Fernpräsenz-Technologien mit der Nano-Roboter-Plattform, die die Fähigkeit für Gesten und Berührung beinhaltet, haben wir untersucht, wie wir die Erfahrungen zwischen Menschen und Robotern in öffentlichen Räumen verbessern können. Dies könnte funktionieren, wenn man Technologien entwickelt, die es den Robotern erlauben, menschliches nonverbales Verhalten, Mimik und Persönlichkeiten zu erkennen, und Gesten, sichtbare Hinweise und Körpersprache zu erfassen. Dabei haben wir außerdem Ressourcen zur Fernwahrnehmung von Emotionen und zur Verfolgung von Objekten in öffentlichen Räumen entwickelt. Beides sind wichtige Technologien, die es dem Roboter-Bediener erlauben, effektiv teilzunehmen und Ereignisse vollständig zu erfahren. Wenn wir die Emotionen der Menschen in der Öffentlichkeit in Echtzeit aufnehmen und analysieren können und dies durch den Roboter an seinen Benutzer übermitteln können, schaffen wir die Erfahrung, wirklich dabei zu sein. Wenn der Roboter mit einem hohen Grad an Genauigkeit weiß, wo er sich in Bezug zu anderen Objekten befindet, kann er sich mit Selbstvertrauen bewegen und Sicherheit und Schutz bieten. Wenn man Roboter-Vertretern die Möglichkeit gibt, die Umgebung an unserer Stelle wahrzunehmen, wirft das einige interessante Fragen hinsichtlich Ethik und Privatsphäre auf. Wenn wir an Roboter denken, können wir leicht eine dystopische Zukunft heraufbeschwören, in der wir durch unabhängige Maschinen versklavt oder ersetzt werden.

Die Kontrolleure kontrollieren

Dennoch besteht die größere Gefahr darin, was wir bereit sind, über uns zu verraten. Dieselben Daten, die genutzt werden können, um die Leistung eines Roboter-Vertreters zu verbessern, können auf Arten genutzt werden, die unsere Privatsphäre und unsere Sicherheit bedrohen. Die Roboter werden natürlich Daten über uns und über die Umgebung sammeln, in der sie sich wiederfinden. Die Gefahr geht nicht von den Robotern aus, sondern von der Art, wie die Technologie selbst ausgeführt ist. Die vielleicht offensichtlichste Sorge ist der Missbrauch des Fernsteuerungssystems, sodass die Menschen den Roboter benutzten, um sich an Orten zu bewegen, zu denen sie keinen Zugang haben sollten. Dann gibt es noch die Frage, welche Arten von Informationen ein Roboter über andere sammeln kann oder darf. Schließlich steht die Frage im Raum, was Roboter-Vertreter über die Menschen wissen können, die sie benutzen, und mit wem diese Informationen geteilt werden könnten. Dieses komplexe Set von Fragen stand im Mittelpunkt unseres interdisziplinären Projekts. Digitale Technologien können benutzt werden, um den öffentlichen Bereich zu verbessern, indem neue Wege geschaffen werden, die es denjenigen, die ausgeschlossen sind ermöglichen, teilzuhaben. Sie können außerdem die Erfahrung, im öffentlichen Bereich „dabei zu sein“, für alle verbessern. Trotzdem wird jeder potentielle Fortschritt von einer entsprechenden Frage bezüglich seinen ethischen Folgen begleitet. Mit der zunehmenden Vielseitigkeit der Robotertechnologie und ihrer steigenden Fähigkeit, uns auf neue und hochentwickelte Art zu vertreten, werden wir darüber nachdenken müssen, wo die Grenzen des Austauschs zwischen Nutzen und Privatsphäre liegen sollten. Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „EPKOT-JETLAG-Betrieb-054“ by BlinkenArea.org (CC BY-SA 2.0)


Weiterlesen »

Survival of the Funniest: Die evolutionären Anfänge des Lachens

Summer Laughter (adapted) (Image by BMiz [CC BY-SA 2.0] via flickr)

Lachen spielt in jeder Kultur eine wesentliche Rolle. Allerdings ist nicht bekannt, warum man überhaupt lacht. Während es natürlich ein soziales Phänomen ist – Menschen lachen bis zu 30 Mal mehr in der Gruppe als allein – bleibt die Funktion des Lachens als eine Form der Kommunikation nach wie vor rätselhaft. Eine neue Studie, die in der Fachzeitschrift „Proceedings of the National Academy of Sciences“ veröffentlicht wurde und eine große Gruppe von Forschern unter der Führung Gregory Bryants von der UCLA miteinbezog, behauptet, dass Lachen Zuhörern den Freundschaftsstatus lachender Personen anzeigt. Die Forscher baten Zuhörer, den Freundschaftsstatus von Fremden und Freunden anhand von kurzen Ausschnitten, in denen gleichzeitig gelacht wurde, zu beurteilen. Aus Stichproben von 24 verschiedenen Kulturen fanden sie heraus, dass die Zuhörer in der Lage waren, anhand von bestimmten akustischen Merkmalen während des Lachens Freunde von Fremden zu unterscheiden. Um zu enträtseln, wie das möglich ist und was die wahre Bedeutung des Lachens ist, müssen wir zurück zum Ursprung.

Die Evolution des Lachens

Spontanes Gelächter, das unbewusst durch Konversation oder Ereignisse ausgelöst wird, taucht bereits in den ersten Lebensmonaten und sogar bei tauben oder blinden Kindern, auf. Lachen ist nicht nur kulturell, sondern auch zwischen den Spezies übergreifend: es findet auch in ähnlicher Form bei anderen Menschenaffenarten statt. Der evolutionäre Ursprung des menschlichen Lachens lässt sich etwa 10 bis hin zu 16 Millionen Jahre zurückverfolgen. Auch wenn Lachen mit einer höheren Schmerztoleranz und dem Signalisieren des sozialen Status in Zusammenhang gebracht wurde, besteht seine Hauptfunktion darin, soziale Bindungen zu schaffen und zu vertiefen. Da unsere Vorfahren anfingen in größeren und komplexeren sozialen Strukturen zu leben, wurde die Qualität der Beziehungen über-lebenswichtig. Die Evolution begünstigte die Entwicklung kognitiver Strategien, die bei der Bildung und Erhaltung kooperativer Allianzen halfen. Lachen entstand wahrscheinlich aus Atmungsstörungen während spielerischer Neckereien wie Kitzeln, was das kooperative und konkurrierende Verhalten junger Säugetiere förderte. Diese Art von Ausdruck geteilter Erregung, ausgelöst durch Spiel, könnte sich beim Stärken positiver Beziehungen als effektiv erwiesen haben. Tatsächlich wurde erwiesen, dass Lachen die Länge des Spielverhaltens von Kindern und Schimpansen verlängert und sowohl bewusste als auch unbewusste positive emotionale Reaktionen bei menschlichen Zuhörern auslöst.

Lachen als soziales Instrument

Lachen und andere Urvokalisierungen waren zunächst eng mit unseren Emotionen verknüpft: Wir lachten nur, wenn wir positiv erregt waren, genauso wie wir bei Kummer weinten oder bei Wut brüllten. Die wesentliche Entwicklung trat mit der Fähigkeit ein, sich freiwillig mit Hilfe der Stimme ausdrücken zu können, ohne dass notwendigerweise Schmerz, Wut oder positive Emotionen vorliegen mussten. Diese gesteigerte Kontrolle der Stimmung, die durch eine komplexere Entwicklung des Gehirns möglich wurde, war für die Entwicklung der Sprache entscheidend. Aber es erlaubte auch die bewusste Nachahmung von Lachen (und anderen Vokalisierungen) und stellte somit ein irreführendes Werkzeug dar, soziale Beziehungen künstlich zu beschleunigen und zu erweitern und damit die Überlebenschancen zu erhöhen. Die Vorstellung, dass willentliches Lachen einen evolutionären Ursprung hat, wird durch nachahmendes Verhalten, wie es bei erwachsenen Schimpansen vorzufinden ist, bestärkt. Sie ahmen Lachen als Reaktion auf spontanes Lachen anderer nach. Das falsche Lachen von Schimpansen und Menschen entwickelt sich während der Kindheit, unterscheidet sich akustisch von seinem spontanen Gegenstück, und hat ebenso die Funktion, soziale Bindungen aufzubauen. Heutzutage ist sowohl spontanes als auch willentliches Lachen in fast jedem Aspekt menschlichen Lebens vorzufinden, sei es, dass man einen Witz mit einem Freund oder während eines höflichen Smalltalks mit einem Kollegen teilt. Dennoch klingen sie in den Ohren des Zuhörers nicht gleich. Spontanes Lachen erkennt man an der höheren Tonlage (was unverfälschte Erregung zeigt), einer geringeren Dauer und kürzeren Ausbrüchen von Spontanlachern  gekennzeichnet, als es bei künstlichen Lachern der Fall ist. Forscher bewiesen vor kurzem, dass menschliche Zuhörer zwischen diesen beiden Arten des Lachens unterscheiden können. Sie bewiesen auch, dass Zuhörer dennoch das Langsamerwerden und Anpassen des Tonfalls an den des willentlichem Lachens (um es als weniger menschlich erkenntlich zu machen) von tierischen Lauten unterscheiden können. Bei spontanem Lachen, dessen akustische Struktur der nichtmenschlichen wie der von Primaten ähnelt, konnten sie diese jedoch nicht unterscheiden.

Freund oder Fremder?

Es ist dieser hörbare Unterschied, der in dem Beitrag von Bryant und seiner Kollegen dargelegt wurde. Freunde erzeugen öfter spontanes Gelächter, während Fremde, denen es an einer erprobten emotionalen Verbindung fehlt, öfter willentlich lachen. Die Tatsache, dass wir diese Unterschiede genau wahrnehmen, bedeutet, dass Lachen bis zu einem gewissen Grad ein ehrliches Signal ist. Im nie enden wollenden evolutionären Wettrüsten neigen angepasste Täuschungsstrategien dazu, sich parallel zu Aufdeckungsstrategien von Täuschungen zu bilden. Die akustischen Merkmale aufrichtigen Lachens sind daher wertvolle Hinweise auf die Beziehungen und den Status von Gruppenmitgliedern. Das ist etwas, das das Fällen von Entscheidungen in unserer evolutionären Vergangenheit erleichtert haben könnte. Die Studie fand heraus, dass die Urteilsgenauigkeit im Schnitt nur 11 Prozent höher als die Zufallsrate war. Das könnte zum Teil daran gelegen haben, dass Fremde spontanes Lachen und Freunde willentliches Lachen erzeugt haben. Doch es steht fest, dass die Nachahmung echten emotionalen Lachens ein nützliches Täuschungsinstrument und ein soziales Schmiermittel ist. Man muss nur dem ansteckenden Effekt von eingespielten Lachern bei bestimmten Fernsehserien beiwohnen, um sich dessen bewusst zu werden. In der komplexen Realität moderner menschlicher sozialer Interaktionen ist Lachen oft eine Mischung aus vollmundigen, spontanen und tiefen, aber sanften und künstlichen Lachern, die die Grenzen noch mehr verwischen lassen. Unabhängig davon ist das Ziel dennoch dasselbe. Und höchstwahrscheinlich werden wir jemanden, mit dem wir gelegentliche Lacher teilen, einfach besser leiden können. John Cleese sagte einst: „Lachen verbindet die Leute. Es ist fast unmöglich, Distanz oder ein Gefühl sozialer Hierarchien aufrechtzuerhalten, wenn Sie vor Lachen aufheulen.“ Er scheint den Nagel auf den Kopf getroffen zu haben – auch wenn es vorgetäuscht ist.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Summer Laughter“ by BMiz (CC BY-SA 2.0)


The Conversation

Weiterlesen »

Welche Emotionen kann Künstliche Intelligenz haben?

Artificial Intelligence (adapted) (Image by Global Panorama [CC BY-SA 2.0] via Flickr)

Vergessen Sie Turing oder den Lovelace-Test bei Künstlicher Intelligenz: Ich will sehen, wie ein Roboter den Frampton-Test besteht. Lassen Sie mich erklären, wie Rocklegende Peter Frampton in die Debatte über Künstliche Intelligenz (KI) geriet. Viele Jahrhunderte lang überlegte man, wie Menschen und Tiere unterschieden werden könnten. Heutzutage versucht man herauszufinden, inwiefern sich Menschen von Maschinen unterscheiden. Der britische Codeknacker und Computerpionier Alan Turing hat ein “Imitationsspiel” vorgeschlagen (auch bekannt unter dem Namen Turingtest), um herauszufinden, ob eine Maschine etwas kann, dass die Menschen ganz besonders lieben: sich zu unterhalten. Wenn ein menschlicher Sachverständiger die Maschine nicht ganz genau von einem Menschen durch die Konversation unterscheiden kann, gilt der Test als bestanden. Zunächst schlug Turing vor, dass man herausfinden solle, ob Maschinen denken können, aber bald stellte sich heraus, dass die Menschen, so sehr sie auch mitdenken können, keine genaue Definition vom Denken haben.

Den Turingtest überlisten

Vielleicht sagt es etwas über eine andere menschliche Qualität aus, und zwar die Verschlagenheit, dass der Turingtest den Programmierern dazu dient, die menschlichen Entscheider zu überlisten, anstatt eine Art ausreichende Intelligenz zu verkörpern, um eine glaubwürdige Konversation zu ermöglichen. Der Höhepunkt fand am 7. Juni 2014 statt, als Eugene Goostman etwa ein Drittel der Teilnehmer am Turingtestwettbewerb der Royal Society davon überzeugte, dass “er” ein 13-jähriger Schuljunge aus der Ukraine sei. Eugene war ein Chat-Bot, ein Computerprogramm, das dazu erschaffen wurde, um mit Menschen zu sprechen. Oder, um mit anderen Chat-Bots zu reden, was einen etwas surrealen Effekt ergibt.

Manche Kritiker waren schnell dabei, auf das künstliche Setting hinzuweisen, in dem diese Irreführung stattgefunden hatte.

Der kreative Geist

Der Chat-Bot namens Eugene brachte die Forscher dazu, einen elaborierteren Fehdehandschuh zu werfen: sie sollten kreativ sein! Im Jahr 2001 hatte das Forscherteam um Selmer Bringsjord, Paul Bello und David Ferrucci den Lovelace-Test vorgeschlagen, welcher nach der Mathematikerin und Programmiererin Gräfin Ada von Lavelance benannt wurde, und einen Computer benötigte um etwas wie eine Geschichte oder ein Gedicht zu erschaffen.

Solche computergenerierten Geschichten oder Gedichte gibt es schon eine ganze Weile, aber um den Lovelace-Test zu bestehen, darf derjenige, der das Programm erstellt hat, ebenfalls nicht in der Lage sein, zu erklären, wie die Kreativität entstanden ist. Mark Riedl, von der School of Interactive Computing an der Georgia Tech, hat ein Upgrade herausgebracht (Lovelace 2.0), das einen Computer in eine fortschreitende Reihe von anspruchsvollen und kreativen Aufgaben rückt. Und so beschreibt er Kreativität:

In meinem Test haben wir einen menschlichen Entscheider, der an einem Computer sitzt. Sie wissen, dass sie mit einer KI zu tun haben, und sie geben ihr eine Aufgabe, die aus zwei Teilen besteht. Zuerst fragen sie nach einem kreativen Objekt wie einer Geschichte, einem Gedicht oder einem Bild. Als Zweites geben sie ein Kriterium an: ‘Erzähl mir eine Geschichte, in der eine Katze jemanden rettet’ oder ‘Male mir ein Bild, in dem ein Mann einen Pinguin an der Hand hält’ zum Beispiel.

Was ist so toll an Kreativität?

So herausfordernd wie Lovelace 2.0 vielleicht sein mag, muss man doch bedenken, dass wir Kreativität nicht höher werten sollten als andere menschliche Fähigkeiten. Diese (sehr kreative) Einsicht von Dr. Jared Donovan kam in einer Podiumsdiskussion auf, die er mit Professor Michael Milford und dem Choreographen Kim Vincs auf der Robotronica 2015 im August geführt hat. Inmitten all der Warnungen, dass KI eines Tages das Ende der Menschheit bedeuten könnte, war das Ziel der Diskussion, herauszustellen wie der derzeitige Stand bezüglich Kreativität und Maschinen ist. Die Diskussion entwickelte die Frage, welche Art Gefühle wir bei intelligenten Maschinen erwarten würden. Empathie, die Fähigkeit, Gefühle untereinander zu verstehen und zu teilen, war ganz oben auf der Liste der erwünschten menschlichen Qualitäten. Vielleicht weil dies etwas ist, was über die bloße Feststellung hinaus geht (“Ich sehe, dass du wütend bist”), und eine Reaktion verlangt, die eine emotionale Wertschätzung demonstriert.

Und nun kündige ich den Frampton-Test an, der anhand der Frage der Rocklegende Peter Frampton entwickelt wurde, der in seinem Song aus dem Jahr 1973 fragte: “Do you feel like we do?” (dt.: Fühlst du wie wir alle?). Natürlich ist das nicht ganz ernst gemeint, aber ich kann mir gut vorstellen, dass eine KI, um den Frampton-Test zu bestehen, in der entsprechenden Situation eine überzeugende und emotional angebrachte Antwort geben können müsste, die bei den meisten Menschen Gefühle hervorrufen sollte. Ich sage “bei den meisten”, denn unsere Spezies besitzt verschiedene Ebenen der emotionalen Intelligenz.

Ich teile dieses Gefühl

Bedenkt man, dass andere bereits diese Themen untersucht haben und dass das Feld des “affective computing” anstrebt, die Maschinen mit der Fähigkeit zu durchdringen, Empathie zu simulieren, ist es noch immer faszinierend, sich die Auswirkungen der emotionalen Maschinen anzuschauen. Im vergangenen Juli haben Forscher von KI und Robotertechnik einen offenen Brief veröffentlicht, der sich mit der Gefahr der autonomen Waffen beschäftigt. Hätten die Maschinen auch nur einen Funken Empathie, würden wir diese Entwicklungen genauso fürchten? Wir erinnern uns auch daran, dass menschliche Gefühle nicht immer positiv sind: es gibt noch Hass, Wut, Missgunst und so weiter. Vielleicht sollten wir dankbar sein, dass die Geräte, die uns umgeben, diese Gefühle nicht wiederspiegeln (Können Sie sich ein mürrisches Siri vorstellen?).

Und trotzdem gibt es Situationen, in denen unsere großzügigeren Emotionen eher gefragt sind: Sympathie und Verständnis für Gesundheitsvorsorge, zum Beispiel. Auch wenn all diese Fragen durchaus ihrer eigenen Betrachtung bedürfen, konnten die Redner auf der Robotronica nicht auflösen, ob die Roboter eines Tages tatsächlich kreativ sein könnten, oder ob wir überhaupt wollen würden, dass sie dies lernen. Was maschinelle Gefühle angeht, wird der Frampton-Test noch eine Weile bestehen, schätze ich. Momentan sind die stärksten Gefühle, die ich bei Robotern erkennen kann, die, die von ihren Schöpfern ausgehen.

Dieser Artikel wurde durch die Podiumsdiskussion über den Lovelace-Test (“Können Roboter kreativ sein?”) bei der Robotronica 2015 angeregt. Ich bedanke mich sehr für die kreativen Einblicke der Diskussionsleiter Dr Jared Donovan (QUT), Associate Professor Michael Milford (QUT) und Professor Kim Vincs (Deakin).

Dieser Artikel erschien zuerst auf “The Conversation” und steht unter CC BY-ND 4.0. Übersetzung von Anne Jerratsch.


Image (adapted) „Artificial Intelligence“ by Global Panorama (CC BY-SA-2.0)


 

Weiterlesen »