Bad News, Everyone: Chatbots ohne Emotionen übernehmen den Kundenservice

Es ist heutzutage nicht einfach, einen echten Menschen ans Telefon zu kriegen. Nahezu jedes Mal, wenn man seine Bank, seinen Arzt oder irgendeinen anderen Service anrufen muss, wird man höchstwahrscheinlich von einem vollautomatischen Service begrüßt. Dieser wurde scheinbar nur dafür gemacht, um uns davon abzuhalten, mit jemanden zu sprechen, der tatsächlich für das Unternehmen arbeitet. Und dank der auf dem Vormarsch befindlichen Chatbots dürfte das bald noch schlimmer werden.

Chatbots sind Programme, die sich künstlicher Intelligenz bedienen. Sie werden häufig in Apps oder Nachrichtenservices eingesetzt. Die Bots sind darauf ausgerichtet, die Fragen von Leuten im Gesprächsstil zu beantworten, anstatt sie nur in die Richtung der korrekten Antwort zu leiten, wie es eine Suchmaschine tut. Unternehmen wie Uber, Lufthansa und Pizza Express nutzen sie bereits, um die Anfragen von Kunden entgegen- und Buchungen anzunehmen – und für noch vieles mehr.

Sie haben das Potential, einige Aspekte des Kundenservices zu verbessern und sind sicherlich einfacher zu nutzen als automatisierte Telefonsysteme, die schon Schwierigkeiten haben, einfache Angaben zu verstehen. Doch sie sind trotzdem ein weiteres Hindernis, das Kunden von einem realen Menschen trennt, der in der Lage ist, schwierigere Fragen zu beantworten und, ganz wichtig, das Mitgefühl und Entgegenkommen zeigt, das elementar für einen guten Kundenservice ist. Es kann gut sein, dass Chatbots dies sowohl Kunden als auch Unternehmen auf die harte Tour herausfinden lassen werden.

Den Kundenservice, oder zumindest einen Teil davon, zu automatisieren, ist für viele Unternehmen ein verlockender Gedanke. Nicht nur sind die menschlichen Mitarbeiter den Unannehmlichkeiten des Jobs weniger ausgesetzt – es kann auch dabei behilflich sein, viele gängige oder triviale Probleme herauszufiltern, bevor die kostspielige Arbeitszeit eines Menschen dafür geopfert wird. Dies könnte Unternehmen dabei unterstützen Kosten zu sparen. Gleichzeitig werden diejenigen Kunden zufriedengestellt, die lediglich eine einfache Lösung für Standardprobleme benötigen.

Doch menschliche Angestellte durch künstliche zu ersetzen, ist nicht ganz so einfach. Zunächst einmal ist die Sprache mit all ihren Variationen und Fehlern – und obwohl es mittlerweile wirklich beeindruckende Fortschritte im automatischen Sprachverstehen und Übersetzen gibt, bleibt dies eine schwierige Angelegenheit. Vollautomatische Vertreter sind immer noch deutlich weniger kompetent und sprachbewusst. Bei manchen Problemen wäre es daher schwierig, wenn nicht unmöglich, diese zu kommunizieren.

Gut, aber nicht gut genug

Talent ist die Fähigkeit, gute Leistung abzuliefern. Können ist die Fähigkeit, eine ungewöhnlich schwierige Situation zu lösen. Die Ausnahme zu beherrschen, ist eine Kunst, und bei gutem Kundenservice geht es oft um die ungewöhnlichen oder unerwarteten Fälle, die auch noch potentiell verärgerte Kunden mit sich bringen. Während Chatbots überzeugende Antworten auf simple Fragen geben können, ist künstliche Intelligenz dennoch noch nicht schlau genug, mit seltenen und außergewöhnlichen Fällen umgehen zu können.

Unternehmen mögen dies zu Anfang nicht als ein Problem sehen, da Chatbots eine neue Möglichkeit darstellen, um Kunden zu sortieren, deren Anliegen einen gewissen Extraaufwand mit sich bringt. Nur diejenigen Kunden, deren Anliegen den Bot irritieren, werden zu einem menschlichen Angestellten weitergeleitet. Doch die Kommunikation mit einem verwirrten Computer kann schnell als ein frustrierender Vorgang wahrgenommen werden, und kann dazu führen, dass sich der Kunde noch mehr über den Service ärgert als zuvor. Auf lange Sicht könnte er schließlich dazu ermuntert werden, anderswo Geschäfte zu machen – besonders, wenn es schwer ist, zur Problemlösung endlich an einen menschlichen Vertreter weitergeleitet zu werden, sollte der Bot nicht in der Lage sein, zu helfen.

Eine Erfahrung dieser Art habe ich selber gemacht, als ich nach einem Zugausfall versuchte, ein Taxi zu ergattern. Als ich den einzigen lokalen Anbieter, von dem ich die Nummer hatte, anrief, wurde ich zu einem vollautomatischen Service weitergeleitet, der absolut nicht in der Lage war, den Abholort zur verstehen, obwohl ich schon alle Variationen des Namens und der Aussprache probiert hatte, die mir eingefallen waren.

Durch eine glückliche Fügung wurde ich irgendwie zu einem menschlichen Gesprächspartner durchgestellt. Doch bevor ich mein Anliegen vortragen konnte, hieß es: „Ich stelle Sie an das Buchungssystem durch“ – und der Teufelskreis begann von vorn. Die traurige Geschichte endete mit einem sehr langen Fußmarsch, dem glücklichen Aufgelesenwerden durch ein Taxi in einer ansonsten weitgehend menschenleeren Gegend, und dem Schwur, dieses Taxiunternehmen zu meiden, wo nur möglich.

Vollautomatische Systeme mögen in der Lage sein, gängige Probleme zu lösen. Doch sie können sich noch nicht auf außergewöhnliche Umstände einstellen oder gar erkennen, dass die Anpassungsfähigkeit einer menschlichen Interaktion vonnöten ist. Und aus Kundensicht geht das Problem noch weiter: Einige Situationen erfordern nicht bloß menschliches Verständnis und Problemlösefähigkeit, sondern auch eine Spur Mitgefühl und Empathie.

Ein Chatbot kann so programmiert sein, einen bestimmten Gesprächsstil anzunehmen, doch dieser wird sich in unerwarteten oder schwierigen Zusammenhängen dennoch seltsam fehl am Platz anhören. Zum heutigen Zeitpunkt gibt es keinen praktizierbaren Fahrplan in der Forschung im Bereich künstlicher Intelligenz, wie man etwas implementieren könnte, das menschlichem Mitgefühl überzeugend nahekommt.

Neben der tatsächlichen Lösung ihres Problems benötigen verärgerte Kunden manchmal vielmehr ein paar nette Worte und die Möglichkeit, sich bei jemandem auszusprechen, der bereitwillig zuhört. Und häufig beruht guter Kundenservice auf Gesten des Entgegenkommens, die nach Ermessen eines individuellen Angestellten ausfallen, der eher dem eigenen Mitgefühl als einem festen Regelwerk folgt.

Aufgrund der starken Kontextabhängigkeit der Situation ist es für die künstliche Intelligenz sehr schwer, dies nachzubilden. Meiner Meinung nach ist Kontextverständnis noch immer eines der extrem schwer fassbaren und ungelösten Probleme der künstlichen Intelligenz – und wird es auch noch für eine ganze Zeit bleiben.

Davon abgesehen werden Chatbots und andere Kundendienste, die auf künstliche Intelligenz zurückgreifen, aufgrund des kostensparenden Versprechens und anderer Vorteile, die Automatisierung mit sich bringt, in den kommenden Jahren drastisch auf dem Vormarsch sein. Das wahrscheinliche Ergebnis ist ein umso technokratischerer Umgang mit Problemen und weniger Flexibilität. Schlimmer noch: Sollte der Algorithmus deutlich verfeinert werden, wird der Prozess der Entscheidungsfindung immer intransparenter und lässt immer weniger Raum für die mildernde menschliche Intervention.

Wenn wir das verhindern wollen, müssen wir uns bewusst werden, dass der Weg zur Hilfe nicht mit guten Vorsätzen gepflastert ist, sondern darin liegt, zu verstehen, wie eingeschränkt die künstliche Intelligenz ist, wenn es um das Verstehen von Kontexten, Ausnahmefällen und menschlichen Umständen geht.

Dieser Artikel erschien zuerst auf „The Conversation“ unter CC BY-ND 4.0. Übersetzung mit freundlicher Genehmigung der Redaktion.


Image (adapted) „Headset“ by ronaldo (CC0 Public Domain)


The Conversation

ist Professor für Künstliche Intelligenz an der Universität in Hertfordshire. Sein Interesse liegt darin, die Prozesse zu verstehen und nachzuahmen, die es Tieren und Menschen ermöglichen, in einem komplexen und schwierigen Umfeld flexible Entscheidungen zu treffen und sie in die Lage zu versetzen, sich an verschiedene Bedingungen anzupassen.


Artikel per E-Mail verschicken
Schlagwörter: , , , , , , , , , ,

1 comment

  1. Skriptgesteuerte Call Center Agenten gehen weniger mechanistisch oder technokratisch vor? Da ist mir ein mit guten Daten aufgebauter Chatbot lieber

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert