Emotionsanalyse: Fürs gute Gefühl des Kunden

Interview mit Martin Bäumler

Wut? Ärger? Gleichgültigkeit? Der Gemütszustand des Kundem kann über den Verlauf eines Kundengesprächs entscheiden. Gut also, wenn sein Gegenüber diesen einschätzen kann. Wir Menschen tun dies meist intuitiv. Doch wie bringt man einer Maschine bei, Emotionen zu erkennen?

Martin Bäumler ist beim eLIZA-Projekt der Deutschen Telekom für dieses Thema zuständig. Ziel ist es, aus unterschiedlichen Eingaben des Nutzers eine Emotion abzulesen und zu erkennen, um für ihn bessere Ergebnisse zu erzielen – ganz gleich ob bei einer Suchanfrage oder im Kontakt mit dem Kundenservice. Noch geht es nur um den geschrieben Text, aber demnächst wird das Team rund um Bäumler auch die Emotionen aus gesprochenen Worten herausfiltern.


Was genau ist Emotionserkennung?


Informationen werden durch das vermittelt, was gesagt wird, aber eben auch dadurch, auf welche Weise etwas gesagt wird. Emotionen sind wichtiger Bestandteil bei dieser komplexen Übermittlung. Computersysteme zur automatischen Spracherkennung können bislang aber nur den expliziten Sinninhalt verstehen. Wir arbeiten daran, die gesamte Information zu verwerten, die das gesprochene oder geschriebene Wort transportiert. Unser Ziel ist es, dem Kunden ein noch besseres Erlebnis, noch besseren Service anzubieten.


In welchem Verhältnis stehen Spracherkennung und Emotionserkennung zueinander, um das Anliegen des Kunden optimal zu verstehen?

Die Spracherkennung kann ohne die Emotionserkennung leben, die Emotionserkennung aber nicht ohne die Spracherkennung. Die Spracherkennung ist der treibende Punkt in Allem. Um das Problem des Kunden möglichst gut zu verstehen, brauche ich erst einmal eine Spracherkennung, da reicht die Emotionserkennung nicht aus. Denn wenn der Kunde nur weint am Telefon, dann ist das zwar eine klare Emotionsbekundung, aber es bringt uns nicht weiter, sein Problem zu erkennen. Daher steht die Spracherkennung an erster Stelle. Die Emotionserkennung gibt quasi nur noch einen Drift in Richtung der Lösung.


Für welche Zwecke könnte die Erkennung eingesetzt werden außer für Tinka?

Im Chat mit den menschlichen Agenten eingesetzt, können wir ihnen einen Indikator geben, in welchem emotionalen Zustand der Kunde ist. Dann könnte der Callcenter Agent einen anderen Gesprächsleitfaden auf den Bildschirm bekommen oder das Gespräch wird an den Kollegen für die harten Fälle weitergeleitet, der ein Talent zur Deeskalation hat.


Wie funktioniert Emotionsanalyse? Wie wissen Sie beispielsweise, dass ich heute gut gelaunt bin?

In der Stimme gibt es mehrere Faktoren, die wir analysieren können: Lautstärke, Modulation, Tonhöhe und weitere minimale, fast unhörbare Merkmale. Im Text ist es ein bisschen schwieriger. Hier müssen wir uns sehr genau den Inhalt anschauen. Eine Möglichkeit sind Smileys, die der Kunde mit eingibt. Satzbau, Großbuchstaben, Inhalt, Wortwahl, auch Grammatik und Struktur sind Faktoren, die Auskunft geben über den emotionalen Zustand eines Users. Das Interessante: Je länger der Dialog, desto präziser wird die Analyse.


Nutzen Sie Informationen über den User ebenfalls zur Analyse, zum Beispiel ob er in einer so genannten guten Wohngegend wohnt?


Es obliegt uns nicht zu bewerten, ob gewisse Wohngebiete besser oder schlechter sind. Wir werden auf gar keinen Fall ein Nutzerprofil anlegen, in dem derartige persönliche Informationen hinterlegt sind. Der Datenschutz steht bei uns über Allem. Wenn der Kunde eingeloggt ist, können wir ihn zwar eindeutig identifizieren und kennen auch seine Adresse. Aber es geht in erster Linie darum, Kundenanliegen möglichst effizient und schnell zu lösen und dabei spielt es keine Rolle, woher er kommt. Bei uns sind alle Kunden gleich. Und jeder Kunde hat bei uns den Anspruch auf den bestmöglichen Service, völlig egal, ob er Prepaid- oder Premium-Kunde ist.


Wie bewerten Sie interkulturelle Unterschiede in diesem Zusammenhang? Sie erwähnten als einen Faktor die Lautstärke. Ich würde wagen zu behaupten, dass ein Südeuropäer per se etwas lauter spricht oder schneller in Rage gerät und dann eventuell lauter redet bei einem Erregungslevel, das bei einem Nordeuropäer möglicherweise eine niedrigere Lautstärke verursachen würde.

Interkulturelle Unterschieden spielen einen weitaus kleinere Rolle, als man gemeinhin denken würde. Lautstärke ist ja nur ein Faktor, in Kombination mit den anderen Faktoren werden wir die Emotion des Kunden analysieren können. Und je mehr Kundenkontakt das System hat, desto besser wird sie mit der Zeit.


Wie bringe ich einer künstlichen Intelligenz dieses Verständnis bei? Wie läuft das von den Prozessen her ab?

Erst einmal analysiert sie bestehende Chats und bestehende Informationen. Je mehr Interaktionen wir haben, desto besser wird sie. Auf der anderen Seite spielt auch das Fachwissen derjenigen eine große Rolle, die tatsächlich heute schon mit den Kunden chatten. Die bringen auch nochmal ihr eigenes Fachwissen mit ein und schärfen unseren Algorithmus.


Wie viel Algorithmen braucht es für Emotionen? Welche Formel hat ein Gefühl?

Wir sind gerade dabei, ein emotionales Modell zu erarbeiten und die Fragen zu klären: Welche Emotionen sind überhaupt für uns relevant? Wie kann ich sie voneinander abgrenzen? Muss ich zum Beispiel Zorn und Ärger unterscheiden? Freude und Fröhlichkeit? Am Ende des Tages wird man auf eine sehr kleine emotionale Landkarte zurückkommen, die sehr spezialisiert ist und gar nicht so viele Emotionen enthält.


Ist es ethisch und moralisch richtig, Emotionen zu erkennen?


Emotionen sind der Kern menschlichen Wesens. Wenn ich in der Lage bin, diese zu erkennen, auszuwerten, gegebenenfalls zu simulieren und darauf einzugehen, und je mehr wir künstliche Intelligenzen bauen, die menschenähnlicher werden, desto mehr müssen wir uns mit den ethischen und moralischen Fragen beschäftigten.


Welche Folgen hat es, eine KI emotional und damit menschlicher zu machen?

Damit verschaffen wir einer breiteren Masse besseren Zugang. Die Nutzung von Technologie hat viel mit Berührungsängsten zu tun. Beobachten Sie mal ältere Menschen, wie reserviert sie gegenüber neuen Technologien sind. Das Eingehen einer Maschine auf die Bedürfnisse eines Einzelnen wird die Barriere zwischen künstlicher Intelligenz und Menschen definitiv abbauen.

Kommentare
Einen Kommentar schreiben
Entschuldigung

Ihr Browser ist leider nicht aktuell genug.
Um diese Webseite zu benutzen, benötigen Sie einen aktuellen Browser
Wir empfehlen einen der folgenden Browser in der aktuellsten Version zu installieren.

Auf iOS Geräten sollte mindestens die Betriebssystem Version iOS 9 installiert sein.

Mozilla Firefox Google Chrome Microsoft Edge Internet Explorer