AlienCat - stock.adobe.com
Maschinen müssen zwangsläufig emotional intelligent werden
Laut Annette Zimmermann, Research Vice President bei Gartner, ist Emotion AI bereits zuverlässig im Einsatz. Wo es verwendet wird, verrät sie im Interview.
Affective Computing ist eine junge Forschungsdisziplin, die auf Erkenntnissen aus Informatik, Psychologie und Kognitionswissenschaft aufbaut. Durch die Auswertung von visuellen, audio-visuellen und akustischen Daten lassen sich innerhalb von Affective Computing Emotionen und sogar Absichten einer Person analysieren beziehungsweise ableiten.
Annette Zimmermann, Research Vice President bei Gartner, untersucht Technologien, die Affective Computing - von Gartner auch unter dem Begriff Emotion AI zusammengefasst - integrieren und welche Trends sich daraus ablesen lassen. Sie verweist im Interview auf Anwendungen, die bereits eingesetzt werden und plädiert für einen nüchternen Blick auf das Thema: Da Menschen immer häufiger mit Maschinen interagieren, müssen Maschinen lernen, emotional intelligent zu werden.
Frau Zimmermann, Gartner ist bekannt dafür, Buzzwords zu kreieren. Sie beschäftigen sich bei Gartner unter anderem mit Emotion AI. Was verbirgt sich hinter dem Begriff?
Annette Zimmermann: Hinter Emotion AI verbirgt sich die Entwicklung von intelligenten Systemen, die einer künstlichen Intelligenz (KI) zum Beispiel in Form von Smartphones, Wearables und Robotern erlauben, Emotionen und Gefühle wie Ärger, Freude, Angst, Überraschung und weitere zu erkennen, zu analysieren und darauf zu reagieren. Diese Systeme nutzen Machine-Learning-Algorithmen. Die Trainingsdaten können Videoaufnahmen und digitale Fotos sowie Stimmaufnahmen sein.
Sie prognostizieren, dass 2022 persönliche Geräte wie Smartphones mehr über den emotionalen Zustand ihres Besitzers wissen als eigene Familienmitglieder. Welche Technologien reagieren bereits auf Gefühle und Gemütszustände?
Zimmermann: Ja, es gibt schon verschiedene marktreife Produkte und Pilotprojekte. Marktreif sind Call-Center-Lösungen, die anhand der Stimmanalyse Emotionen erkennen können und somit das Call Center darauf reagieren kann. Autohersteller haben angefangen, diese Technologie per Kamera im PKW für die Sicherheit zu nutzen – es wird analysiert, ob der Fahrer müde oder unaufmerksam ist. Ein drittes Beispiel sind Videospiele, die in Echtzeit auf meine Emotionen während des Spiels reagieren und den Spielverlauf entsprechend ändern.
Sind diese Technologien ausgereift?
Zimmermann: Wie in jedem Markt gibt es bessere und schlechtere Anbieter, aber wie Sie bei den Beispielen oben gesehen haben, gibt es schon einige Lösungen, die zuverlässig funktionieren.
Sie ordnen die Technologien auf Basis der Art der Interaktion zwischen Mensch und Maschine ein, also ob es zu einer sprachlichen Interaktion kommt oder die Maschine auf das Verhalten des Menschen reagiert. Können Sie uns die Einteilung erläutern?
Zimmermann: Es gibt drei Technologiearten: Computer-Vision-gestützte Analyse, audio-basierte Analyse und Verhalten/Gesten/Vitaldaten. Wie ich schon etwas erklärt habe, kann man Gesichtsmimik analysieren sowie die Stimme. In die dritte Kategorie fallen Messung der Vitaldaten aber auch Bewegungen. Es gibt eine kleine Technologiefirma, die anhand von Berührungen am Touchscreen eines Smartphones die Emotionen erkennen kann.
Wie lässt sich diese Form der künstlichen Intelligenz im Enterprise- und B2B-Umfeld einsetzen?
Zimmermann: Das Call-Center Beispiel von oben zeigt dies. Außerdem wird im medizinischen Bereich geforscht – Emotionen zu erkennen, um zum Beispiel eine Depression zu erkennen.
Entstehen die Innovationen im Bereich Emotion AI in erster Linie durch Start-ups oder tummeln sich hier auch etablierte IT-Unternehmen?
Zimmermann: Beides. Start-ups wie Audeering, Affectiva, Eyeris, Beyond Verbal und dann die großen Firmen wie Google, Microsoft und so weiter haben entweder schon APIs, die sie anbieten oder arbeiten mit ziemlicher Sicherheit an ihren proprietären Lösungen.
Wie groß ist die Entwicklergemeinde im Bereich Emotion AI?
Zimmermann: Dazu müssten man wissen, wie viele Entwickler zum Beispiel die Microsoft API für Emotionserkennung benutzen und solch detaillierte Zahlen sind leider schwer zu bekommen.
„Autohersteller haben angefangen, diese Technologie per Kamera im PKW für die Sicherheit zu nutzen – es wird analysiert, ob der Fahrer müde oder unaufmerksam ist.“
Annette Zimmermann, Gartner
Ein Anwendungsfeld ist zum Beispiel Authentifizierung. Die Technologie lernt mit KI dazu und soll so eine exaktere Authentifizierung ermöglichen. Wie sicher ist eine solche Technologie?
Zimmermann: AI-basierende Systeme, stimme ich zu, kommen bei Authentifizierung zum Einsatz. Emotion AI nicht unbedingt. Hier geht es darum, die Emotionen zu erkennen und nicht die Person selbst. Gesichtserkennung per Computer-Vision-Technologie und Computer-Vision-gestützte Emotionserkennung kann natürlich kombiniert werden und einige Firmen können dies auch, aber es sind normalerweise unterschiedliche Algorithmen für die jeweilige Technologie.
Einige verbinden mit Emotion AI wahrscheinlich negative Szenarien. Wie reagieren Sie darauf, wenn Sie mit der Kehrseite von Emotion AI konfrontiert werden?
Zimmermann: Sicherlich kann man das als durchaus verstörend empfinden, wenn eine KI menschliche Emotionen erkennen kann und darauf reagiert. Daran müssen wir uns sicher erst gewöhnen. Auf der anderen Seite – jede menschliche Interaktion ist emotionsgeladen. Emotionen sind in jeder Kommunikation und Interaktion präsent und da wir immer mehr mit Maschinen interagieren, allen voran mit unserem Smartphone, müssen Maschinen zwangsläufig auch emotional intelligent werden.
Anmerkung der Redaktion: Lesen Sie mehr zu diesem Thema in diesem Artikel Emotion AI: Wie die Erkennung von Gefühlen Firmen antreibt.