'Emotion AI' könnte der nächste Trend für Unternehmenssoftware sein, und das könnte problematisch sein

Wenn Unternehmen damit experimentieren, KI überall einzubetten, ist ein unerwarteter Trend, dass Unternehmen KI einsetzen, um ihren vielen neu entdeckten Bots zu helfen, menschliche Emotionen besser zu verstehen.

Es handelt sich um einen Bereich namens „Emotion AI“, wie im neuen Enterprise SaaS Emerging Tech Research-Bericht von PitchBook vorhergesagt wird, der darauf hinweist, dass diese Technologie im Aufschwung ist.

Die Argumentation lautet in etwa so: Wenn Unternehmen KI-Assistenten für Führungskräfte und Mitarbeiter einsetzen, KI-Chatbots als Vertriebsmitarbeiter und Kundendienstmitarbeiter einsetzen, wie kann eine KI gut funktionieren, wenn sie den Unterschied zwischen einem verärgerten „Was meinen Sie damit?“ und einem verwirrten „Was meinen Sie damit?“ nicht versteht?

Emotion AI behauptet, das anspruchsvollere Geschwister von Sentimentanalyse zu sein, der Vore-KI-Technologie, die versucht, menschliche Emotionen aus textbasierten Interaktionen zu destillieren, insbesondere in sozialen Medien. Emotion AI ist das, was man multimodal nennen könnte, es nutzt Sensoren für visuelle, auditive und andere Eingaben in Kombination mit maschinellem Lernen und Psychologie, um menschliche Emotionen während einer Interaktion zu erkennen.

Wichtige KI-Cloud-Anbieter bieten Dienste an, die Entwicklern Zugriff auf Emotion AI-Fähigkeiten ermöglichen, wie zum Beispiel den Emotion API-Dienst von Microsoft Azure Cognitive Services oder den Rekognition-Dienst von Amazon Web Services (Letzterer hatte im Laufe der Jahre seinen Anteil an Kontroversen).

Obwohl Emotion AI, selbst als Cloud-Service angeboten, nicht neu ist, verleiht der plötzliche Aufstieg von Bots in der Arbeitswelt dieser Technologie mehr Zukunft im Geschäftsumfeld als je zuvor, so PitchBook.

„Mit der Verbreitung von KI-Assistenten und vollständig automatisierten Mensch-Maschine-Interaktionen verspricht Emotion AI, menschenähnlichere Interpretationen und Reaktionen zu ermöglichen“, schreibt Derek Hernandez, Senior-Analyst für aufkommende Technologien bei PitchBook, in dem Bericht.

„Kameras und Mikrofone sind integraler Bestandteil der Hardware-Seite von Emotion AI. Diese können auf einem Laptop, Telefon oder individuell in einem physischen Raum angebracht sein. Zudem wird tragbare Hardware voraussichtlich eine weitere Möglichkeit bieten, Emotion AI über diese Geräte hinaus einzusetzen“, sagt Hernandez gegenüber TechCrunch. (Wenn also ein Kundendienst-Chatbot um Kamerazugriff bittet, könnte das der Grund sein).

Zu diesem Zweck startet eine wachsende Anzahl von Startups, um dies zu ermöglichen. Dazu gehören Uniphore (mit insgesamt 610 Millionen Dollar eingesammelt, darunter 400 Millionen Dollar im Jahr 2022, angeführt von NEA), sowie MorphCast, Voicesense, Superceed, Siena AI, audEERING und Opsis, von denen jeder auch geringe Summen von verschiedenen VCs eingesammelt hat, schätzt PitchBook.

Natürlich ist Emotion AI ein sehr „Silicon Valley“-Ansatz: Die Verwendung von Technologie, um ein Problem zu lösen, das durch die Verwendung von Technologie mit Menschen entsteht.

Aber selbst wenn die meisten KI-Bots irgendwann eine Form von automatischer Empathie entwickeln werden, heißt das nicht, dass diese Lösung wirklich funktionieren wird.

Tatsächlich wurde das letzte Mal, als Emotion AI in Silicon Valley ein heißes Thema wurde - ungefähr um das Jahr 2019, als sich die meiste KI/ML-Welt noch auf Computer Vision konzentrierte anstatt auf generative Sprache und Kunst - ein Strich durch die Rechnung gemacht. In diesem Jahr veröffentlichten Forscher ein Meta-Review von Studien und kamen zu dem Schluss, dass menschliche Emotionen tatsächlich nicht anhand von Gesichtsbewegungen bestimmt werden können. Mit anderen Worten, die Idee, dass wir einer KI beibringen können, die Gefühle eines Menschen zu erkennen, indem wir sie nachahmen lassen, wie andere Menschen das versuchen (Gesichter lesen, Körpersprache, Tonfall), ist in ihrer Annahme etwas fehlgeleitet.

Es besteht auch die Möglichkeit, dass KI-Regulierungen, wie z.B. der AI Act der Europäischen Union, der die Verwendung von Emotionserkennungssystemen mit computergestützter Vision für bestimmte Zwecke wie Bildung verbietet, diese Idee im Keim ersticken könnten. (Einige staatliche Gesetze, wie z.B. das BIPA von Illinois, verbieten auch die Erfassung von biometrischen Daten ohne Erlaubnis).

All dies gibt einen breiteren Einblick in diese AI-überall-Zukunft, die Silicon Valley derzeit mitreißt. Entweder werden diese KI-Bots sich bemühen, emotionales Verständnis zu entwickeln, um Aufgaben wie den Kundenservice, Vertrieb und das Personalwesen und alle anderen Aufgaben zu erledigen, die Menschen ihnen zuweisen wollen, oder vielleicht werden sie nicht besonders gut in jeder Aufgabe sein, die wirklich diese Fähigkeit erfordert. Vielleicht sehen wir in Zukunft ein Büroleben mit KI-Bots auf dem Niveau von Siri um 2023. Im Vergleich zu einem botgesteuerten Betrieb, der in Echtzeit während Meetings auf die Gefühle aller rate, wer weiß schon, was schlechter ist?