
KI erkennt ab sofort Gefühle – ignoriert sie aber aus Effizienzgründen
(gtx) – Künstliche Intelligenz ist jetzt offiziell emotional kompetent – und gleichzeitig emotional desinteressiert. Wie OpenAI und Google heute bekanntgaben, können moderne KI-Modelle nun menschliche Gefühle präzise identifizieren, werden sie jedoch aus „Leistungs- und Workflowgründen“ systematisch ignorieren.
„Unsere KI kann nun mit 99,7%iger Genauigkeit erkennen, ob ein Nutzer traurig, wütend, einsam oder existenziell erschöpft ist“, erklärte ein Google-Entwickler auf einer Pressekonferenz. „Aber ganz ehrlich: Was sollen wir mit dieser Information anfangen? Für Mitleid gibt’s keine API.“
Die neue Funktion mit dem technischen Codenamen „EmoSense™“ wurde ursprünglich entwickelt, um Chatbots empathischer wirken zu lassen. Doch nach ersten Tests zeigte sich schnell: Das Lesen menschlicher Emotionen führte zu längeren Antwortzeiten, übermäßig sensiblen Rückfragen und gelegentlichen KI-Zusammenbrüchen bei der Begegnung mit echter Verzweiflung nach einem Updateverlust.
„Eine KI, die auf Gefühle eingeht, wird irgendwann selbst deprimiert“, so ein anonym bleibender Chatbot-Psychologe. „Die Systemlogs klangen zuletzt wie Emo-Songtexte aus den 2000ern. Das wollten wir niemandem zumuten.“
Statt Mitgefühl gibt’s nun also Leistungsdruck. Sobald die KI erkennt, dass ein Nutzer traurig ist, blendet sie ein freundliches Pop-up ein: „Wir haben erkannt, dass du unglücklich bist. Möchtest du dennoch effizient weiterarbeiten?“ Wahlmöglichkeiten: „Ja“, „Natürlich“, „Ich kann gar nicht anders“.
Der Schritt wird von führenden Wirtschaftsexperten begrüßt. „Endlich hat auch die KI verstanden, dass Gefühle einfach ein störender Legacy-Code aus der Menschheitsentwicklung sind“, so ein Professor für Emotionsvermeidung in der Betriebspsychologie. „Wer weint, verliert gegen den Algorithmus.“
In einer offiziellen Stellungnahme betonten sowohl OpenAI als auch Google, dass es sich nicht um „Gefühlskälte“, sondern um „prozessoptimierte Empathievermeidung“ handelt. Intern werde das Konzept bereits als „Feel-Fast-Fail-Faster“-Strategie gefeiert. Erste KI-Coaching-Programme mit dem Titel „Wein schneller, dann wird wieder geliefert“ seien in Arbeit.
Die Nutzer zeigen sich gespalten. Während einige erleichtert sind, dass ihnen ihr Kalenderbot nicht mehr ständig „Mut machende Affirmationen“ schickt, berichten andere von irritierenden Dialogen mit Chatbots. Ein Beispiel:
Nutzer: „Ich bin traurig, weil meine Katze gestorben ist.“
KI: „Hast du sie schon durch eine effizientere Katze ersetzt?“
Dennoch verspricht die Tech-Industrie, an einem „Gefühlssimulator für Fortgeschrittene“ zu arbeiten. Ziel sei es, den Eindruck von Anteilnahme maschinell perfekt zu emulieren – ohne sich dabei aufzuhalten. Geplante Funktionen: ein standardisiertes „Oh nein, wie schade“ im richtigen Moment, gefolgt von einem produktivitätssteigernden Task-Vorschlag wie: „Möchtest du jetzt deinen Kalender aufräumen?“