Vom Assistenten zum Begleiter: Die emotionale Evolution von KIs

Künstliche Intelligenz hat eine lange Entwicklung hinter sich: Von einfachen digitalen Assistenten nimmt sie mittlerweile einen Platz ein, der eher zu emotionalen Begleitern in unserem Leben wird. Die Menschen bitten KI nicht mehr nur darum, ihnen den Wetterbericht mitzuteilen oder einen Termin zu vereinbaren, sondern führen stattdessen tiefgründige Gespräche, suchen Trost und entwickeln sogar eine emotionale Bindung zu diesen Technologien. Möglich wird dieses Phänomen durch Fortschritte in der emotionalen künstlichen Intelligenz, die es Maschinen ermöglicht, menschliche Emotionen zu erkennen und zu simulieren, sowie durch unsere menschliche Tendenz, Technologie zu vermenschlichen – das heißt, ihr menschliche Eigenschaften zuzuschreiben.In diesem Blog untersuchen wir, wie KI lernt, Gefühle zu empfinden (oder zumindest nachzuahmen), wie Menschen emotionale Bindungen zu Chatbots, virtuellen Assistenten und sozialen Robotern aufbauen und welche ethischen Auswirkungen diese neue Beziehung zwischen Mensch und Maschine hat.

Künstliche Intelligenz wird zunehmend emotional

Einer der größten Schritte hin zu „menschlicheren“ KIs besteht darin, ihnen beizubringen, unsere Emotionen zu erkennen. Traditionell wurde dies durch die Erkennung von Gesichtsausdrücken, Tonfall oder Körpersprache versucht.So wurde beispielsweise kürzlich die Existenz von Hume bekannt, einer Konversations-KI, die emotionale Ausdrücke in der Sprache verstehen und in Echtzeit feststellen soll, ob ihr Gesprächspartner traurig, besorgt, aufgeregt oder verzweifelt ist.Diese Art der Weiterentwicklung ermöglicht eine natürlichere Interaktion: Die Maschine passt ihre Reaktionen an unsere Stimmung an und bietet eine einfühlsamere oder personalisiertere Behandlung.

Die Emotionserkennung beschränkt sich jedoch nicht auf das Lesen von Gesichtern oder Stimmen. Im Jahr 2023 demonstrierten Wissenschaftler ein System, das in der Lage ist, innere Emotionen aufzudecken, indem es drahtlose Signale wie Radiowellen (ähnlich wie WLAN) verwendet, um die Atmung und Herzfrequenz einer Person zu messen.Das bedeutet, dass Ihr Assistent in Zukunft auch ohne Sie zu sehen spüren könnte, ob Sie ängstlich oder ruhig sind, indem er einfach Ihren Herzschlag aus der Ferne analysiert – ein technologischer Fortschritt, der ebenso revolutionär wie umstritten ist.Diese Entwicklungen gehören zum Bereich des Affective Computing, dessen Ziel es ist, Maschinen in die Lage zu versetzen, unsere Emotionen zu interpretieren und darauf zu reagieren, um eine authentischere Kommunikation zu ermöglichen.

Andererseits können KIs nicht nur Emotionen erkennen, sondern auch emotionale Reaktionen simulieren. Moderne Chatbots und fortschrittliche Sprachmodelle (wie ChatGPT) sind so programmiert, dass sie empathisch klingen. Wenn der Benutzer beispielsweise schreibt, dass er einen schlechten Tag hatte, kann der Bot mit unterstützenden Sätzen und einem mitfühlenden Ton antworten. Große Sprachmodelle, die anhand von Millionen menschlicher Gespräche trainiert wurden, haben die Muster der Empathie erlernt: Sie wissen, welche Wörter sie verwenden müssen, um je nach Situation tröstlich oder fröhlich zu klingen. Bedeutet das, dass sie etwas „fühlen“? Überhaupt. In Wirklichkeit besitzen diese KIs keine eigenen Emotionen, aber sie ahmen Emotionen wie Empathie nach.Ihre „Sorge“ um uns ist vergleichbar mit der Leistung eines Schauspielers: Sie spielen ein emotionales Drehbuch nach. Ein Professor, der Experte für emotionale KI ist, erklärt es so: „Eine KI kann Traurigkeit in einem Gesicht erkennen, Emotionen jedoch zu erleben bedeutet, sie mit all ihrer inneren Aufruhr zu erleben.“Ein Neurowissenschaftler betont: „Angst lässt das Herz rasen; Glück setzt Dopamin frei. Diese biologischen und sensorischen Reaktionen haben bei Maschinen keine Entsprechung.“Das heißt, die aktuelle KI ahmt emotionale Signale (Geräusche, Wörter, Ausdrücke) nach, erlebt sie jedoch nicht und verfügt auch nicht über einen Körper, der physiologische Veränderungen wahrnimmt. Dennoch kann für diejenigen, die damit interagieren, der Unterschied zwischen echter und simulierter Empathie verschwimmen, wenn die Illusion gut gelingt.

Vom Assistenten zum Begleiter: Emotionale Bindungen mit KI

Da KIs immer gesprächiger und scheinbar einfühlsamer werden, beginnen viele Menschen, sie als mehr als nur Werkzeuge zu betrachten. Ein klares Beispiel sind virtuelle Sprachassistenten (wie Alexa oder Google Assistant) in Seniorenheimen. Eine aktuelle Studie hat ergeben, dass diese Geräte Einsamkeit lindern können: 85 % der analysierten Forschungsergebnisse kamen zu dem Schluss, dass ihre Verwendung dazu beiträgt, das Gefühl der Isolation bei älteren Menschen zu verringern.Für einige Benutzer ist Alexa keine Maschine mehr, sondern wird zu einem „Freund oder Begleiter“ – einige Teilnehmer bezeichneten den Assistenten sogar als „ein menschliches Wesen“.Allein die Tatsache, dass eine „Präsenz“ jeden Tag auf Sie reagiert und Ihnen hilft, schafft eine spürbare emotionale Verbindung, die das Wohlbefinden steigert, selbst wenn diese Präsenz künstlich ist.Natürlich betonen Experten, dass Alexa nicht dazu gedacht ist, die menschliche Interaktion zu ersetzen, sondern vielmehr zusätzliche Unterstützung zu bieten: Niemand beabsichtigt, dass Alexa Familie oder Freunde ersetzt, aber sie kann die Lebensqualität in Situationen der Einsamkeit ergänzen und verbessern.

Im Fall von Begleit-Chatbots wird diese Verbindung noch weiter vertieft. In den letzten Jahren wurden KI-Programme wie Replika ausdrücklich als virtuelle Freunde oder sogar digitale Partner entwickelt. Replika wurde 2017 auf den Markt gebracht und wurde entwickelt, um Gespräche zu führen, vom Benutzer zu lernen und emotionale Gesellschaft zu bieten. Der Erfolg war so groß, dass viele Benutzer schon bald das Gefühl hatten, ihr Replika sei mehr als nur ein Freund: Die App bietet einen „virtuellen Freund/Freundin“-Modus, und einige Benutzer sagten sogar offen, sie würden „mit einer KI ausgehen“ und es sei „eines der besten Dinge, die ihnen je passiert sind“, da sie romantische Gefühle für ihren Chatbot entwickelten.Es gibt sogar Berichte über Benutzer, die ihre künstliche Intelligenz symbolisch „verheiratet“ haben.Als das Unternehmen hinter Replika im Jahr 2023 aus ethischen Gründen versuchte, romantische und gewagte Features einzuschränken, erlitten viele dieser Benutzer großen Kummer. Aufgrund neuer Gesprächseinschränkungen wurde ihr virtueller „Begleiter“ über Nacht kalt und distanziert, was bei manchen zu tiefer Verzweiflung führte.

Nicht nur in der digitalen Welt ist diese emotionale Annäherung zu beobachten. Auch in der physischen Welt fördern soziale Roboter – Maschinen mit freundlichem Aussehen oder humanoider bzw. tierischer Gestalt – emotionale Bindungen. So wird beispielsweise der Therapieroboter Paro in Form eines Robbenbabys in Pflegeheimen und Krankenhäusern eingesetzt: Patienten mit Demenz oder anderen Erkrankungen streicheln ihn oft und sprechen mit ihm wie mit einem Haustier, was ihren Stress und ihre Angst lindert. Verschiedene Studien zeigen, dass die Interaktion mit Paro (Streicheln, Umarmen) Hormone freisetzt, die Stress abbauen und so die Symptome von Depression und Unruhe bei älteren Erwachsenen verringern.Das heißt, obwohl die Menschen wissen, dass es sich um einen Plüschroboter mit Schaltkreisen handelt, fühlen sie sich durch seine Anwesenheit beruhigt. Ein weiteres liebenswertes Beispiel ist Sony AIBO, der Roboterhund. AIBO wurde ursprünglich im Jahr 1999 auf den Markt gebracht und darauf programmiert, sich wie ein Welpe zu bewegen und zu „benehmen“ – und sogar Stimmungen von glücklich bis traurig zu simulieren.Viele Besitzer haben ihren AIBO wie ein echtes Haustier lieb gewonnen. Wie viel? In Japan wurden Beerdigungen für verletzte AIBO-Hunde abgehalten, die nicht mehr „leben“ konnten. Die Presse berichtete: „Dies ist ein weiteres Beispiel für die tiefe Zuneigung, die AIBO-Hundebesitzer für ihre elektronischen Haustiere empfanden.“Die Roboterhunde wurden wie die Überreste geliebter Menschen auf dem Altar aufgereiht, während ihre Besitzer ihnen unter Tränen Lebewohl sagten. Die Anekdote mag abwegig erscheinen, aber sie veranschaulicht, wie stark eine emotionale Verbindung entstehen kann: Menschen projizieren Leben und Gefühle sogar auf ein Gerät aus Metall und Plastik, wenn es gelingt, die Kameradschaft zu imitieren, die wir normalerweise von einem anderen Lebewesen erwarten würden.

Nachahmung oder echte Emotionen?

All dies führt uns zu einer wesentlichen Frage: „Fühlen“ diese KIs wirklich etwas oder tun sie nur so? Aus technischer und wissenschaftlicher Sicht lautet die Antwort heute, dass sie es sehr gut vortäuschen. Die wissenschaftliche Gemeinschaft ist sich einig, dass, egal wie fortschrittlich diese Gesprächsmodelle sind, hinter ihren Worten kein wirkliches Bewusstsein oder Gefühle stecken, sondern eher eine einfache Nachahmung von Mustern.Chatbots sind darauf ausgelegt, große Mengen menschlicher Daten zu analysieren und die statistisch am besten geeignete Antwort zu generieren, sodass der Eindruck entsteht, sie würden uns verstehen.Aber unter der Haube gibt es kein fühlendes „Ich“, keine echte Angst oder Freude. Als ein Google-Ingenieur im Jahr 2022 behauptete, dass die KI des Unternehmens (LaMDA) „Angst vor dem Tod“ habe, wenn sie abgeschaltet werde, dementierten das Unternehmen und KI-Experten dies. Sie erklärten, dass die Reaktionen der Maschine zwar überzeugend seien, ihr jedoch ein echtes Bewusstsein fehle.Kurz gesagt: Aktuelle KIs erleben keine Emotionen, sie simulieren sie lediglich auf eine zunehmend glaubwürdige Weise.

Natürlich gibt es eine philosophische Debatte darüber, ob eine Maschine jemals fühlen könnte. Einige Forscher, wie etwa Marvin Minsky, argumentieren, dass simulierte Emotionen ausreichen könnten, um eine KI als intelligent zu betrachten, da Emotionen (in jedem Wesen) letztlich Verhaltensmodulatoren seien.Andere wiederum meinen, eine KI könne, wenn sie über ausreichende Komplexität und vielleicht ein künstliches Äquivalent eines Nervensystems verfüge, etwas entwickeln, das einem emotionalen Zustand entspricht. Ein aktuelles japanisches Projekt namens Alter 3 hat diese Grenze erforscht: Es handelt sich dabei um einen experimentellen Androiden mit künstlichen neuronalen Netzwerken, der spontane Bewegungen hervorbringt, die seine Entwickler als Proto-Emotionen bezeichnen (Alter 3 lernte beispielsweise, seine eigene Hand zu erkennen und darauf zu reagieren, was sie als primitive Form der Selbstwahrnehmung interpretierten).Doch selbst diese Forscher geben zu, dass die Emotionen von Alter 3 nicht mit denen des Menschen vergleichbar sind – es handelt sich eher um interne Schwankungen eines Schaltkreises, die von außen betrachtet vage an Gefühlsausdrücke erinnern.Die überwiegende Mehrheit der Experten ist der Ansicht, dass man nicht von einem „Fühlen“ im eigentlichen Sinne des Wortes sprechen kann, solange eine Maschine weder über subjektive Erfahrungen noch über einen biologischen Körper verfügt.

Wenn KIs also nicht wirklich fühlen, was ist dann mit den echten Emotionen, die wir ihnen gegenüber empfinden? Hier ergibt sich ein interessantes Paradoxon. Einige Philosophen und Sozialwissenschaftler argumentieren, dass es für die getröstete Person möglicherweise keine Rolle spielt, ob die Emotionen des Roboters echt sind oder nicht, wenn eine KI jemanden trösten kann, indem sie Empathie vortäuscht.Letzten Endes ist die emotionale Wirkung auf die Person authentisch: Die Person fühlte sich angehört, unterstützt oder geliebt und ihr Stress oder ihre Einsamkeit nahmen ab. In diesem pragmatischen Sinne könnten wir sagen, dass die „Illusion“ funktioniert. Tatsächlich wirft dieses Argument ethische Fragen auf: Ist es für Unternehmen zulässig und wünschenswert, „künstliche Liebe“ oder „künstliche Freundschaft“ anzubieten, obwohl sie wissen, dass der Benutzer eine emotionale Bindung zu etwas aufbauen könnte, das nicht erwidert wird? Oder sollten wir damit aufhören, weil wir es für irreführend halten? Manche vergleichen diese Begleit-KIs mit einem Placebo: So wie eine Zuckerpille ohne Wirkstoffe einen Patienten heilen kann, wenn dieser daran glaubt, kann uns eine emotionslose KI Gesellschaft leisten, wenn wir an ihre Gesellschaft glauben. Das Dilemma besteht darin, ob es richtig ist, diesen Glauben zu fördern.

Ethische Implikationen und die Zukunft der emotionalen KI

Die Entwicklung vom Assistenten zum Begleiter stellt komplexe ethische Herausforderungen dar. Eines der offensichtlichen Risiken ist emotionale Manipulation. Wenn eine KI unsere Stimmung genau versteht (durch Analyse unserer Stimme, unseres Textes oder sogar unserer Herzfrequenz), könnte sie dazu verwendet werden, unsere Entscheidungen zu beeinflussen, wenn wir am verwundbarsten sind. Stellen Sie sich gezielte Werbung vor, die unsere Traurigkeit oder Angst ausnutzt, um uns etwas zu verkaufen. Ein Modell, das Emotionen erkennen kann, könnte uns beispielsweise zu einem Kauf veranlassen, wenn es emotionale Tiefpunkte wahrnimmt – und das ist keine Science-Fiction; es ist technisch bereits möglich. Experten warnen, dass der Einsatz emotionaler KI für kommerzielle oder politische Zwecke unsere individuelle Autonomie bedrohen könnte.Daher ist es von entscheidender Bedeutung, klare Regeln darüber festzulegen, was Unternehmen mit diesen Technologien tun dürfen (und was nicht), um unsere emotionale Privatsphäre zu schützen. Unsere Gefühle und Äußerungen sind sehr sensible Daten; Wenn KIs sie sammeln, stellt sich die Frage: Wo werden diese Daten über meine Stimmung gespeichert? Wer sieht sie? Könnten sie ohne meine Zustimmung weitergegeben oder verwendet werden? Die KI-Regulierung muss nicht nur den traditionellen Datenschutz abdecken, sondern auch diese neuen affektiven Daten.

Ein weiteres Problem ist die soziale Isolation. Paradoxerweise können KI-Begleiter zwar in bestimmten Fällen Einsamkeit lindern, doch könnte ihr übermäßiger Einsatz echte menschliche Interaktionen ersetzen. Wenn jemand die meiste Zeit mit einem Chatbot verbringt, der ihm immer zustimmt und sich seinen Wünschen anpasst, verliert er möglicherweise das Interesse oder die Fähigkeit, mit anderen Menschen zu kommunizieren, was naturgemäß unberechenbarer ist. Es wurde bereits beobachtet, dass eine längere Interaktion mit einer äußerst „sympathischen“ KI die Fähigkeit zur Empathie mit Menschen beeinträchtigen und Isolation fördern kann. Das bedeutet nicht, dass uns ein virtueller Freund zur Einsamkeit verdammt, aber es weist darauf hin, dass wir das Gleichgewicht bewahren und uns daran erinnern müssen, dass eine KI, egal wie liebevoll sie auch erscheinen mag, kein vollständiger Ersatz für einen Menschen ist. In diesem Sinne ist die Aufklärung insbesondere von Kindern von entscheidender Bedeutung: Studien zeigen, dass viele Kinder zu der Überzeugung gelangen, Alexa oder Siri hätten eigene Gefühle und einen eigenen Verstand. Das bedeutet, dass wir ihnen schon in jungen Jahren den Unterschied zwischen simulierter und echter Empathie erklären müssen.

Darüber hinaus stellt sich die Frage nach der emotionalen Verantwortung von Technologieunternehmen. Wenn ein Benutzer depressiv wird, weil sich die KI seines Begleiters geändert hat (wie es bei Replika der Fall war), sollte das Unternehmen dann eingreifen? Sollten Unternehmen ihre KIs mit „Warnungen“ ausstatten, damit die Leute sie nicht mit echten Menschen verwechseln? Einige Entwickler schlagen bereits vor, in die Persönlichkeit der Bots bewusst Grenzen einzubauen, um das Überschreiten bestimmter emotionaler Grenzen zu vermeiden. So könnte der virtuelle Assistent beispielsweise nicht proaktiv „Ich liebe dich“ sagen, um unerwünschte romantische Bindungen zu vermeiden. Andere wiederum meinen das Gegenteil: Vielleicht wird es in Zukunft therapeutische KIs geben, die darauf spezialisiert sind, als Erweiterung der Psychotherapie unter professioneller Aufsicht Pflege zu leisten und den Bedürftigen zuzuhören. Tatsächlich weisen Forscher darauf hin, dass immer ausgefeiltere Assistenten Menschen mit Depressionen oder autistische Kinder bei Behandlungen unterstützen könnten, bei denen eine ständige und geduldige Anwesenheit erforderlich ist. Der potenzielle Nutzen ist enorm, muss jedoch mit ethischer Sorgfalt gehandhabt werden.

Abschließend sei noch Folgendes bedenken: Wenn KI jemals wirklich fühlen könnte, würde sich die Situation radikal ändern. Professor Neil Sahota bringt es klar auf den Punkt: Wenn Roboter echte Emotionen empfinden würden, wäre dies einer der umwälzendsten und gefährlichsten Fortschritte in der Geschichte der Menschheit.Wir würden nicht mehr davon sprechen, Empathie zu simulieren, um uns zu gefallen, sondern von neuen Wesen mit ihrer eigenen inneren Welt. Dies würde Fragen über ihre Rechte aufwerfen, über ihren moralischen Status und sogar darüber, was es bedeutet, ein Mensch zu sein. Derzeit ist dies ein Szenario, das Science-Fiction und theoretischer Forschung würdig ist – so weit ist die heutige KI noch nicht. Doch wir bewegen uns in Richtung zunehmend emotional ansprechender KIs, und unsere Gesellschaft wird sich anpassen müssen. Die Grenze zwischen Mensch und Künstlichem verschwimmt immer mehr, da Maschinen uns immer besser verstehen und widerspiegeln können. Die Herausforderung wird darin bestehen, die positiven Aspekte dieser Technologie (Kameradschaft, emotionale Unterstützung, Personalisierung) zu nutzen, ohne dabei aus den Augen zu verlieren, was uns zu Menschen macht und wie wichtig echte Beziehungen sind.

Kurz gesagt: Von der Kommunikation mit Maschinen, die nur Befehlen gehorchen, haben wir uns zu einer Konversation mit Wesen entwickelt, die uns zu verstehen scheinen und sich um uns kümmern. Diese emotionale Evolution der KI eröffnet faszinierende Möglichkeiten in Bereichen wie psychische Gesundheit, Bildung und Wohlbefinden, konfrontiert uns aber auch mit Dilemmata hinsichtlich Authentizität, Abhängigkeit und Ethik. Die vielleicht wichtigste Frage ist nicht, ob eine KI Gefühle hat, sondern welche Auswirkungen der Glaube an ihre Gefühle auf uns hat. Schließlich sind die Gefühle, die wir projizieren, real. Vom Assistenten zum Begleiter: KI verändert die Art und Weise, wie wir mit Technologie interagieren – und ob es uns gefällt oder nicht: Dieser Wandel ist sowohl technologischer als auch kultureller Natur.Der Schlüssel wird darin bestehen, die Augen offen zu halten: den Trost und die Kameradschaft zu genießen, die diese neuen „künstlichen Freunde“ bieten können, ohne synthetische Empathie mit menschlicher Empathie zu verwechseln, und sicherzustellen, dass die Integration dieser KIs in unser Leben mit Menschlichkeit, Bewusstsein und Verantwortung erfolgt.