“I’m afraid, I can’t do that.” (HAL 9000) Zusammenleben mit emotionaler künstlicher Intelligenz

Catrin Misselhorn

Die Vollversion des dekorativen Hintergrundbildes dieses Elements anzeigen.

Dürfen wir auf eine künstliche Intelligenz mit menschlichem Antlitz hoffen oder müssen wir uns das Zusammenleben mit KI wie eine Lebensgemeinschaft mit einem Psychopathen vorstellen? Die Philosophin Catrin Misselhorn denkt über Möglichkeiten und Grenzen einer empathischen Beziehung zwischen Menschen und Maschinen nach.

 

1. Warum emotionale KI?

 

Künstliche Intelligenz (KI) durchdringt unseren Alltag immer stärker und erfasst auch Bereiche, die bisher als uneinnehmbare Domäne des Menschen galten. Lange Zeit hatte man allerdings auch nicht geglaubt, dass Maschinen Menschen im Schach- oder Go-Spiel würden übertreffen können. Derartige kognitive Höchstleistungen gründen in der hochentwickelten Rechenfähigkeit künstlicher Intelligenz. Es scheint jedoch mehr als eine Frage der reinen Rechenkapazität zu sein, wenn man KI mit menschlichen Kernkompetenzen wie Emotionen oder Empathie ausstatten will.

Gerade emotionale Fähigkeiten sind für intelligentes Verhalten beim Menschen ausgesprochen wichtig. Es gibt neurowissenschaftliche Evidenzen dafür, dass emotionale Störungen aufgrund von Hirnverletzungen zu gravierenden Einschränkungen des rationalen Verhaltens führen (Damásio 1994). Die betroffenen Personen schnitten zwar in IQ-Tests normal ab, trafen aber fatale Lebensentscheidungen und waren unfähig, einen Plan in die Tat umzusetzen oder eine begonnene Sache zu vollenden. Der Mangel an emotionalen Fähigkeiten, die für intelligentes Verhalten bei Menschen wichtig sind, wird als ein Grund dafür angesehen, warum künstliche Intelligenz emotional werden muss, um anspruchsvolle kognitive Aufgaben zu bewältigen (Minsky 1986; 2006).

Bezeichnenderweise geht der Trend in der Arbeitswelt weg von der reinen Automatisierung hin zu Lösungen, deren Ziel nicht die „Ersetzung“ des Menschen durch die Maschine ist, sondern die „Zusammenarbeit“ von Mensch und Maschine. Für die Kommunikation, soziale Interaktion und Kooperation mit Menschen sind Emotionen von zentraler Bedeutung. Deshalb müssen auch künstliche Systeme Emotionen zuverlässig erkennen, einordnen und sozial angemessen auf sie reagieren können, wenn sie mit Menschen zu tun haben.

Künstliche Systeme und Roboter sollen darüber hinaus Helfer, soziale Gefährten und Liebhaber sein. Kameras, Mikrofone und Sensoren im „Smart Home“ dienen dazu, die Stimmung der Nutzer zu erkennen und etwa Beleuchtung und Musik entsprechend anzupassen. Auch Amazons Sprachassistentin „Alexa“, deren Software in vielen Lautsprechern integriert ist und die eine Reihe von Geräten steuern kann, ist bereits in der Lage, Emotionen zu erkennen und auszudrücken. Smartwatches registrieren jede Veränderung der Gefühle und Stimmungen der Nutzer an körperlichen Veränderungen. Pflegerobotern kommt die Aufgabe zu, sich um alte Menschen zu kümmern, soziale Roboter sollen Einsamen Gesellschaft leisten und Sexroboter sollen nicht nur die üblichen sexuellen Bedürfnisse erfüllen, sondern auch solche Vorlieben, die in der realen Welt moralisch anstößig oder gar gesetzlich verboten sind.

Wie diese Beispiele zeigen, ist die emotionale KI ein Markt, der große Gewinnchancen für die Unternehmen birgt. Doch welche Auswirkungen hat emotionale KI auf uns als Individuen, für unsere Gesellschaft und die Demokratie? Was ist von den Versprechungen der Branche zu halten, KI empathisch und somit menschenfreundlicher, angenehmer im Umgang und funktionaler zu machen? Kommen wir dadurch einer KI mit menschlichen Zügen näher? Oder sind die Maschinen nur ein ausgeklügeltes Mittel, um unsere intimsten Gefühle ökonomisch und auch politisch besser nutzbar zu machen?

 

2. Was ist emotionale KI und wie funktioniert sie?

 

Der Begriff der emotionalen KI (auf Englisch auch: „affective computing“) wurde in den 1990er Jahren im Zuge der Debatte um die emotionale Intelligenz geprägt (Picard 1997). Sie lässt sich analog zur kognitiven KI als diejenige Disziplin definieren, die es mit der Nachbildung oder Simulation von emotionaler Intelligenz zu tun hat, also damit, ob und wie künstliche Systeme Emotionen erkennen, ausdrücken und vielleicht sogar selbst besitzen können.

Genau wie bei der kognitiven KI ist zwischen einer starken und einer schwachen Form emotionaler KI zu unterscheiden. Schwache emotionale KI ist auf die Lösung konkreter Anwendungsprobleme bezogen und erfordert nicht, dass künstliche Systeme über Emotionen im menschlichen Sinn verfügen. Starke emotionale KI ist hingegen mit dem Anspruch verbunden, eine dem Menschen vergleichbare Form der emotionalen Intelligenz hervorzubringen. Für starke emotionale KI ist es daher unabdingbar, dass Maschinen Emotionen im menschlichen Sinn aufweisen. Gelänge es, eine emotionale KI im starken Sinn zu entwickeln, so ließen sich daraus auch Aussagen über die Entstehung und Funktionsweise von Emotionen bei Menschen gewinnen.

Der derzeitig ökonomisch und sozial bedeutendste Zweig der emotionalen KI ist die automatische Emotionserkennung. Diese Wachstumsbranche wird in Zukunft noch mehr Gewicht bekommen und erhebliche Folgen für unser Zusammenleben haben. Es wurden eine Reihe von Methoden entwickelt, die in unterschiedlichen Bereichen Anwendung finden (ausführlicher dazu: Misselhorn 2021). Einige Verfahren lesen die Emotionen am Gesichtsausdruck ab, andere stützen sich auf die akustischen und prosodischen Eigenschaften der Stimme. Die semantischen Assoziationen bestimmter Wörter mit Emotionen werden für Algorithmen genutzt, die Stimmungen und Emotionen etwa in den sozialen Netzwerken erkennen, vorhersagen und beeinflussen können. Biosensoren, wie sie beispielsweise in Smartwatches verbaut sind, messen die physiologischen Veränderungen (etwa der Herz- oder Atemfrequenz, der Muskelspannung und Hautleitfähigkeit), die mit bestimmten Emotionen verbunden sind, und erfassen mit ihrer Hilfe den emotionalen Zustand einer Person.

Die Anwendungskontexte, in denen automatische Emotionserkennung bereits eingesetzt wird oder eingesetzt werden soll, sind vielfältig und umfassen sämtliche Lebensbereiche, von denen hier nur eine kleine Auswahl aufgeführt werden kann (ausführlicher dazu: McStay 2018):

  • In der Werbung und Marktanalyse zur Erfassung von Präferenzen und Reaktionen auf Marken und Werbung, zur Optimierung und Personalisierung.
  • In der Politik zur Erfassung und Beeinflussung von Stimmungen und emotionalen Reaktionen auf Parteien, politische Maßnahmen, Programme und Initiativen sowie im Wahlkampf, insbesondere mit Hilfe der sozialen Netzwerke.
  • Im Gesundheitswesen zur Erfassung des geistigen und körperlichen Zustands von Personen, zur Registrierung psychischer Auffälligkeiten und Störungen, zur Begleitung von Patienten durch Assistenten sowie für therapeutische Angebote.
  • Im Polizei- und Sicherheitsbereich zur Identifikation potentieller Terroristen sowie zur Erfassung und Beeinflussung von Stimmungen in der Öffentlichkeit, die zu Unruhen führen könnten.
  • In der Arbeitswelt zur Überprüfung von Bewerbern auf ihre Persönlichkeit, Belastbarkeit und Eignung für eine bestimmte Arbeitsstelle sowie zur Messung von Motivation und Leistungsfähigkeit am Arbeitsplatz.
  • In der Versicherungsbranche zur Einschätzung der psychischen Gesundheit und emotionalen Disposition der Versicherungsnehmer.

Da die emotionale KI dabei ist, sämtliche Lebensbereiche zu durchdringen, sind die Vorbehalte dagegen aus technischer und ethischer Sicht dringend zu diskutieren. Der „AI Now Report 2019“ setzt sich etwa sehr kritisch mit der Zuverlässigkeit der eingesetzten Verfahren auseinander. Diese entbehren laut jener Studie bislang einer wissenschaftlichen Grundlage. So tut sich insbesondere die gesichtsbasierte Emotionserkennung mit der Diversität schwer und unterliegt rassistischen Vorurteilen. Hinzukommt ein Mangel an Transparenz sowie eines angemessenen rechtlichen Rahmens. Deshalb fordert der Report die Politik dazu auf, die Verwendung der automatischen Emotionserkennung bei wichtigen Entscheidungen über das Leben von Menschen zu verbieten.

Weitere grundlegende ethische Kritikpunkte betreffen die Bedrohung der Privatund Intimsphäre und der Selbstbestimmung. Darüber hinaus birgt die emotionale KI auch Gefahren für die öffentliche Sphäre und die Demokratie, die durch die in den Algorithmen angelegte Begünstigung von radikalen, hasserfüllten und aggressiven Inhalten in den sozialen Netzwerken sowie die emotionale Manipulation politischer Einstellungen und Verhaltensweisen entstehen.

 

3. Empathie zwischen Mensch und Maschine

 

Häufig wird die emotionale KI damit beworben, dass künstliche Intelligenz nun endlich empathisch werde. Ist dieser vollmundigen Verheißung Glauben zu schenken? Menschen erkennen die Emotionen ihrer Mitmenschen nicht in erster Linie auf der Grundlage objektiver Faktoren, sondern indem sie deren Emotionen auch mitfühlen. Diese Fähigkeit, die echte Empathie auszeichnet, geht den automatischen Emotionserkennungssystemen ab (Misselhorn 2021). Sie können zwar mit Zuständen ausgestattet werden, die eine ähnliche Funktion wie Emotionen übernehmen, aber es fehlt ihnen die subjektive Erlebnisqualität, die menschliche Gefühle und Empathie auszeichnet.

Man kann eine gewisse Parallele zwischen der emotionalen KI und Psychopathen herstellen, die sich im landläufigen Verständnis durch die Unfähigkeit zur Empathie auszeichnen. Psychopathen sind jedoch durchaus in der Lage, anhand objektiver Anzeichen auf die Emotionen ihrer Mitmenschen zu schließen und können diese Fähigkeit zu manipulativen Zwecken einsetzen.

Auch künstliche Systeme, die Emotionen erkennen, dienen in vielen Fällen manipulativen Zwecken. Diese Zwecke setzen sich die Systeme natürlich – anders als Psychopathen – nicht selbst, sondern sie werden ihnen von ihren Entwicklern vorgegeben. Emotionale KI soll uns zu einem gewünschten Verhalten bringen, wie ein bestimmtes Produkt zu kaufen, uns beim Autofahren nicht aufzuregen, motivierter zu lernen, produktiver zu arbeiten oder einen bestimmten politischen Kandidaten zu wählen.

Eine eigentümliche dialektische Pointe besteht darin, dass zwar die Maschinen keine Empathie mit Menschen empfinden, aber die Menschen mit den Maschinen, sofern sie über gewisse menschenähnliche Eigenschaften verfügen. Vor einigen Jahren ging ein Videoclip in den sozialen Medien viral, in dem zu sehen ist, wie ein Atlas-Roboter der Firma Boston Dynamics, der in Größe, Körpersilhouette und Bewegungen eher vage an einen Menschen erinnert, getreten und mit Stühlen und Stangen geschlagen wird. Die Filmsequenz löste eine Welle von Empathie für den Roboter aus.

Stanley Kubricks Film „2001: Odyssee im Weltraum“ (USA 1968) lotet das Phänomen in einer Szene mit geradezu experimenteller Qualität aus. Der Bordcomputer HAL 9000, der im Titel dieses Artikels zitiert wird, ist eine künstliche Intelligenz, die lernfähig ist und wie ein Kind erzogen und sozialisiert wurde. Seine äußere Gestalt ist nicht sehr menschenähnlich. Sie besteht aus einem Interface mit einem Kameraauge, Lautsprechern und Mikrofonen. HAL zeigt jedoch Interesse daran, sich selbst zu erhalten, und lässt emotionale Reaktionen erkennen. Besonders hervorstechend ist seine außerordentlich menschenähnliche sonore Stimme.

Während einer Weltraummission gerät HAL 9000 außer Kontrolle und soll abgeschaltet werden. Als der Computer das herausfindet, beginnt er, die menschlichen Crewmitglieder nacheinander zu töten, um die Mission ungestört weiterführen zu können. Als das letzte lebende Mitglied der Mannschaft sich daran macht, den Computer schrittweise lahmzulegen, scheint der Astronaut ein Wesen mit Emotionen, Selbstbewusstsein und einem Selbsterhaltungstrieb zu zerstören.

Es wirkt so, als hätte HAL große Angst vor seiner Abschaltung. Er fleht um sein Leben und singt schließlich wie ein Kind, das sich im dunklen Wald fürchtet, ein Kinderlied (in der deutschen Synchronfassung „Hänschen klein“). Während er singt, verliert seine Stimme zunehmend ihr menschliches Timbre, wird immer tiefer und langsamer und klingt am Ende rein mechanisch.

Als Zuschauer empfindet man zunächst starke Empathie, die jedoch nach und nach zweifelhafter wird, je mechanischer HALs Stimme erscheint. Ist unsere Empathie mit HAL also nur ein Trick der Entwickler, um die Menschen daran zu hindern, den Computer abzuschalten, damit die Mission um jeden Preis beendet wird? Oder ist sie ein Anzeichen dafür, dass es moralisch falsch ist, eine Kreatur wie HAL 9000 einfach abzuschalten?

Bejaht man die erste Frage, so müssen wir uns darüber Gedanken machen, wie wir mit dem Potential zur Manipulation umgehen, das künstlichen Systemen inhärent ist, die Empathie erregen, obwohl sie selbst keine Gefühle haben. Lautet hingegen die Antwort auf die zweite Frage „Ja“, so gilt es, darüber nachzudenken, welcher moralische Status der emotionalen KI in unserer Gesellschaft zukommen soll.

Unabhängig davon, für welche der Antworten man sich entscheidet, wird deutlich, dass emotionale künstliche Intelligenz dabei ist, unsere soziale Praxis grundlegend zu verändern. Diese Veränderungen sollten wir nicht einfach den Konzernen überlassen, die emotionale KI entwickeln und für ihre Zwecke einsetzen. Es gilt, diese Entwicklung nach unseren ethischen und sozialen Vorstellungen politisch zu steuern und zu regulieren.

 

 

Literatur

 

  • AI Now Report (2019): Online: URL: https://ainowinstitute.org/AI_Now_2019_Report.pdf [Zugriff zuletzt am 20.01.21].
  • Damásio, António (1994): Descartes’ Error — Emotion, Reason and the Human Brain. New York. [Deutsche Übersetzung: Descartes’ Irrtum. Fühlen, Denken und das menschliche Gehirn. München 1995].
  • McStay, Andrew (2018): “The Right To Privacy In The Age Of Emotional AI” (Report for The Office of the United Nations High Commissioner for Human Rights OHCHR). Online: URL Zugriff zuletzt am 25.02.21].
  • Minsky, Marvin (1986): The Society of Mind. New York.
  • Minsky, Marvin (2006): The Emotion Machine. Commonsense Thinking, Artificial Intelligence and the Future of the Human Mind. New York et al.
  • Misselhorn, Catrin (2021): Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co. Dietzingen.
  • Picard, Rosalind (1997): Affective Computing. Massachusetts.

Catrin Misselhorn

Catrin Misselhorn ist Philosophieprofessorin an der Georg-August-Universität Göttingen. Ihr Buch „Grundfragen der Maschinenethik“ (Reclam, 4. Auflage 2020) wurde auf den dritten Platz der Sachbuchbestenliste von ZDF, ZEIT und Deutschlandfunk Kultur gewählt. Im März 2021 erschien ihr neues Buch „Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co.“ im Reclam-Verlag.

Magazin bestellen

Das Magazin der Kulturstiftung erscheint halbjährlich und will einen aktuellen und facettenreichen Einblick in die Arbeit der Kulturstiftung des Bundes geben. Sie können es kostenfrei ab der aktuell lieferbaren Ausgabe bestellen, wenn Sie uns Ihre Adresse mitteilen.

Gern liefern wir Ihnen auch ältere Ausgaben des Magazins, sofern die gewünschte Ausgabe noch verfügbar ist. Folgende Ausgaben des Magazins sind bereits vergriffen und können leider nicht mehr geliefert werden: 15, 19, 20, 24, 30 und 31.

Adressdaten ändern

Wenn Sie Ihre Adressdaten korrigieren oder ändern möchten, schicken Sie uns bitte eine E-Mail mit den geänderten Kontaktdaten (alte und neue Adresse) an:

magazin​(at)​kulturstiftung-bund.de

 

Magazinarchiv