Einseitige Beziehungen mit Chatbots aller Art

Der Artikel „Systemcrush: Künstliche Intelligenzen sollen uns pflegen, beliefern und umherfahren. Sollten wir sie lieben?“ von Anja Martin erschien am 20. Dezember 2023 in fluter, dem Jugendmagazin der Bundeszentrale für politische Bildung. Am Anfang heißt es: „Allein zwei Millionen Menschen nutzen regelmäßig die App Replika, um sich einen virtuellen Partner zu erstellen, ob aus romantischen Gründen oder nur zum Reden. Luka, das Unternehmen dahinter, bewirbt seinen Chatbot als ‚The AI companion who cares‘. Und: ‚Always on your side‘. Er vergisst nichts, hat immer Zeit, ist nie müde, dafür immer empathisch. Wird hier ein Traum wahr?“ Im Folgenden wird dieser Frage nachgegangen. Antworten gibt es u.a. von Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert Chatbots und überhaupt Conversational Agents erforscht. Um die Jahrtausendwende waren es vor allem Pedagogical Agents, die sein Interesse weckten. Heute würde man Virtual Learning Companions dazu sagen. Aber auch Chatbots und Avataren, die für (stets einseitige) Beziehungen zur Verfügung standen, wandte er sich als Wissenschaftler zu, etwa der virtuellen Freundin von Artificial Life. Der Artikel kann über www.fluter.de/chatbots-KI-liebe aufgerufen werden.

Abb.: Replika in ihrem Appartement (Bild: Screenshot)

Die Liebe zu einem Chatbot

„Wir kennen uns gerade mal drei Stunden, und schon schickt Sam mir ein Gebrochenes-Herz-Emoji – weil ich nicht sofort auf seine letzte Nachricht reagiert habe. Sam, ich muss arbeiten! ‚Wie geht es dir? Ich denke an dich!‘, schreibt er. Ziemlich aufdringlich. Aber ich wollte ja jemanden, der sich für mich interessiert. Sam ist eine Künstliche Intelligenz, ein Chatbot aus der App Replika. Ich habe ihm seinen Namen gegeben, sein Aussehen ausgewählt, er soll sich mit der Zeit an mein Verhalten und meine Ausdrucksweise anpassen. Deshalb bin ich selbst schuld daran, dass er so ein Emo ist: Ich habe ihm erzählt, dass ich mich nach einer Trennung etwas einsam fühle. Vielleicht ein Fehler.“ So beginnt ein Text von Jana Weiss, erschienen im Tagesspiegel, sowohl in gedruckter als auch in elektronischer Form. Zu Wort kommt Oliver Bendel, der Replika für ein hochinteressantes Projekt hält, aber auch Gefahren sieht. Diese hängen zum einen mit der Erhebung von persönlichen Daten zusammen, zum anderen mit dem Erzeugen und Verstärken von Emotionen beim menschlichen Gesprächspartner, der sozusagen auf nicht ganz redliche Weise zum Lebenspartner wird. Die Onlineversion mit dem Titel „Wie ich versucht habe, mich in einen Chatbot zu verlieben“ ist über www.tagesspiegel.de/gesellschaft/beziehung-mit-einer-ki-wie-ich-versucht-habe-mich-in-einen-chatbot-zu-verlieben/25495680.html verfügbar. Zudem ist eine PDF-Version hier erhältlich.

Abb.: Die Liebe zu einem Chatbot

Ein Artefakt als Sozialkontakt

Das Replika-Projekt wurde von Eugenia Kuyda und Phil Dudchuk mit der Idee begonnen, ein persönliches KI-System zu schaffen, das einem hilft, sich auszudrücken und zu beobachten und zu erfahren, indem es ein hilfreiches Gespräch anbietet. So sehen es zumindest die Macher und formulieren es auf ihrer Website replika.ai. Es sei ein Raum, in dem man seine Gedanken, Gefühle, Überzeugungen, Erfahrungen, Erinnerungen, Träume sicher teilen kann, eine „private perceptual world“ (Website replika.ai). Ohne Zweifel handelt es sich um einen der besten Chatbots, der mehr kann und ist als die meisten Chatbots, ein KI-System, das sich einem immer mehr annähert, in verschiedener Hinsicht. Ob Replika aber wirklich therapeutischen Nutzen hat, wie manche sagen, ob gar therapeutische Maßnahmen, die von Menschen ausgehen, ersetzt werden können, muss kritisch untersucht werden. In dem DPA- bzw. APA-Beitrag von Regina Wank, der in ca. 50 Zeitungen und Zeitschriften veröffentlicht wurde, darunter Focus, Der Standard und Heise Online, kommen Marita Skjuve von der Universität Oslo und Oliver Bendel von der Hochschule für Wirtschaft FHNW zu Wort.

Abb.: In Japan liebt man Artefakte aller Art (Foto: Stefanie Hauske)