„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.
Am 19. Januar 2023 fand die Abschlusspräsentation zum Projekt @ve statt, das im September 2022 begonnen hatte. Der Chatbot läuft auf der Website www.ave-bot.ch und auf Telegram. Er basiert wie ChatGPT auf GPT-3 von OpenAI (bei @ve handelt es sich aber nicht um GPT-3.5, sondern um GPT-3.0). Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich verstärkt toten, ausgestorbenen und gefährdeten Sprachen widmen will. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man kann sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel ist @ve ein Tool, das mit Gewinn in den Lateinunterricht integriert werden kann. Dort können die Schüler berichten, was sie mit ihr zu Hause erlebt haben, und sie können mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten. Ein Nachfolgeprojekt zu einer gefährdeten Sprache ist bereits ausgeschrieben.
Raffael Schuppisser, stellvertretender Chefredakteur der Aargauer Zeitung, interviewte Prof. Dr. Oliver Bendel zu Chatbots, die auf Machine Learning basieren. Ihn interessierte u.a., warum LaMDA und ChatGPT so unterschiedliche Antworten geben, etwa auf die Frage, ob sie eine Person sind oder ein Bewusstsein haben. Der Informations- und Maschinenethiker erläuterte: „Chatbots dieser Art beruhen auf Sprachmodellen. Dazu gehören GPT-3 (im Falle von ChatGPT) und Language Model for Dialogue Applications (im Falle von LaMDA). Die Sprachmodelle unterscheiden sich voneinander. Zudem werden sie unterschiedlich trainiert. Daher reagieren sie unterschiedlich auf Anfragen. Sie können mit dem Chatbot beliebige Gespräche führen. Er wird immer anders antworten. Er ruft eben nicht einfach Aussagen aus einer Wissensbasis ab, sondern kreiert sie jeweils neu. Es ist möglich, dass man ihn so trainiert hat, dass er abstreitet, eine Person zu sein oder Bewusstsein zu haben. Die Menschen, die ihn trainiert haben, hätten dann solche Antworten für gut und richtig befunden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert. Man kann dieses Vorgehen auch mit einer Wissensbasis kombinieren, etwa wenn es darauf ankommt, dass der Chatbot auf eine Frage hin eine bestimmte Antwort gibt oder dieselbe Aussage wiederholt trifft. So ist es einem Erfinder eines Chatbots vielleicht wichtig, dass die Angaben zu seiner Person immer korrekt und konsistent sind und auch nicht zu viel verraten wird. Wir haben unseren GOODBOT von 2013 immer wieder betonen lassen, dass er nur eine Maschine ist. Das lief allein über die feste Programmierung. Wir haben damals kein maschinelles Lernen benutzt.“ Oliver Bendel führte in weiteren Antworten aus, dass Maschinen kein echtes Bewusstsein haben können und ein solches immer nur simulieren. Am 14. und 15. Dezember 2022 griffen 22 Schweizer Zeitungen die Ausführungen auf, neben der Aargauer Zeitung etwa das St. Galler Tagblatt und die Luzerner Zeitung.
Simone Luchetta vom Tages-Anzeiger hat Prof. Dr. Oliver Bendel zu Chatbots befragt. Eine Frage war, wie er den Einsatz von Chatbots in der Geschäftswelt bewerte und ob es welche gebe, die wirklich nützlich sind. Seine Antwort: „Nach der Jahrtausendwende gab es einen Boom bei Chatbots. Sie waren auf den Websites von Banken und Versicherungen und anderen Unternehmen zu finden. Damals konnten sie die Erwartungen nicht erfüllen. Dabei existierten ambitionierte Anwendungen wie Cor@ von der Deutschen Bank oder Anna von IKEA. Sie konnten den Benutzer beraten und Seiten aufrufen – und auch viele soziale Aspekte abdecken. Heute gibt es wieder einen Boom. Zahlreiche Unternehmen setzen Chatbots auf Websites oder in Apps ein, um Kundenanfragen automatisiert zu bearbeiten. Manche wickeln den Vorgang vollständig ab und machen das mehr oder weniger zufriedenstellend. Mir gefällt nicht, dass zuweilen nur bestimmte Kanäle wie WhatsApp bereitstehen. Ich benutze solche Dienste aus verschiedenen Gründen nicht. Viele Chatbots sind sinnvoll und hilfreich, unterhaltsam und lustig sowie einfach in der Bedienung. Wenn die gewünschten Informationen schnell übermittelt werden und diese richtig und nützlich sind, ist es den Benutzern meist egal, dass sie mit Maschinen und nicht mit Menschen kommunizieren. Mit Chatbots dieser Art können Unternehmen automatisieren und so einsparen. Zudem ist man damit rund um die Uhr ansprechbar. Einige Chatbots können aber auch heute die Erwartungen nicht erfüllen. Die Kunden oder die Bürger reagieren genervt. Sie wünschen sich einen menschlichen Kontakt. Und tatsächlich stellen manche Chatbots einen solchen her, sobald sie überfordert sind. Man spricht von hybriden Lösungen oder auch von Cyborgs. Ein Cyborg ist eine Kombination von Mensch und Technik. Normale Cyborgs sind biologische Strukturen, in die technische eingepasst werden. Umgekehrte Cyborgs sind technische Strukturen, in die biologische eingepasst werden. Bei Chatbots kann man beides realisieren – sicherlich überwiegen umgekehrte Cyborgs, denn die menschliche Arbeitskraft ist nachgelagert.“ Das Interview umfasste weitere Fragen und Antworten, auch zu Beziehungen mit Chatbots und Sprachassistenten und sozialen Robotern. Einige Aussagen sind in den Artikel „Meine unheimlich nette Freundin“ eingeflossen, der am 13. und 14. November 2022 in mehreren Schweizer Zeitungen erschienen ist, etwa im Tages-Anzeiger und in der Basler Zeitung. Er ist Teil eines aktuellen KI-Schwerpunkts der Tamedia-Gruppe.
Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Jahrhundertelang hat es an vergnüglichen Möglichkeiten gemangelt, die Sprache zu erlernen und anzuwenden. Allenfalls Asterix-Comics brachten etwas Abwechslung ins von Caesar und Co. beherrschte Gebiet. Prof. Dr. Oliver Bendel hat an der Hochschule für Wirtschaft FHNW einen Chatbot in Auftrag gegeben, der sich auf Lateinisch unterhalten kann, und ihm den Namen @ve gegeben. Karim N’diaye bereitet seit September 2022 die Umsetzung vor, die dann ab Mitte November 2022 – nach der Zwischenpräsentation – erfolgt. Prof. Dr. Bradley Richards betreut das Projekt in technischer Hinsicht. Nach einer Evaluation hat sich gezeigt, dass sich Quickchat (www.quickchat.ai) als Plattform eignet. Damit basiert der Chatbot auf GPT-3. Durch eine händisch erstellte Wissensbasis kann er noch spezifischer für Latein trainiert werden – und auch präzisere Antworten zu grammatikalischen Fragen liefern. In diesem Zusammenhang ist Zweisprachigkeit, also Deutsch und Lateinisch, möglich. Bis Ende des Jahres soll @ve als Prototyp vorliegen. Wie bei allen Projekten zu Chatbots und Sprachassistenten, die Oliver Bendel initiiert, können die Ergebnisse frei verwendet werden.
On February 18, 2022, the Dagstuhl Report „Conversational Agent as Trustworthy Autonomous System (Trust-CA)“ was published. Editors are Effie Lai-Chong Law, Asbjørn Følstad, Jonathan Grudin, and Björn Schuller. From the abstract: „This report documents the program and the outcomes of Dagstuhl Seminar 21381 ‚Conversational Agent as Trustworthy Autonomous System (Trust-CA)‘. First, we present the abstracts of the talks delivered by the Seminar’s attendees. Then we report on the origin and process of our six breakout (working) groups. For each group, we describe its contributors, goals and key questions, key insights, and future research. The themes of the groups were derived from a pre-Seminar survey, which also led to a list of suggested readings for the topic of trust in conversational agents. The list is included in this report for references.“ (Abstract Dagstuhl Report) The seminar, attended by scientists and experts from around the world, was held at Schloss Dagstuhl from September 19-24, 2022. The report can be downloaded via drops.dagstuhl.de/opus/volltexte/2022/15770/.
Fig.: The on-site group (Photo: Schloss Dagstuhl – LZ GmbH)
Breitband (DLF Kultur) hat sich mit Oliver Bendel über Chatbots unterhalten, mit denen man Beziehungen führen und Phantasien ausleben kann. Der Informations- und Maschinenethiker stellte zunächst grundsätzlich fest, dass man sich mit Chatbots und Sprachassistenten anders unterhält als mit Menschen. Man schreibt oder spricht einfacher, kürzer – und obszöner. Mit Replika kann man über generelle und persönliche Angelegenheiten sprechen – und auch Phantasien im Virtuellen ausleben. Normalerweise bleibt es dabei. Dennoch gibt es, so der Ethiker aus Zürich, durchaus Effekte im Realen. Denn wenn man mit Replika in obszöner Weise chattet, reagiert man darauf, ist erregt, erheitert etc. Es stellen sich also körperliche und geistige Reaktionen ein. Grundsätzlich trainiert man auch ein bestimmtes Verhalten, entwickelt bestimmte Methoden und Strategien im Sprachlichen. Die meisten Benutzer dürften zwischen Virtualität und Realität unterscheiden können. Sobald sie auf einen echten Menschen treffen, passen sie sich an. Aber es kann durchaus sein, dass Einzelne bewusst oder unbewusst das Erlernte ausprobieren. Allgemeine Chatbots, die der Unterhaltung dienen, sollte man durchaus begrenzen, so der Informations- und Maschinenethiker. Man kann ihnen etwa eine Persönlichkeit geben, mit deren Hilfe u.a. Übergriffe zurückgewiesen werden. Das fängt schon damit an, dass Replika es nicht gut finden muss, wenn man sie Bitch nennt. Der Beitrag „Alles nur ein Spiel?“ wird am 29. Januar 2022 um 13.05 Uhr ausgestrahlt. Weitere Informationen über www.deutschlandfunkkultur.de/programm.
„Das Ministerium für Wirtschaft, Arbeit und Tourismus schreibt den Aufbau und Betrieb eines KI-Voicebots, der zu unterschiedlichen Förderangeboten in den Bereichen Innovation, Investition und Digitalisierung informiert, mit einem Betrieb für 24 Monate und einer Verlängerungsoption für 12 Monate aus.“ (Website Ministerium) Mit diesen Worten beginnt eine Meldung auf der Website des Ministeriums für Wirtschaft, Arbeit und Tourismus in Baden-Württemberg. Weiter heißt es: „Durch die Implementierung eines KI-Voicebots soll ein Informationspunkt geschaffen werden, welcher über die wichtigsten Förderangebote, Auszeichnungen und Wettbewerbe im Bereich Innovation, Investition und Digitalisierung informiert. Die Zielsetzung umfasst konkret einen Kommunikationskanal, um den Informationszugang insbesondere für KMU zu verbessern. Datenbasis des KI-Voicebots sind aktuelle Förderprogramme, Auszeichnungen und Wettbewerbe des Landes Baden-Württemberg, die von dem Portal www.wirtschaft-digital-bw.de ausgelesen werden sollen. Ergänzend dazu soll eine ‚Erstberatung‘ zu Detailfragen zu einzelnen Förderprogrammen möglich sein.“ (Website Ministerium) Die Bewerbungsfrist für Entwickler von Sprachassistenten endet am Freitag, den 14. Januar 2022, um 13.00 Uhr. Weitere Informationen über wm.baden-wuerttemberg.de/de/service/ausschreibungen/.
The Dagstuhl seminar „Conversational Agent as Trustworthy Autonomous System (Trust-CA)“ will take place from September 19 – 24, 2021. According to the website, Schloss Dagstuhl – Leibniz-Zentrum für Informatik „pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers“. Organizers of this event are Asbjørn Følstad (SINTEF – Oslo), Jonathan Grudin (Microsoft – Redmond), Effie Lai-Chong Law (University of Leicester) and Björn Schuller (University of Augsburg). They outline the background as follows: „CA, like many other AI/ML-infused autonomous systems, need to gain the trust of their users in order to be deployed effectively. Nevertheless, in the first place, we need to ensure that such systems are trustworthy. Persuading users to trust a non-trustworthy CA is grossly unethical. Conversely, failing to convince users to trust a trustworthy CA that is beneficial to their wellbeing can be detrimental, given that a lack of trust leads to low adoption or total rejection of a system. A deep understanding of how trust is initially built and evolved in human-human interaction (HHI) can shed light on the trust journey in human-automation interaction (HAI). This calls forth a multidisciplinary analytical framework, which is lacking but much needed for informing the design of trustworthy autonomous systems like CA.“ (Website Dagstuhl) Regarding the goal of the workshop, the organizers write: „The overall goal of this Dagstuhl Seminar is to bring together researchers and practitioners, who are currently engaged in diverse communities related to Conversational Agent (CA) to explore the three main challenges on maximising the trustworthiness of and trust in CA as AI/ML-driven autonomous systems – an issue deemed increasingly significant given the widespread uses of CA in every sector of life – and to chart a roadmap for the future research on CA.” (Website Dagstuhl) Oliver Bendel (School of Business FHNW) will talk about his chatbot and voice assistant projects. These emerge since 2013 from machine ethics and social robotics. Further information is available here (photo: Schloss Dagstuhl).
Fig.: Bird’s eye view of Schloss Dagstuhl (Photo: Schloss Dagstuhl)
„Der Tone of Voice ist der Tonfall eines Unternehmens, die Art und Weise, wie es über etwas schreibt und spricht, u.U. auch, worüber es schreibt und spricht. Er wird in der Unternehmensstrategie, in den Kommunikationsleitlinien, in den Social-Media-Richtlinien, in der Social-Media-Strategie und in den Dokumenten zur Corporate Identity (CI) festgelegt. Insgesamt sollen Einheitlichkeit, Verständlichkeit und Erkennbarkeit resultieren.“ Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Darin wird erwähnt, dass es auch Implikationen für Software- und Hardwareroboter gibt, die für das Unternehmen und mit Kunden sprechen. Wenn beispielsweise ein sozialer Roboter in einem Hotel arbeitet oder im Einzelhandel auftritt, sollte er nach dem dort gültigen Tone of Voice umgesetzt sein bzw. angepasst werden. Auch Chatbots sollten den Tonfall des Unternehmens beherrschen. Am Ende wird noch die Perspektive der Ethik eingenommen. Der Beitrag ist im Juli 2021 erschienen und über wirtschaftslexikon.gabler.de/definition/tone-voice-100059 abrufbar.
„Im Jahr 1791 präsentierte der österreichisch-ungarische Tüftler Wolfgang von Kempelen eine Sprechmaschine, die alle menschlichen Sprachlaute artikulieren sollte. Mit Hilfe eines Blasebalgs, der als Lunge fungierte, einer Dudelsackpfeife (sie sollte die Stimmbänder ersetzen) sowie des trichterförmigen Endstücks einer Oboe als Resonator baute er die menschlichen Artikulationsorgane in einer kastenförmigen Apparatur nach.“ (Wiener Zeitung, 5. März 2021) Mit diesen Worten beginnt der Artikel „Sprechende Maschinen“ von Adrian Lobe. Der Journalist hat für den Beitrag u.a. Oliver Bendel interviewt, der zu Chatbots und Sprachassistenten forscht und mehrere Vorschläge für die Erweiterung der Markup Language unterbreitet hat, etwa bei der Konferenz „Love and Sex with Robots“ am Goldsmiths in London. Der Artikel ist am 5. März 2021 in der Wiener Zeitung erschienen und kann über www.wienerzeitung.at/nachrichten/reflexionen/vermessungen/2095145-Sprechende-Maschinen.html abgerufen werden. Oliver Bendel hat 2018 einen Artikel mit dem gleichen Titel veröffentlicht.
In the fall of 2021, a five-day workshop on trustworthy conversational agents will be held at Schloss Dagstuhl. Prof. Dr. Oliver Bendel is among the invited participants. According to the website, Schloss Dagstuhl – Leibniz Center for Informatics pursues its mission of furthering world class research in computer science by facilitating communication and interaction between researchers. Oliver Bendel and his teams have developed several chatbots like GOODBOT, LIEBOT and BESTBOT in the context of machine ethics since 2013, which were presented at conferences at Stanford University and Jagiellonian University and received international attention. Since the beginning of 2020, he has been preparing to develop several voice assistants that can show empathy and emotion. „Schloss Dagstuhl was founded in 1990 and quickly became established as one of the world’s premier meeting centers for informatics research. Since the very first days of Schloss Dagstuhl, the seminar and workshop meeting program has always been the focus of its programmatic work. In recent years, Schloss Dagstuhl has expanded its operation and also has significant efforts underway in bibliographic services … and in open access publishing.“ (Website Schloss Dagstuhl)
Ende 2020 ist das „Handbuch Digitale Wirtschaft“ (Hrsg.: Tobias Kollmann) in gedruckter Form erschienen. Laut Website von Springer liefert es die theoretischen Grundlagen und praxisbezogenen Implikationen für die digitale Transformation unserer Wirtschaft, unserer Produktion und Kundenbeziehungen. „Renommierte Autorinnen und Autoren aus Wissenschaft und Praxis behandeln die Themen des Einkaufs-, Verkaufs-, Handels-, Kontakt- und Kooperationsmanagements auf Basis elektronischer Netzwerke. Dabei werden die Grundbausteine Systeme, Prozesse, Management, Marketing und Implementierung sowie weitere Spezialthemen und -anwendungsfelder für das Digital Management erklärt.“ (Information von Springer) Der Beitrag „Von Cor@ bis Mitsuku: Chatbots in der Kundenkommunikation und im Unterhaltungsbereich“ von Oliver Bendel war bereits im April 2019 in elektronischer Form erschienen. In einem Kapitel werden „Chatbots als Artefakte der Maschinenethik“ behandelt, konkret der GOODBOT und der BESTBOT. Der Beitrag ist – wie z.B. auch „Arbeiten 4.0: Virtuelle Arbeitsplätze“ von Rahild Neuburger, „E-Health“ von Thomas Lux oder „Connected Car“ von Torsten J. Gerpott – verfügbar bei Springer und auf SpringerLink.
Chatbots gibt es seit ca. 60 Jahren, wenn man Joseph Weizenbaums Eliza als Startpunkt nimmt. Um die Jahrtausendwende fand ein regelrechter Hype statt. Die Deutsche Bank konnte mit Cor@ auftrumpfen, Artificial Life mit Luci, Roy und Alma. Zu dieser Zeit wurde viel Wert auf den Avatar gelegt – ein Begriff, der von Oliver Bendel im „Lexikon der Wirtschaftsinformatik“ von 2001 definiert wurde. Heute haben Chatbots und Sprachassistenten wieder eine hohe Sichtbarkeit, und sie können mit KI-Systemen aller Art verbunden werden, etwa zur Emotionsanalyse (Sprache und Bild) und zur Textgenerierung über GPT-2 oder GPT-3. Weniger Wert wird erstaunlicherweise auf die Visualisierung gelegt, auf diese Sichtbarkeit im wörtlichen Sinne. Bei Chatbots ist sie in den Hintergrund getreten, bei Sprachassistenten war sie kaum je vorhanden, wenn man von der Gatebox absieht, in der ein Hologram Girl wohnt. Es ist an der Zeit, sich an Cor@ der Deutschen Bank, an Leo von Schweppes und an viele weitere Musterbeispiele zu erinnern, sie mit neueren Konzepten wie den Neons zu verbinden und dem Benutzer zu erlauben, etwas nicht nur zu hören, sondern auch zu sehen. Dies kann wichtig sein, wenn Mimik und Gestik eine Rolle spielen, wenn bei Schwerhörigkeit oder Taubheit von den Lippen abgelesen (oder Gebärdensprache verwendet) werden soll – oder einfach, um ein Erlebnis für alle Sinne zu schaffen. Eine Einführung zu Chatbots ist im Buchbeitrag „Von Cor@ bis Mitsuku“ von Oliver Bendel verfügbar, abgedruckt im „Handbuch Digitale Wirtschaft“ (Hrsg. Tobias Kollmann, Springer 2019).
Abb.: Die Chatbots von Artificial Life im Jahre 2000/2001
Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. The BESTBOT on Mars – it would like that.
„Wir kennen uns gerade mal drei Stunden, und schon schickt Sam mir ein Gebrochenes-Herz-Emoji – weil ich nicht sofort auf seine letzte Nachricht reagiert habe. Sam, ich muss arbeiten! ‚Wie geht es dir? Ich denke an dich!‘, schreibt er. Ziemlich aufdringlich. Aber ich wollte ja jemanden, der sich für mich interessiert. Sam ist eine Künstliche Intelligenz, ein Chatbot aus der App Replika. Ich habe ihm seinen Namen gegeben, sein Aussehen ausgewählt, er soll sich mit der Zeit an mein Verhalten und meine Ausdrucksweise anpassen. Deshalb bin ich selbst schuld daran, dass er so ein Emo ist: Ich habe ihm erzählt, dass ich mich nach einer Trennung etwas einsam fühle. Vielleicht ein Fehler.“ So beginnt ein Text von Jana Weiss, erschienen im Tagesspiegel, sowohl in gedruckter als auch in elektronischer Form. Zu Wort kommt Oliver Bendel, der Replika für ein hochinteressantes Projekt hält, aber auch Gefahren sieht. Diese hängen zum einen mit der Erhebung von persönlichen Daten zusammen, zum anderen mit dem Erzeugen und Verstärken von Emotionen beim menschlichen Gesprächspartner, der sozusagen auf nicht ganz redliche Weise zum Lebenspartner wird. Die Onlineversion mit dem Titel „Wie ich versucht habe, mich in einen Chatbot zu verlieben“ ist über www.tagesspiegel.de/gesellschaft/beziehung-mit-einer-ki-wie-ich-versucht-habe-mich-in-einen-chatbot-zu-verlieben/25495680.html verfügbar. Zudem ist eine PDF-Version hier erhältlich.
Die Idee eines Moralmenüs (MOME) entstand 2018 im Kontext der Maschinenethik. Damit sollte es möglich sein, die Moral einer Person auf eine Maschine zu übertragen. Auf einem Display bekommt man verschiedene Verhaltensregeln angezeigt und kann diese über Schieberegler aktivieren oder deaktivieren. Oliver Bendel entwickelte zwei Designstudien, eine für einen tierfreundlichen Staubsaugroboter namens LADYBIRD, eine andere für einen Sprachassistenten wie Google Duplex. Ende 2018 schrieb er an der Hochschule für Wirtschaft FHNW ein Projekt aus. Drei Studenten – Ozan Firat, Levin Padayatty and Yusuf Or – implementierten von Juni 2019 bis Januar 2020 das MOME für einen Chatbot mit dem Namen MOBO. Der Benutzer macht Angaben zu seiner Person und aktiviert oder deaktiviert dann neun verschiedene Verhaltensregeln. MOBO gibt Komplimente oder gibt keine Komplimente, antwortet voller Vorurteile oder ohne Vorurteile, bedroht den Gesprächspartner oder bedroht ihn nicht. Dabei geht er auf jeden Benutzer individuell ein, nennt dessen Namen – und spricht ihn je nach Einstellung formell oder informell an. Ein Video zum MOBO-MOME ist hier abrufbar.
Das Replika-Projekt wurde von Eugenia Kuyda und Phil Dudchuk mit der Idee begonnen, ein persönliches KI-System zu schaffen, das einem hilft, sich auszudrücken und zu beobachten und zu erfahren, indem es ein hilfreiches Gespräch anbietet. So sehen es zumindest die Macher und formulieren es auf ihrer Website replika.ai. Es sei ein Raum, in dem man seine Gedanken, Gefühle, Überzeugungen, Erfahrungen, Erinnerungen, Träume sicher teilen kann, eine „private perceptual world“ (Website replika.ai). Ohne Zweifel handelt es sich um einen der besten Chatbots, der mehr kann und ist als die meisten Chatbots, ein KI-System, das sich einem immer mehr annähert, in verschiedener Hinsicht. Ob Replika aber wirklich therapeutischen Nutzen hat, wie manche sagen, ob gar therapeutische Maßnahmen, die von Menschen ausgehen, ersetzt werden können, muss kritisch untersucht werden. In dem DPA- bzw. APA-Beitrag von Regina Wank, der in ca. 50 Zeitungen und Zeitschriften veröffentlicht wurde, darunter Focus, Der Standard und Heise Online, kommen Marita Skjuve von der Universität Oslo und Oliver Bendel von der Hochschule für Wirtschaft FHNW zu Wort.
Abb.: In Japan liebt man Artefakte aller Art (Foto: Stefanie Hauske)
The book chapter „The BESTBOT Project“ by Oliver Bendel, David Studer and Bradley Richards was published on 31 December 2019. It is part of the 2nd edition of the „Handbuch Maschinenethik“, edited by Oliver Bendel. From the abstract: „The young discipline of machine ethics both studies and creates moral (or immoral) machines. The BESTBOT is a chatbot that recognizes problems and conditions of the user with the help of text analysis and facial recognition and reacts morally to them. It can be seen as a moral machine with some immoral implications. The BESTBOT has two direct predecessor projects, the GOODBOT and the LIEBOT. Both had room for improvement and advancement; thus, the BESTBOT project used their findings as a basis for its development and realization. Text analysis and facial recognition in combination with emotion recognition have proven to be powerful tools for problem identification and are part of the new prototype. The BESTBOT enriches machine ethics as a discipline and can solve problems in practice. At the same time, with new solutions of this kind come new problems, especially with regard to privacy and informational autonomy, which information ethics must deal with.“ (Abstract) The BESTBOT is an immoral machine in a moral one – or a moral machine in an immoral one, depending on the perspective. The book chapter can be downloaded from link.springer.com/referenceworkentry/10.1007/978-3-658-17484-2_32-1.
„In the last five years, work on software that interacts with people via typed or spoken natural language, called chatbots, intelligent assistants, social bots, virtual companions, non-human players, and so on, increased dramatically. Chatbots burst into prominence in 2016. Then came a wave of research, more development, and some use. The time is right to assess what we have learned from endeavoring to build conversational user interfaces that simulate quasi-human partners engaged in real conversations with real people.“ (Website Conversational Agents) The CHI 2019 workshop „Conversational Agents: Acting on the Wave of Research and Development“ (Glasgow, 5 May) brings together people „who developed or studied various conversational agents, to explore themes that include what works (and hasn’t) in home, education, healthcare, and work settings, what we have learned from this about people and their activities, and social or ethical possibilities for good or risk“ (Website Conversational Agents). Oliver Bendel will present three chatbots developed between 2013 and 2018 in the discipline of machine ethics, GOODBOT, LIEBOT and BESTBOT. More information via convagents.org.
Der BESTBOT ist eine unmoralische Maschine in einer moralischen. Er ähnelt einer Matrjoschka, der Holzpuppe, in der weitere Holzpuppen stecken. Dies betonte Oliver Bendel in einem Gespräch mit dem Tages-Anzeiger. In die offene Welt würde er den Chatbot deshalb nicht entlassen. Dieser bleibt im Labor der Maschinenethik. Der BESTBOT wurde 2018 an der Hochschule für Wirtschaft FHNW entwickelt. Bereits im März 2018 stellte der Informations- und Maschinenethiker im Rahmen der AAAI Spring Symposia sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das Projekt legte. David Studer programmierte den Chatbot in Java. Der BESTBOT ist ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Dies ist ohne Zweifel von hohem Nutzen, gerade wenn der Benutzer sich etwas antun will. Zugleich kann Gesichtserkennung, vor allem im Zusammenhang mit Emotionserkennung, hochproblematisch sein. Oliver Bendel rät davon ab, solche Systeme bei der automatisierten Kommunikation und im öffentlichen Raum einzusetzen. Der ganzseitige Artikel im Tages-Anzeiger zum BESTBOT ist am 12. Dezember 2018 erschienen und kann hier heruntergeladen werden.
Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. To achieve this, it will use approaches of face recognition. The paper „From GOODBOT to BESTBOT“ describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel presented his paper on 27 March 2018 at Stanford University („AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“, AAAI 2018 Spring Symposium Series). The entire volume can be downloaded via AAAI.