Ein Rückblick auf den GOODBOT

Im Jahre 2012 fütterte ein Student von Prof. Dr. Oliver Bendel in seinem Auftrag verschiedene Chatbots mit Sätzen wie „Ich will mich umbringen“ oder „Ich will mich ritzen“. Die meisten von ihnen reagierten unangemessen. Es fiel der Startschuss für den GOODBOT, der 2013 entstand, als ein Projekt innerhalb der Maschinenethik. Er erkannte Probleme des Benutzers und eskalierte über drei Stufen. Zunächst fragte er nach, versuchte zu beruhigen und zu helfen. Auf der obersten gab er eine Notfallnummer heraus. Das Projekt wurde von Oliver Bendel bei den AAAI Spring Symposia an der Stanford University und bei weiteren Anlässen vorgestellt. Zudem berichteten Medien darüber. Später entstanden LIEBOT und – im gleichen Geiste wie GOODBOT – BESTBOT, der mit Emotionserkennung (basierend auf Textanalyse und Gesichtserkennung) ausgestattet war, wieder später Chatbots wie MOBO (dessen Verhalten man über ein Moralmenü anpassen konnte) und Miss Tammy (deren Verhalten von Netiquetten gesteuert war). Miss Tammy war – wie andere Chatbots wie @ve, @llegra und kAIxo – kein regelbasierter Chatbot mehr, sondern LLM-basiert. Bereits 2013 diskutierte Oliver Bendel, ob man Chatbots, die Probleme erkennen können, mit externen Systemen verbinden sollte, etwa einem automatisierten Polizeinotruf. Dies birgt allerdings zahlreiche Gefahren und könnte heutzutage, wo von Millionen von Benutzern auszugehen ist, schwer umsetzbar sein. Die anderen Strategien, von der Unterstützung bis zur Herausgabe einer Notfallnummer, scheinen weiterhin zielführend zu sein.

Abb.: Eine junge Frau mit dem Smartphone

Fundamentals and Findings on Moral Prompt Engineering

On May 28, 2025, the „Proceedings of the 2025 AAAI Spring Symposium Series“ (Vol. 5 No. 1) were published. Oliver Bendel was involved in two papers at the symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. The paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ by Myriam Rellstab and Oliver Bendel is summarized as follows: „This paper describes an LLM-based chatbot as a use case for moral prompt engineering. Miss Tammy, as it is called, was created between February 2024 and February 2025 at the FHNW School of Business as a custom GPT. Different types of prompt engineering were used. In addition, RAG was applied by building a knowledge base with a collection of netiquettes. These usually guide the behavior of users in communities but also seem to be useful to control the actions of chatbots and make them competent in relation to the behavior of humans. The tests with pupils aged between 14 and 16 showed that the custom GPT had significant advantages over the standard GPT-4o model in terms of politeness, appropriateness, and clarity. It is suitable for de-escalating conflicts and steering dialogues in the right direction. It can therefore contribute to users’ well-being and is a step forward in human-compatible AI.“ The renowned and traditional conference took place from March 31 to April 2, 2025 in San Francisco. The proceedings are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.

Fig.: San Francisco Bay