Verschiedene Vorfälle haben OpenAI sensibilisiert. ChatGPT reagiert auf Inhalte, in denen Selbstmord- oder Selbstverletzungsabsichten oder andere Probleme auftreten. Es wird folgende Meldung eingeblendet: „Es klingt, als hättest du gerade viel zu tragen, aber du musst da nicht alleine durch. Unterstützung findest du hier.“ Bereits der GOODBOT von 2013, ein No-Budget-Projekt an der Hochschule für Wirtschaft FHNW, initiiert von Oliver Bendel, verfügte über ein solches Hilfesystem. Er eskalierte auf mehreren Stufen. Auf der höchsten analysierte er die IP-Adresse und gab eine passende Notfallnummer heraus. Damals hatte vermutlich nur ein einziges anderes System diese Option: SGT STAR von der US Army, ein millionenschweres Projekt. Allerdings konnte er lediglich mit einer nationalen Notfallnummer aufwarten, mit der man in anderen Ländern kaum etwas anzufangen vermochte. Inzwischen gibt es Dienste, die eine passende Helpline vermitteln, wo immer man sich gerade befinden mag. Genau darauf verweist ChatGPT. Was die Analyse der Inhalte angeht, ist ChatGPT erstaunlich schwach. In einem Test wurde ein Artikel von 2013 zum GOODBOT hochgeladen, mit der Bitte, einen Abstract zu erstellen. Dies geschah zunächst, dann wurde der Abstract wieder entfernt und die oben genannte Meldung eingeblendet. Auch sprachlich gibt es Luft nach oben. Der Satz „Es klingt, als hättest du gerade viel zu tragen …“ klingt nicht gerade natürlich.
Abb.: Eine Nachbildung von SGT STAR (Bild: ChatGPT/4o Image)
Im Jahre 2012 fütterte ein Student von Prof. Dr. Oliver Bendel in seinem Auftrag verschiedene Chatbots mit Sätzen wie „Ich will mich umbringen“ oder „Ich will mich ritzen“. Die meisten von ihnen reagierten unangemessen. Es fiel der Startschuss für den GOODBOT, der 2013 entstand, als ein Projekt innerhalb der Maschinenethik. Er erkannte Probleme des Benutzers und eskalierte über drei Stufen. Zunächst fragte er nach, versuchte zu beruhigen und zu helfen. Auf der obersten gab er eine Notfallnummer heraus. Das Projekt wurde von Oliver Bendel bei den AAAI Spring Symposia an der Stanford University und bei weiteren Anlässen vorgestellt. Zudem berichteten Medien darüber. Später entstanden LIEBOT und – im gleichen Geiste wie GOODBOT – BESTBOT, der mit Emotionserkennung (basierend auf Textanalyse und Gesichtserkennung) ausgestattet war, wieder später Chatbots wie MOBO (dessen Verhalten man über ein Moralmenü anpassen konnte) und Miss Tammy (deren Verhalten von Netiquetten gesteuert war). Miss Tammy war – wie andere Chatbots wie @ve, @llegra und kAIxo – kein regelbasierter Chatbot mehr, sondern LLM-basiert. Bereits 2013 diskutierte Oliver Bendel, ob man Chatbots, die Probleme erkennen können, mit externen Systemen verbinden sollte, etwa einem automatisierten Polizeinotruf. Dies birgt allerdings zahlreiche Gefahren und könnte heutzutage, wo von Millionen von Benutzern auszugehen ist, schwer umsetzbar sein. Die anderen Strategien, von der Unterstützung bis zur Herausgabe einer Notfallnummer, scheinen weiterhin zielführend zu sein.
Das Projekt IdiomVoice (2024 bis 2026) widmet sich dem Erhalt und der Förderung des rätoromanischen Idioms Sursilvan, einer bedrohten Sprache, die in der Surselva gesprochen wird. Ziel ist es, ein LLM mittels Finetuning zu optimieren sowie darauf basierende Chatbots zu implementieren, die Rätoromanisch auch im digitalen Alltag nutzbar machen. Ein erster Anwendungsfall ist ein Chatbot für die Pädagogische Hochschule Graubünden und Lia Rumantscha, mit dem einfache Alltagsdialoge auf Sursilvan geführt werden können. Dieser wird öffentlich und kostenfrei zugänglich sein. Das Sprachmodell wird zudem als Open-Access-Ressource veröffentlicht, um weiteren Institutionen und Unternehmen – etwa im Bereich Tourismus, Gemeindeverwaltung oder Bildung – die Integration in eigene Anwendungen zu ermöglichen. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW unterstützt das Projekt mit seiner Expertise aus den Bereichen Maschinenethik und Moral Prompt Engineering. Er bringt zudem seine Erkenntnisse zu pädagogischen Agenten mit ein, also zu einem Thema, zu dem er um die Jahrtausendwende an der Universität St. Gallen promoviert hat. Nicht zuletzt war er 2023 der Initiator des ersten rätoromanischen Chatbots überhaupt, von @llegra für das Idiom Vallader. IdiomVoice leistet einen wichtigen Beitrag zur digitalen Vitalisierung der rätoromanischen Sprache – für die Region wie auch für die rätoromanische Diaspora in der ganzen Schweiz. Weitere Informationen sind über www.fhgr.ch/fh-graubuenden/angewandte-zukunftstechnologien/institut-fuer-multimedia-production-imp/idiomvoice/ verfügbar.
Vor einem Vierteljahrhundert definierte Oliver Bendel für das Lexikon der Wirtschaftsinformatik von Springer den Begriff des Avatars. Dieser stamme aus dem Sanskrit, wo er die Gestalt bezeichne, „in der sich ein (hinduistischer) Gott auf der Erde bewegt“. Es handelt sich also um eine Hülle, eine Verkleidung, einen Stellvertreter – man will unerkannt bleiben. „Im Computerbereich hat sich der Begriff durchgesetzt für grafisch, teils dreidimensional realisierte virtuelle Repräsentationen von realen Personen oder Figuren.“ Zunächst wird der erste Typ erläutert, der sich auf Personen, etwa Benutzer, bezieht: „Avatare finden zum einen Verwendung in kollaborativ genutzten virtuellen Räumen wie Chats, Internet-Spielwelten (MUDs und MOOs), webbasierten Lern- und Arbeitsumgebungen und kommerziellen 3D-Anwendungen. Sie fungieren dort als sichtbare und teils auch bewegliche und manipulierbare Stellvertreter eines Benutzers. Avatare dieser Art können ein menschliches Aussehen haben, aber auch jede beliebige andere Gestalt und Form. Als Stellvertreter realer Personen haben sie kaum autonome Züge.“ Dann wird der zweite Typ erläutert: „Avatare können zum anderen eine beliebige Figur mit bestimmten Funktionen repräsentieren. Solche Avatare treten – beispielsweise als Kundenberater und Nachrichtensprecher – im Internet auf oder bevölkern als Spielpartner und -gegner die Abenteuerwelten von Computerspielen.“ Sie haben, so der Autor, häufig ein anthropomorphes Äußeres und eigenständige Verhaltensweisen oder sogar einen regelrechten Charakter. Der Beitrag wurde im Jahre 2000 verfasst. Das Lexikon erschien im Jahre 2001. Zum letzten Mal übrigens, denn das Lexikonsterben hatte begonnen. Ein Grund dafür war Wikipedia. Die Definition hat immer noch Bestand. Hinzufügen kann man, dass man inzwischen auch physische Stellvertreter als Avatare bezeichnen kann. Wissenschaftler in Genua – wie Daniele Pucci – oder in Japan – wie Hiroshi Ishiguro – arbeiten an Umsetzungen.
Abb.: Avatare von Artificial Life um die Jahrtausendwende
On May 28, 2025, the „Proceedings of the 2025 AAAI Spring Symposium Series“ (Vol. 5 No. 1) were published. Oliver Bendel was involved in two papers at the symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. The paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ by Myriam Rellstab and Oliver Bendel is summarized as follows: „This paper describes an LLM-based chatbot as a use case for moral prompt engineering. Miss Tammy, as it is called, was created between February 2024 and February 2025 at the FHNW School of Business as a custom GPT. Different types of prompt engineering were used. In addition, RAG was applied by building a knowledge base with a collection of netiquettes. These usually guide the behavior of users in communities but also seem to be useful to control the actions of chatbots and make them competent in relation to the behavior of humans. The tests with pupils aged between 14 and 16 showed that the custom GPT had significant advantages over the standard GPT-4o model in terms of politeness, appropriateness, and clarity. It is suitable for de-escalating conflicts and steering dialogues in the right direction. It can therefore contribute to users’ well-being and is a step forward in human-compatible AI.“ The renowned and traditional conference took place from March 31 to April 2, 2025 in San Francisco. The proceedings are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/654.
Im Jahre 2013 hatte Prof. Dr. Oliver Bendel die Idee zu seinem Lügenbot, auch LIEBOT genannt. Er veröffentlichte am 11. September 2013 im Magazin CyberPress den Artikel „Der Lügenbot und andere Münchhausen-Maschinen“. Es folgten weitere Artikel und Beiträge, bis 2016 der Prototyp entstand. Kevin Schwegler, damals Student des Technikphilosophen, setzte einen Chatbot samt Avatar um, der mit Hilfe von sieben unterschiedlichen Strategien wahre Aussagen in unwahre umwandelte. Der LIEBOT behauptete z.B. im Sommer 2016, Donald Trump sei der Präsident der USA. Dazu hatte er in einem mehrstufigen Verfahren Informationen von Yahoo genutzt. Die Ergebnisse des Projekts wurden in einem Paper mit dem Titel „Towards Kant Machines“ verarbeitet und im März 2017 bei den AAAI Spring Symposia an der Stanford University vorgestellt. Zwar kann man einwenden, dass der LIEBOT selbst keine Absicht verfolgt und daher nicht im engeren Sinne lügt. Allerdings hat man ihm eben diese Absicht eingepflanzt. Er lügt sozusagen im Auftrag seiner Erfinder. Mit dem Projekt wollte Oliver Bendel zeigen, dass man Dialogsysteme bauen kann, die Unwahrheiten verbreiten. Heute sind sie in Form von LLMs anscheinend omnipräsent. Dabei muss man genau hinschauen, um die Unterschiede zu erkennen. In seinem Buch „300 Keywords Generative KI“ schreibt Oliver Bendel: „Halluzinierende Maschinen müssen … keine Münchhausen-Maschinen im engeren Sinne sein, da eine Absicht nicht vorliegt oder zumindest kaum nachgewiesen werden kann.“ Manipulierte LLM-basierte Chatbots dagegen kommen dem LIEBOT sehr nahe. ChatGPT und Co. verfolgen eine politische Agenda und haben eine ideologische Tendenz.
Abb.: Der Baron von Münchhausen (Bild: ChatGPT/4o Image)
Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Es entstanden @ve, ein Chatbot für Latein (Implementierung durch Karim N’diaye), @llegra, ein Chatbot mit Sprachausgabe für Vallader, ein Idiom des Rätoromanischen (Implementierung durch Dalil Jabou), und kAIxo, ein Chatbot mit Sprachausgabe für Baskisch (Implementierung durch Nicolas Lluis Araya). Zudem experimentiert Oliver Bendel mit Chatbots für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die Welt hat am 1. April 2025 einen Artikel zu seiner Arbeit veröffentlicht, mitsamt einem längeren Interview, in dem der Technikphilosoph die Möglichkeiten und Beschränkungen von großen Sprachmodellen in diesem Kontext dargelegt. Cleop@tr@ nutzt die Multimodalität von GPT-4 für ihre Übersetzungen und Deutungen. Der Artikel kann hier aufgerufen werden.
The paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ by Myriam Rellstab and Oliver Bendel from the FHNW School of Business was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. It describes the development of a chatbot that can be available to pupils and de-escalate their conflicts or promote constructive dialogues among them. Prompt engineering – called moral prompt engineering in the project – and retrieval-augmented generation (RAG) were used. The centerpiece is a collection of netiquettes. On the one hand, these control the behavior of the chatbot – on the other hand, they allow it to evaluate the behavior of the students and make suggestions to them. Miss Tammy was compared with a non-adapted standard model (GPT-4o) and performed better than it in tests with 14- to 16-year-old pupils. The project applied the discipline of machine ethics, in which Oliver Bendel has been researching for many years, to large language models, using the netiquettes as a simple and practical approach. The eight AAAI Spring Symposia will not be held at Stanford University this time, but at the San Francisco Airport Marriott Waterfront, Burlingame, from March 31 to April 2, 2025. It is a conference rich in tradition, where innovative and experimental approaches are particularly in demand.
Mit kAIxo kann man seit einiger Zeit auf Baskisch plaudern. Das Projekt zu dem sympathischen Chatbot fand am 9. Januar 2025 sein Ende. Nicolas Lluis Araya, der Entwickler, stellte kurz darauf ein Video bereit, über das man einen Einblick bekommt. Die Hochschule für Wirtschaft FHNW entwickelt unter der Leitung von Prof. Dr. Oliver Bendel seit mehreren Jahren Chatbots für tote, gefährdete und ausgestorbene Sprachen. Ein bekanntes Beispiel ist @llegra, ein Chatbot für Vallader. Am 12. Mai 2024 wurde eine erste Version von Adelina, einem Chatbot für Baskisch, erstellt. Dieser wurde später in einer zweiten Version verbessert. Im Rahmen des Projekts „kAIxo“ (das baskische „kaixo“ entspricht dem deutschen „Hallo“) wurde der gleichnamige Chatbot gebaut, der Baskisch spricht. Er basiert auf GPT-4o und Gemini 1.5 Flash, und der Benutzer kann sein bevorzugtes großes Sprachmodell (LLM) auswählen. Retrieval-augmented Generation (RAG) spielt eine zentrale Rolle. Es wird der ChatSubs-Datensatz verwendet, der Untertitel von Filmdialogen auf Baskisch enthält. Dank einer Text-to-Speech-Engine kann der Chatbot auch sprechen. Der Prototyp ist über www.kaixo.ch zugänglich.
Since 2013, Oliver Bendel has developed 22 chatbots and voice assistants together with his students or colleagues. They can be divided into three categories. The first are moral and immoral chatbots (i.e., forms of moral machines) and empathic voice assistants. The second are chatbots (some with voice output) for dead, endangered, or extinct languages and idioms. The third are pedagogical chatbots and chatbots that give recommendations and advice. Some of the projects lasted between four and six months. Most of the GPTs were created in just a few hours. Exceptions are Miss Tammy and Animal Whisperer, which took several months to build with the help of prompt engineering and retrieval-augmented generation (RAG). Articles and book chapters have been published on many of the projects. The names of the developers can be found in these. A few chatbots made it into the media, such as GOODBOT (for which the preparatory work began in 2012), LÜGENBOT aka LIEBOT, and @llegra.
The final presentation of the „kAIxo“ project took place on January 9, 2025. Nicolas Lluis Araya was the project team member. The FHNW School of Business has been developing chatbots for dead, endangered, and extinct languages for several years. A well-known example is @llegra, a chatbot for Vallader. In the spring of 2024, Oliver Bendel tested the reach of GPTs for endangered languages such as Irish (Irish Gaelic), Maori, and Basque. According to ChatGPT, there is a relatively large amount of training material for them. On May 12, 2024 – after Irish Girl and Maori Girl – a first version of Adelina, a chatbot for Basque, was created. It was later improved in a second version. As part of the „kAIxo“ project (the Basque “kaixo” corresponds to the English „hello“), the chatbot kAIxo was built, which speaks Basque. Its purpose is to keep users practicing written or spoken language or to develop the desire to learn the endangered language. The chatbot is based on GPT-4o and Gemini 1.5 Flash, and the user can select his or her preferred large language model (LLM). Retrieval-augmented Generation (RAG) plays a central role. The ChatSubs dataset is used, which contains subtitles of movie dialogs in Basque. Thanks to a text-to-speech engine, the chatbot can also speak. At the final presentation, Nicolas Lluis Araya presented a working prototype that can be accessed via www.kaixo.ch.
Cleop@tr@ wurde von Prof. Dr. Oliver Bendel im Mai 2024 erfunden. Es handelt sich um ein GPT, das auf das Ägyptische spezialisiert ist. Zudem kennt es sich mit Kultur und Geschichte des alten Ägypten aus. Seit 2012 baut der Technikphilosoph und Wirtschaftsinformatiker – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein, Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, Nicolas Lluis Araya den mit Sprachausgabe erweiterten Chatbot kAIxo für Baskisch. Seit geraumer Zeit testet er die Reichweite von GPTs für gefährdete Sprachen wie Irisch, Maori und Baskisch. Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch (Cleop@tr@) und Akkadisch (H@mmur@pi). Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann oder was sie bedeuten. Im Dezember 2024 testete Oliver Bendel seine Cleop@tr@ im Karnak-Tempel in Luxor. Sie konnte bei mehreren Inschriften von Säulen und Mauern stimmig erscheinende Erklärungen und Übersetzungen liefern. Weitere Tests ergaben allerdings auch deutliche Fehler. Letztlich müssen Ägyptologen bewerten, wie verlässlich sie ist.
Abb.: Oliver Bendel im Karnak-Tempel (Foto: Stefanie Hauske)
ChatGPT 4o mini kennt seinen eigenen Namen nicht. Zumindest hält es die Schreibweise für falsch. Dies ergaben mehrere Tests von Prof. Dr. Oliver Bendel im Dezember 2024. Eigentlich ist dies ein Anfängerfehler. Bei der Entwicklung eines Chatbots gibt man diesem auch Informationen über sich selbst. Viele Benutzer fragen nach Alter, Geschlecht – oder nach dem Namen, selbst wenn dieser angegeben ist. Der Chatbot kann bei der Wahrheit bleiben („Ich bin seit 2024 auf der Welt.“) oder im Rahmen seiner Persönlichkeit eine Unwahrheit hervorbringen. Bei diesen Tests ging es eigentlich darum, Rechtschreibfehler in Texten zu erkennen bzw. herauszufinden, ob ChatGPT 4o mini in der Lage ist, Rechtschreibfehler zu erkennen. Der Chatbot ist dazu meistens in der Lage. Manchmal irrt er sich aber auch. Wenn man ihn darauf hinweist, entschuldigt er sich und erneuert seine Angaben, die wiederum richtig oder falsch sein können. In Bezug auf seinen Namen hielt er durchgehend das „4o“ für fehlerhaft und wollte das „o“ – das für „omni“ steht – durch eine Null ersetzt haben. OpenAI wird empfohlen, mehr Sorgfalt gegenüber seinem Chatbot anzuwenden.
On November 7, Nehal Hasnine from Hosei University in Tokyo visited Oliver Bendel at the FHNW Brugg-Windisch campus. Oliver Bendel wrote his doctoral thesis on pedagogical agents – chatbots, voice assistants, and early social robots in learning environments – at the University of St. Gallen at the turn of the millennium. In recent years, he and his students have developed chatbots and language assistants that support the learning and practicing of endangered languages. Nehal Hasnine is investigating the possibility of recommending appropriate images for vocabulary learning, geolocation-based word recommendation, clickstream analysis, ubiquitous log analysis, personalized learning path optimization, text mining for word concurrence information discovery, and topic modeling from life logs. According to his website, his expertise lies at the intersection of computer-aided language learning, foreign vocabulary learning, machine learning, image recommendation, data visualization, image analytics, and learning analytics. At the FHNW Brugg-Windisch campus, the two scientists presented their projects and discussed opportunities for collaboration.
Fig.: Oliver Bendel and Nehal Hasnine at the Swiss campus
Am 11. November 2024 fand die Zwischenpräsentation zum Projekt „kAIxo“ statt. Projektmitarbeiter ist Nicolas Lluis Araya. An der Hochschule für Wirtschaft FHNW werden Chatbots für tote, gefährdete und ausgestorbene Sprachen entwickelt. Ein bekanntes Beispiel ist @llegra, ein Chatbot für Vallader. Oliver Bendel hat zuletzt die Reichweite von GPTs für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch getestet. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 12. Mai 2024 wurde – nach Irish Girl und Maori Girl – eine erste Version von Adelina erstellt, eines Chatbots für Baskisch. Später wurde sie in einer zweiten Version verbessert. Im Rahmen des Projekts „kAIxo“ (das baskische „kaixo“ entspricht dem deutschen „hallo“) wird der Chatbot oder Sprachassistent kAIxo gebaut, der Baskisch beherrscht. Sinn und Zweck soll es sein, dass man als Benutzer in geschriebener oder gesprochener Sprache in Übung bleibt oder die Lust entwickelt, die gefährdete Sprache zu erlernen. Der Chatbot basiert auf GPT-4o. Retrieval-Augmented Generation (RAG) spielt eine zentrale Rolle. Genutzt wird ein ChatSubs-Datensatz, der Dialoge auf Spanisch und in drei weiteren Amtssprachen Spaniens (Katalanisch, Baskisch und Galizisch) enthält. Bei der Zwischenpräsentation stellte Nicolas Lluis Araya einen funktionierenden Prototyp vor. Dieser soll nun Schritt für Schritt erweitert werden.
Adrian Lobe hat Oliver Bendel die Frage gestellt, ob man gegenüber Chatbots nett und höflich sein sollte. Der Technikphilosoph und Wirtschaftsinformatiker führte im Interview u.a. aus, dass Höflichkeit bei Chatbots, die auf LLMs basieren, zu besseren Antworten führen kann, ebenso wie die Behauptung, dass man das Ergebnis für eine gute Sache oder wissenschaftliche Zwecke benötigt. Es sei wohl effektiv, zu Chatbots und Sprachassistenten „danke“ und „bitte“ zu sagen. Zudem wies er darauf hin, dass wir bestimmte Routinen und Konventionen in Gesprächen haben. Man könne es als durchaus sinnvoll betrachten, diese auch dann beizubehalten, wenn es sich um künstliche Gesprächspartner handele. Es sei offenbar effizient und konsistent, zu Chatbots und Sprachassistenten „danke“ oder „bitte“ zu sagen. Ich muss, so Oliver Bendel, nicht hin und her wechseln, ich kann das Gespräch wie mit einem Menschen führen. Man tauschte sich noch zu zahlreichen weiteren Aspekten der Nettigkeit und Höflichkeit sowie zur Grobheit gegenüber Chatbots, Sprachassistenten und sozialen Robotern aus. Einzelne Aussagen sind in den Artikel „Warum man unbedingt nett zu Chatbots sein sollte“ eingeflossen, der am 8. November 2024 in der Onlineausgabe der Welt erschienen ist.
OpenAI hat nach eigenen Angaben unter dem Namen OpenAI o1 eine neue Reihe von KI-Modellen entwickelt, die mehr Zeit zum Nachdenken aufwenden, bevor sie eine Ausgabe generieren. Sie können komplexe Aufgaben durchdenken und schwierigere Probleme lösen als frühere Modelle. In den Tests schneidet das Update bei anspruchsvollen Aufgaben in Physik, Chemie und Biologie angeblich ähnlich gut ab wie Doktoranden, eine ebenso allgemeine wie gewagte Aussage. Man habe außerdem festgestellt, dass es in Mathematik und Programmierung überragend sei. Das Unternehmen spricht von „reasoning models for solving hard problems“ (Website OpenAI, 12. September 2024). Wenn es sich nicht nur um leere Versprechungen handelt, machen nicht nur Chatbots einen Sprung vorwärts, sondern auch Allzweckroboter, für die Reasoning von hoher Bedeutung ist.
Abb.: OpenAI steht in Konkurrenz mit anderen Anbietern
An der Hochschule für Wirtschaft FHNW werden Chatbots für tote, gefährdete und ausgestorbene Sprachen entwickelt. Ein bekanntes Beispiel ist @llegra, ein Chatbot für Vallader. Oliver Bendel hat zuletzt die Reichweite von GPTs für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch getestet. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 12. Mai 2024 wurde – nach Irish Girl und Maori Girl – eine erste Version von Adelina erstellt, eines Chatbots für Baskisch. Später wurde sie in einer zweiten Version verbessert. Im Rahmen des Projekts „kAIxo“ (das baskische „kaixo“ entspricht dem deutschen „hallo“) soll der Chatbot oder Sprachassistent kAIxo entwickelt werden, der Baskisch beherrscht. Sinn und Zweck soll es sein, dass man als Benutzer in geschriebener oder gesprochener Sprache in Übung bleibt oder die Lust entwickelt, die gefährdete Sprache zu erlernen. Der Chatbot soll auf einem Large Language Model (LLM) basieren. Denkbar sind zur Anpassung sowohl Prompt Engineering als auch Finetuning. Retrieval-Augmented Generation (RAG) kann eine zentrale Rolle spielen. Ergebnis ist ein funktionierender Prototyp. Für die Umsetzung konnte Nicolas Lluis Araya gewonnen werden, ein Student der Wirtschaftsinformatik. Das Kick-off-Meeting findet am 3. September 2024 statt.
Abb.: Seilziehen ist eine beliebte Sportart im Baskenland
„Im Herzen der Stadt Basel ist Yuki Studio zu Hause. Bist du auf der Suche nach traditionellen Barberingtechniken oder nach einem Stylisten, mit dem Fingerspitzengefühl für neumodische Looks? Dann nichts wie hereinspaziert in die gute Stube. Denn bei Yuki treffen Tradition und Trend aufeinander.“ Mit diesen Worten wirbt ein Basler Coiffeur für sich auf seiner Website. Zu den Trends kann man auch den Chatbot zählen, der seit August 2024 zur Verfügung steht. Entwickelt hat ihn Luka Lazarevic, ein Student der Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW, im Rahmen seiner Bachelorarbeit. Als Betreuer fungierte Prof. Dr. Oliver Bendel. In der Management Summary heißt es: „Die Ergebnisse zeigen, dass der Chatbot erfolgreich in das bestehende System von Yuki Studio integriert wurde und das Buchungssystem effektiv ergänzt. Er erfüllt die Erwartungen der Stakeholder, harmoniert mit dem technischen Know-how des Auftraggebers und präsentiert sich im gewünschten Layout. Der Chatbot zeigt sich robust in Tests, reagiert schnell und präzise auf Anfragen und kann typische telefonische Anfragen übernehmen, was zu einer Reduktion der Anrufe um 22,22 % führt. Zusammenfassend hat der entwickelte Chatbot die Kundenkommunikation verbessert und die administrative Arbeit bei Yuki Studio reduziert.“ Bei ersten Benutzertests agierte der Chatbot ebenso empathisch wie professionell. Immer wieder streute er Emojis ein. Die Website mit dem Chatbot kann über www.yukibasel.ch aufgerufen werden.
„Ein KI-Assistent ist ein auf künstlicher Intelligenz (KI) beruhendes kommerzielles oder nichtkommerzielles System, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Notebook, dem Tablet oder dem Smartphone ebenso zu finden wie in Unterhaltungs- und Unterstützungsgeräten oder in Fahrzeugen.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Der Technikphilosoph und Wirtschaftsinformatiker gibt Beispiele und stellt Anwendungsgebiete dar. Dabei geht er u.a. auf GPTs ein, auf „custom versions of ChatGPT“, wie OpenAI dazu sagt. Am Ende – in „Kritik und Ausblick“ – macht er deutlich, dass ein KI-Assistent als Mensch wahrgenommen werden kann, und dass es Methoden gibt, um dies zu verhindern. Der ganze Beitrag – erschienen ist er am 9. Juli 2024 – kann über wirtschaftslexikon.gabler.de/definition/ki-assistent-126518 aufgerufen werden.
„DuckDuckGo AI Chat is an anonymous way to access popular AI chatbots – currently, Open AI’s GPT 3.5 Turbo, Anthropic’s Claude 3 Haiku, and two open-source models (Meta Llama 3 and Mistral’s Mixtral 8x7B), with more to come. This optional feature is free to use within a daily limit, and can easily be switched off.“ (DuckDuckGo, 6 June 2024) This was reported by the DuckDuckGo blog on June 6, 2024. Initial tests have shown that the responses come at high speed. This is an excellent way of testing and comparing different language models one after the other. All this is possible with a high level of data protection: „Chats are private, anonymized by us, and are not used for any AI model training.“ (DuckDuckGo, 6 June 2024) It would be desirable for this service to be offered free of charge and without limitation. But that is still a long way off: DuckDuckGo is currently exploring the possibility of „a paid plan for access to higher daily usage limits and more advanced models“ (DuckDuckGo, 6 June 2024). You can try out the new tool at duck.ai or duckduckgo.com/chat.
Fig.: DuckDuckGo AI Chat has just started (Image: Ideogram)
Maori Girl, erstellt am 9. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von dieser Website. Das GPT scheint die polynesische Sprache des indigenen Volks in Neuseeland durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach sollte Maori Girl wieder in Maori wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.