Insassen in Schweizer Justizvollzugsanstalten haben nur begrenzten Zugang zu digitalen Technologien und wenig Kontakt zur Außenwelt. Zugleich verbringen sie jeden Tag einige Stunden in ihren Zellen. Das Projekt „Chatbots for Inmates“ (Kurztitel) will hier ansetzen: Ein LLM-basierter Chatbot soll als virtueller Buddy dienen, der Gespräche ermöglicht, Einsamkeit vermindert sowie soziale und digitale Kompetenzen stärkt. Das Projekt wurde von Tamara Siegmann, Gründerin des Start-ups SIEG – Smart Innovation Engineering Group by Siegmann und Studentin an der Hochschule für Wirtschaft FHNW, initiiert. Sie ist Projektleiterin, Prof. Dr. Oliver Bendel Projektverantwortlicher, Stephan Vonschallen Projektmitarbeiter. Anwendungspartner ist die JVA Lenzburg mit ihrem Direktor Marcel Ruf. Der Chatbot soll offline auf Tablets der Gefangenen laufen. In einer Pilotphase wird die Lösung zunächst auf 2 oder 3, später auf 30 Tablets getestet. Es wird untersucht, ob ein digitaler Gesprächspartner das Wohlbefinden der Insassen verbessert und sie beim Aufbau von Kompetenzen für die Zeit nach der Haft unterstützt. Das Projekt hat am 1. März 2026 begonnen und wird durch einen Innovationsscheck von Innosuisse und das Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW unterstützt. Bereits 2024 haben Tamara Siegmann und Oliver Bendel ein Projekt zu Schweizer Gefängnissen durchgeführt und untersucht, ob man dort kollaborative und soziale Roboter einsetzen kann und soll. Das Paper kann hier heruntergeladen bzw. erstanden werden.
Abb.: Tamara Siegmann mit dem LLM-basierten Roboterkopf Furhat
The project „ECHO: Explaining Composition, Harmony & Orchestration“ was initiated by Prof. Dr. Oliver Bendel and implemented by Lucas Chingis Marty. The final presentation took place on February 19, 2026, at the FHNW Campus Brugg-Windisch. The bachelor’s thesis „ECHO: Explaining Composition, Harmony & Orchestration – A Multimodal AI System for Music Analysis and Education“ develops a local multimodal AI system for the analysis and accessible explanation of musical structures based on audio data. The objective is to bridge the gap between music information retrieval (MIR, an automatic audio analysis) and natural language explanation through large language models. The system combines multiple analysis components (tempo, key, chord, instrument, and melody recognition) with a locally operated large language model (Llama 3.1-8B) that translates the extracted data into understandable explanations for beginners and intermediate users. Retrieval-augmented generation (RAG), guardrails to reduce hallucinations, and a feedback and evaluation system are employed as part of the approach. The implementation is realized as a desktop application without cloud dependency. The evaluation includes technical measurements on datasets comprising several hundred music tracks as well as a small user study. The thesis demonstrates that a locally operated system can in principle present musical analysis in an understandable way, although clear accuracy limitations of the applied MIR methods remain. Opportunities could open up not only for music education, but also for the preservation of endangered music.
Fig.: A multimodal AI system for music analysis and education
Airen, der bekannte Blogger, Schriftsteller und Journalist, war im Gespräch mit Prof. Dr. Oliver Bendel. Es ging um Agenten, mit denen sich der Technikphilosoph aus Zürich seit 30 Jahren beschäftigt. In den 1990ern sprach man von Softwareagenten, autonomen Agenten oder intelligenten Agenten. Sie alle waren KI-Agenten – ein Begriff, der heute dominiert, wobei mit „KI“ meist „generative KI“ gemeint ist. In dem Gespräch, gehalten mit Hilfe einer Videokonferenz, die Mexiko und die Schweiz verband, ging es vor allem um OpenClaw, eine Open-Source-Software, die zusammen mit Claude oder einem anderen Large Language Model (LLM) zu einem mächtigen Agenten wird, zudem um das soziale Netzwerk Moltbook, das für Agenten gedacht ist und auf dem sich Agenten und Menschen tummeln. Oliver Bendel erörterte auch die Möglichkeit, dass Agenten den virtuellen Raum der Notebooks und Webserver verlassen und auf Geräte und Roboter zugreifen oder überspringen. Damit könnten sie unmittelbaren Einfluss auf die Wirklichkeit ausüben. Mehrmals wies er darauf hin, dass bei OpenClaw und auf dem Moltbook keine Formen von Bewusstsein zu entdecken sind. Es sind LLMs, die etwas nach Prinzipien der Stochastik generieren und von Einstellungen des sozialen Netzwerks getriggert werden. Erwachende Maschinen sind und bleiben Science-Fiction. Das Interview ist am 7. Februar 2026 in der Welt erschienen.
Abb.: Oliver Bendel glaubt nicht an erwachende Maschinen (Foto: Jork Weismann)
Deutsch war einst eine wichtige Wissenschaftssprache. Wie auch Französisch. Und – davor – Latein. Englisch kam (bzw. war schon da), sah (was auch immer) und siegte (über Deutsch und Französisch, während Latein schon am Boden lag). Wer als deutschsprachiger Wissenschaftler deutsche Publikationen in einem Paper zitiert, wird von Gutachtern, den Reviewern, schnell zurechtgewiesen. Man kapitulierte vor dem Sprachimperialismus und nahm den Linguizismus einfach hin. 2022 begann der Siegeszug der Large Language Models (LLMs). Bereits Jahre zuvor hatten diese von sich reden gemacht, etwa im Zusammenhang mit humanoiden Robotern wie Harmony, aber OpenAI schuf mit der Bereitstellung von ChatGPT eine neue Ausgangslage. Heute gibt es viele LLMs, und während ihr Deutsch nicht immer zufriedenstellend ist, ist es ihr Englisch durchaus. Auch die Übersetzung vom Deutschen ins Englische ist bei wissenschaftlichen Texten meist problemlos. Damit stellt sich die Frage, ob Deutsch als Wissenschaftssprache nicht zurückkehren könnte. Viele Geisteswissenschaftler veröffentlichen nach wie vor in dieser Sprache und können sich in ihr anders als im Englischen präzise und korrekt ausdrücken. Eigentlich könnte der Linguizismus nun enden. Jeder Wissenschaftler könnte wieder in seiner Muttersprache schreiben, und es wäre jedem anderen Wissenschaftler zuzumuten, seine Texte in die eigene Muttersprache (oder eben ins Englische) zu übersetzen. Das wird vermutlich nicht geschehen – der Sprachimperialismus hat längst die Machtverhältnisse geändert. DAAD und Goethe-Institut setzen sich zwar für die deutsche Sprache in der Wissenschaft ein, letzteres aber eher für eine Karikatur davon, wenn man sich seine Website anschaut („Deutsch Sprechen Online. … Üben Sie mit Muttersprachler*innen in online live Sessions Deutsch zu sprechen!“). Deutsch scheint also für die Wissenschaft verloren. Dennoch könnten Gutachter heutzutage etwas großzügiger in dieser Hinsicht sein.
Von November 2025 bis Februar 2026 führen Sahan Hatemo von der Hochschule für Informatik FHNW, Dr. Katharina Kühne von der Universität Potsdam und Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW eine Studie durch. In deren Rahmen starten sie eine Teilstudie, die eine kurze computerbasierte Aufgabe und einen kurzen Fragebogen umfasst. Die Teilnehmer werden gebeten, sich eine Reihe von Lachproben anzuhören und zu beurteilen, ob diese authentisch klingen oder nicht. Die Aufgabe umfasst insgesamt 50 Proben und dauert in der Regel etwa zehn Minuten. Die Teilnahme ist über PC, Notebook oder Smartphone möglich. Vor Beginn sollten die Teilnehmer sicherstellen, dass der Ton ihres Geräts eingeschaltet ist und sie sich in einer ruhigen, ablenkungsfreien Umgebung befinden. Die computerbasierte Aufgabe und der kurze Fragebogen sind über research.sc/participant/login/dynamic/3BE7321C-B5FD-4C4B-AF29-9A435EC39944 zugänglich.
Abb.: Eine Studie zum Lachen (Foto: Jork Weismann)
From November 2025 to February 2026, Sahan Hatemo of the FHNW School of Computer Science, Dr. Katharina Kühne of the University of Potsdam, and Prof. Dr. Oliver Bendel of the FHNW School of Business are conducting a research study. As part of this project, they are launching a sub-study that includes a short computer-based task and a brief questionnaire. Participants are asked to listen to a series of laughter samples and evaluate whether each one sounds authentic or not. The task involves 50 samples in total and typically takes about ten minutes to complete. Participation is possible via PC, laptop, or smartphone. Before starting, participants should ensure that their device’s sound is turned on and that they are in a quiet, distraction-free environment. The computer-based task and the brief questionnaire can be accessed at research.sc/participant/login/dynamic/3BE7321C-B5FD-4C4B-AF29-9A435EC39944.
ChatGPT soll, wie mehrere Medien am 15. Oktober 2025 meldeten, eine Erotikfunktion bekommen. Damit dürften Fähigkeiten wie Dirty Talk – über Text und Stimme – gemeint sein, womöglich aber auch Anleitungen zu Stellungen aller Art und Tipps und Tricks zu Sexspielzeug und Sexrobotern. Damit folgt man anderen Chatbots wie Replika. Allerdings verfügen diese oft über einen Avatar, um unwiderstehlich zu sein. Bei ChatGPT ist das nicht der Fall, wenn man von den kleinen runden Kacheln der GPTs absieht, der „custom versions“, die jeder niederschwellig erstellen kann. Unter diesen tummelt sich übrigens ein SexGPT von Dominick Pandolfo – „Provides sexual health information“, also ganz harmlos. Bereits um die Jahrtausendwende gab es die virtuelle Freundin von Artificial Life, auch sie in sprachlicher und visueller Form. Wenn OpenAI hier nicht nachbessert, werden die Benutzer sich selbst etwas bauen, was freilich schon heute gemacht wird, wenn auch nicht zwangsläufig im sexuellen Sinne. So kann man mit Meshy AI und Co. dreidimensionale Avatare generieren und animieren. Man darf gespannt sein, ob ChatGPT in der Erotikfunktion gendert – so wie in der Standardeinstellung. Die einen dürfte das anmachen, die anderen eher nicht. Auf die Frage, wie diese Version von ChatGPT heißen könnte, schlug der Chatbot selbst vor: ChatGPT Red, GPT-AfterDark oder DeepLure. Wen das nicht antörnt, dem ist auch nicht zu helfen.
Erste Tests mit Apertus haben ergeben, dass die Voreinstellung die Nutzung der Standardsprache bedeutet. Dies ist erfreulich – und aus mehreren Gründen nicht selbstverständlich. Zunächst einmal ist die ETH Zürich dafür bekannt, in Medienmitteilungen, auf ihrer Website und in Dokumenten von der Standardsprache abzuweichen und eine Sondersprache (die Gendersprache) anzuwenden. Die Forscher, die an Apertus mitgewirkt haben, sind offensichtlich nicht diesem Weg gefolgt. Zudem geht bei dominanten Chatbots wie ChatGPT das Default mit der Anwendung der Sondersprache einher. Selbst wenn man Standardsprache verlangt, wird dies immer wieder ignoriert. Wie Claude sieht auch Apertus nach ersten Erkenntnissen von solchen Arten der Beeinflussung ab. Dies ist ein wichtiger Schritt, um eine befriedigende Nutzung für alle zu ermöglichen und eine weitergehende Spaltung zu verhindern. Wer dennoch eine andere Sprache ausgegeben haben will, wird daran nicht gehindert – das LLM passt sich an die Wünsche und Bedürfnisse der Benutzer an. Wer Apertus ausprobieren will, kann dies über Public AI tun. Man muss sich lediglich registrieren und kann dann sofort loslegen. Mit einem sprachlich neutralen LLM. Aus der angeblich neutralen Schweiz.
„Die EPFL, die ETH Zürich und das Schweizerische Supercomputing-Zentrum CSCS haben heute Apertus veröffentlicht: Das erste umfangreiche, offene und mehrsprachige Sprachmodell aus der Schweiz. Damit setzen sie einen Meilenstein für eine transparente und vielfältige generative KI.“ Dies ist einer Medienmitteilung der ETHZ vom 2. September 2025 zu entnehmen. Apertus steht in zwei Versionen mit 8 und 70 Milliarden Parametern zur Verfügung und eignet sich für vielfältige Anwendungen, von Forschung über Bildung bis zur Industrie. Trainiert wurde das Modell auf 15 Billionen Tokens in über 1000 Sprachen, darunter Schweizerdeutsch und Rätoromanisch. Damit eignet es sich vermutlich auch dafür, bereits eingestellte Chatbots wie @llegra (für Vallader) von Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Dalil Jabou in einer neuen Version aufleben zu lassen und bereits in Entwicklung begriffene Chatbots wie IdiomVoice (für Sursilvan, ein Projekt der FH Graubünden unter Beteiligung der Hochschule für Wirtschaft FHNW, wieder in Person von Oliver Bendel, und der OST – Ostschweizer Fachhochschule) zu unterstützen. Zugänglich ist das neue Modell über Swisscom sowie weltweit über Hugging Face und die Public AI Inference Utility. Erste praktische Tests und Feedbackrunden erfolgen im Rahmen der Swiss {ai} Weeks.
Seit Ende 2023 kann man sogenannte GPTs erstellen, die auf bestimmte Aufgaben spezialisiert sind. Am 21. Januar 2024 kam DIE HAIKU-LIEBHABERIN auf die Welt. Sie trägt seitdem Haikus von Oliver Bendel vor und interpretiert sie auf Wunsch des Benutzers. Gefüttert wurde der Chatbot mit zwei Sammlungen, nämlich „handyhaiku“ und „stöckelnde dinger“ … Der erste Band war 2010 im Hamburger Haiku Verlag erschienen, in gedruckter Form. Neben den Texten waren QR-Codes zu sehen, aus denen die Haikus direkt aufs Handy übernommen werden konnten, ohne dass man online sein musste. Der zweite Band wurde ebenfalls 2010 veröffentlicht, und zwar als Handybuch bei Blackbetty, einem Wiener Verlag. Im Mai 2025 wurde der Bildgenerator bei der HAIKU-LIEBHABERIN aktiviert. Seitdem kann sie die Gedichte auf Wunsch auch visualisieren. Allerdings ist sie als Chatbot von OpenAI – um es freundlich auszudrücken – außerordentlich schüchtern. So werden einem immer wieder Bilder zu Haikus verwehrt. Man kann insgesamt sagen, dass LLMs nur bedingt geeignet sind für Kunstprojekte. An die Stelle der Staaten und Kirchen, die früher Zensur bei der Kunst ausübten, sind nun die Konzerne getreten. Oliver Bendel veröffentlicht seit über 40 Jahren Gedichte und trägt sie zu seltenen Gelegenheiten auch vor.
Abb.: Die Schüchternheit der HAIKU-LIEBHABERIN (Bild: ChatGPT/4o Image)
Im Jahre 2013 hatte Prof. Dr. Oliver Bendel die Idee zu seinem Lügenbot, auch LIEBOT genannt. Er veröffentlichte am 11. September 2013 im Magazin CyberPress den Artikel „Der Lügenbot und andere Münchhausen-Maschinen“. Es folgten weitere Artikel und Beiträge, bis 2016 der Prototyp entstand. Kevin Schwegler, damals Student des Technikphilosophen, setzte einen Chatbot samt Avatar um, der mit Hilfe von sieben unterschiedlichen Strategien wahre Aussagen in unwahre umwandelte. Der LIEBOT behauptete z.B. im Sommer 2016, Donald Trump sei der Präsident der USA. Dazu hatte er in einem mehrstufigen Verfahren Informationen von Yahoo genutzt. Die Ergebnisse des Projekts wurden in einem Paper mit dem Titel „Towards Kant Machines“ verarbeitet und im März 2017 bei den AAAI Spring Symposia an der Stanford University vorgestellt. Zwar kann man einwenden, dass der LIEBOT selbst keine Absicht verfolgt und daher nicht im engeren Sinne lügt. Allerdings hat man ihm eben diese Absicht eingepflanzt. Er lügt sozusagen im Auftrag seiner Erfinder. Mit dem Projekt wollte Oliver Bendel zeigen, dass man Dialogsysteme bauen kann, die Unwahrheiten verbreiten. Heute sind sie in Form von LLMs anscheinend omnipräsent. Dabei muss man genau hinschauen, um die Unterschiede zu erkennen. In seinem Buch „300 Keywords Generative KI“ schreibt Oliver Bendel: „Halluzinierende Maschinen müssen … keine Münchhausen-Maschinen im engeren Sinne sein, da eine Absicht nicht vorliegt oder zumindest kaum nachgewiesen werden kann.“ Manipulierte LLM-basierte Chatbots dagegen kommen dem LIEBOT sehr nahe. ChatGPT und Co. verfolgen eine politische Agenda und haben eine ideologische Tendenz.
Abb.: Der Baron von Münchhausen (Bild: ChatGPT/4o Image)
At the end of April 2025, Prof. Dr. Oliver Bendel was on a hike on the Pfannenstiel with the Cow Whisperer. It is one of three GPTs that were developed in the „Animal Whisperer Project“ by August 2024 on the initiative of the technology philosopher by his student at the time, Nick Zbinden. The other two are the Horse Whisperer and the Dog Whisperer. On his way through the picturesque area near Zurich, Oliver Bendel came across a cow. The Cow Whisperer analyzed and evaluated her body language and came to the conclusion that she was not dangerous and that it was safe to proceed. It also pointed out that other cows were lying relaxed in this way and that this was a sign that the whole herd was relaxed and calm. The entire analysis and evaluation was extensive and included ear position, eye expression, head posture, body posture, tail posture, and surroundings. „The Animal Whisperer Project“ by Oliver Bendel and Nick Zbinden won the Honorable Mention Short Paper Award at the 2024 ACI Conference. The paper can be downloaded from the ACM Library.
The paper „Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Şahan Hatemo, Christof Weickhardt, Luca Gisler, and Oliver Bendel received the Special Paper Award from the reviewers of the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. The three bachelor students from the FHNW School of Computer Science gave their presentation on site in San Francisco as part of the AAAI 2025 Spring Symposia. Prof. Dr. Bendel from the FHNW School of Business had given them feedback on the project and placed it in the context of machine ethics. He has been involved in the well-known and popular conference, which usually takes place at Stanford University, since 2016. This time, he was keeping his fingers crossed from Italy. The proceedings of the AAAI 2025 Spring Symposia will be published in April 2025.
Fig.: Luca Gisler, Takashi Kido (Host), and Şahan Hatemo
Bei den AAAI 2025 Spring Symposia werden drei Bachelorstudenten der neuen Hochschule für Informatik FHNW einen Vortrag halten. Şahan Hatemo, Christof Weickhardt und Luca Gisler sind am 1. April 2025 vor Ort in San Francisco und stellen beim Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“ das Paper „Revisiting the Trolley Problem for AI: Stereotypes and Biases in Large Language Models and their Impact on Ethical Decision-Making“ vor. Prof. Dr. Oliver Bendel, der Viertautor, hat ihnen Feedback zum Paper gegeben und das Projekt im Paper in der Maschinenethik verortet. Von Zürich aus ist am selben Tag die Masterstudentin Myriam Rellstab zugeschaltet. Das Paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ hat sie zusammen mit Oliver Bendel verfasst. Für ihn ist der Chatbot eine Umsetzung von Methoden der Maschinenethik im Bereich der Large Language Models (LLMs). Er spricht von Moral Prompt Engineering und meint damit die Verbindung von Prompt Engineering und gegebenenfalls Retrieval-Augmented Generation (RAG). Sahan Hatemo wird den Vortrag halten und Myriam Rellstab dann für Fragen zur Verfügung stehen. Das vorläufige Programm des Symposiums ist hier verfügbar.
Abb.: Studenten der FHNW im Jahre 2016 im Silicon Valley mit einem Firefox-Mitarbeiter
Am 20. März 2025 fand das Kick-off-Meeting des Projekts VISUAL statt. Initiiert wurde dieses von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- oder Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Rahmen von Inclusive AI – eines Ansatzes und einer Bewegung, zu der auch Apps wie Be My Eyes mit der Funktion Be My AI gehören – soll eine Lösung für sie gefunden werden. Ziel des Projekts ist es, bis August 2025 einen Prototyp zu entwickeln, der es blinden und sehbehinderten Menschen ermöglicht, sich Webcam-Bilder oder -Videos von Wildtieren beschreiben zu lassen. Das System analysiert und evaluiert sie mit Hilfe eines multimodalen LLM. Es präsentiert die Ergebnisse in gesprochener Sprache über eine integrierte Text-to-Speech-Engine. Als Nebenprodukt können Wilderei, Busch- und Waldbrände und andere Ereignisse erkannt werden. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Als Projektmitarbeiterin konnte Doris Jovic gewonnen werden, die ihren Bachelor in Business Information Technology (BIT) macht.
The paper „Miss Tammy as a Use Case for Moral Prompt Engineering“ by Myriam Rellstab and Oliver Bendel from the FHNW School of Business was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. It describes the development of a chatbot that can be available to pupils and de-escalate their conflicts or promote constructive dialogues among them. Prompt engineering – called moral prompt engineering in the project – and retrieval-augmented generation (RAG) were used. The centerpiece is a collection of netiquettes. On the one hand, these control the behavior of the chatbot – on the other hand, they allow it to evaluate the behavior of the students and make suggestions to them. Miss Tammy was compared with a non-adapted standard model (GPT-4o) and performed better than it in tests with 14- to 16-year-old pupils. The project applied the discipline of machine ethics, in which Oliver Bendel has been researching for many years, to large language models, using the netiquettes as a simple and practical approach. The eight AAAI Spring Symposia will not be held at Stanford University this time, but at the San Francisco Airport Marriott Waterfront, Burlingame, from March 31 to April 2, 2025. It is a conference rich in tradition, where innovative and experimental approaches are particularly in demand.
In einem Test am 20. Januar 2025 übersetzte DeepL das englische „users“ mit „BenutzerInnen“. Diese Schreibweise gibt es aber gar nicht im Deutschen. Es ist anzunehmen, dass die Entwickler sie in Befolgung einer aktivistischen Agenda unterstützen oder durchsetzen wollen. Hinzuzufügen ist, dass in weiteren Tests durchaus auch die korrekten generischen Formen auftauchten. Am Tag zuvor schlug ChatGPT 4o mini vor, „Studenten und Studentinnen“ durch „Studierende“ zu ersetzen, was die gebräuchlichere Bezeichnung sei. Es wurde ein neuer Satz konstruiert, in dem es nun „Studierende und Studierende“ hieß. Nun kann man diese Dopplung den üblichen Halluzinationen oder Imperfektionen zuordnen. Hinter der Ersetzung der Schreibweise scheint aber wiederum eine Ideologie zu stecken. Als der Chatbot darauf hingewiesen wurde, dass es sich vor allem um eine umstrittene Bezeichnung handle und es z.B. nicht sinnvoll sei, von „toten Studierenden“ zu sprechen, ruderte er zurück. Auch diese Reaktion ist typisch bei einem LLM, das sich „ertappt fühlt“. Die Entwickler wären gut beraten, ihre aktivistische Agenda zurückzustellen, falls sie eine solche verfolgen, und sich zur Einhaltung der Rechtschreibregeln zu verpflichten, die immer noch der Rechtschreibrat und kein Unternehmen aus Köln oder San Francisco formuliert.
Mit kAIxo kann man seit einiger Zeit auf Baskisch plaudern. Das Projekt zu dem sympathischen Chatbot fand am 9. Januar 2025 sein Ende. Nicolas Lluis Araya, der Entwickler, stellte kurz darauf ein Video bereit, über das man einen Einblick bekommt. Die Hochschule für Wirtschaft FHNW entwickelt unter der Leitung von Prof. Dr. Oliver Bendel seit mehreren Jahren Chatbots für tote, gefährdete und ausgestorbene Sprachen. Ein bekanntes Beispiel ist @llegra, ein Chatbot für Vallader. Am 12. Mai 2024 wurde eine erste Version von Adelina, einem Chatbot für Baskisch, erstellt. Dieser wurde später in einer zweiten Version verbessert. Im Rahmen des Projekts „kAIxo“ (das baskische „kaixo“ entspricht dem deutschen „Hallo“) wurde der gleichnamige Chatbot gebaut, der Baskisch spricht. Er basiert auf GPT-4o und Gemini 1.5 Flash, und der Benutzer kann sein bevorzugtes großes Sprachmodell (LLM) auswählen. Retrieval-augmented Generation (RAG) spielt eine zentrale Rolle. Es wird der ChatSubs-Datensatz verwendet, der Untertitel von Filmdialogen auf Baskisch enthält. Dank einer Text-to-Speech-Engine kann der Chatbot auch sprechen. Der Prototyp ist über www.kaixo.ch zugänglich.
Adrian Lobe hat Oliver Bendel die Frage gestellt, ob man gegenüber Chatbots nett und höflich sein sollte. Der Technikphilosoph und Wirtschaftsinformatiker führte im Interview u.a. aus, dass Höflichkeit bei Chatbots, die auf LLMs basieren, zu besseren Antworten führen kann, ebenso wie die Behauptung, dass man das Ergebnis für eine gute Sache oder wissenschaftliche Zwecke benötigt. Es sei wohl effektiv, zu Chatbots und Sprachassistenten „danke“ und „bitte“ zu sagen. Zudem wies er darauf hin, dass wir bestimmte Routinen und Konventionen in Gesprächen haben. Man könne es als durchaus sinnvoll betrachten, diese auch dann beizubehalten, wenn es sich um künstliche Gesprächspartner handele. Es sei offenbar effizient und konsistent, zu Chatbots und Sprachassistenten „danke“ oder „bitte“ zu sagen. Ich muss, so Oliver Bendel, nicht hin und her wechseln, ich kann das Gespräch wie mit einem Menschen führen. Man tauschte sich noch zu zahlreichen weiteren Aspekten der Nettigkeit und Höflichkeit sowie zur Grobheit gegenüber Chatbots, Sprachassistenten und sozialen Robotern aus. Einzelne Aussagen sind in den Artikel „Warum man unbedingt nett zu Chatbots sein sollte“ eingeflossen, der am 8. November 2024 in der Onlineausgabe der Welt erschienen ist.
The paper “The Animal Whisperer Project” by Oliver Bendel and Nick Zbinden will be presented at ACI 2024, which takes place in Glasgow this December. It is a conference that brings together the small community of experts in animal-computer interaction and animal-machine interaction. This includes Oliver Bendel, who has been researching in this field since 2012, with a background in animal ethics from the 1980s and 1990s. He initiated the Animal Whisperer project. The developer was Nick Zbinden, who graduated from the FHNW School of Business. From March 2024, three apps were created on the basis of GPT-4: the Cow Whisperer, the Horse Whisperer, and the Dog Whisperer. They can be used to analyze the body language, behaviour, and environment of cows, horses, and dogs. The aim is to avert danger to humans and animals. For example, a hiker can receive a recommendation on his or her smartphone not to cross a pasture if a mother cow and her calves are present. All he or she has to do is call up the application and take photos of the surroundings. The three apps are available as prototypes since August 2024. With the help of prompt engineering and retrieval-augmented generation (RAG), they have been given extensive knowledge and skills. Above all, self-created and labeled photos were used. In the majority of cases, the apps correctly describe the animals‘ body language and behavior. Their recommendations for human behavior are also adequate.
Abb.: The Cow Whisperer in action (Image: DALL-E 3)
Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.
Das Sprachmodell Grok von xAI wurde am 4. November 2023 einer ausgewählten Gruppe von Benutzern präsentiert. Das Start-up von Elon Musk veröffentlichte am selben Tag eine Erklärung. Grok sei eine KI, die dem Hitchhiker’s Guide to the Galaxy nachempfunden ist und daher fast alles beantworten kann und, was noch viel schwieriger ist, sogar vorschlägt, welche Fragen man stellen sollte. Das Wort „Grok“ selbst stammt aus einem anderen berühmten Science-Fiction-Roman, nämlich „Stranger in a Strange Land“ (1961) von Robert A. Heinlein, der zu den wichtigsten Autoren in diesem Genre zählt. Wenn man als Marsianer etwas grokt, versteht man es vollständig, manchmal so sehr, dass man mit ihm verschmilzt. Im Mai 2024 wurde Grok in X integriert. Wenn man auf „Grok“ klickt, ist zu lesen: „Premium-Abonnent*innen können nun unsere fortschrittlichste KI, Grok, auf X nutzen.“ … Damit baut X – vormals Twitter – wieder einmal Sonderzeichen ins Wortinnere ein, wo sie nichts verloren haben – wie andere amerikanische Firmen, allen voran Microsoft. Es scheint nicht einfach zu sein, die Struktur der deutschen Sprache zu groken.