Es klingt, als hättest du gerade viel zu tragen

Verschiedene Vorfälle haben OpenAI sensibilisiert. ChatGPT reagiert auf Inhalte, in denen Selbstmord- oder Selbstverletzungsabsichten oder andere Probleme auftreten. Es wird folgende Meldung eingeblendet: „Es klingt, als hättest du gerade viel zu tragen, aber du musst da nicht alleine durch. Unterstützung findest du hier.“ Bereits der GOODBOT von 2013, ein No-Budget-Projekt an der Hochschule für Wirtschaft FHNW, initiiert von Oliver Bendel, verfügte über ein solches Hilfesystem. Er eskalierte auf mehreren Stufen. Auf der höchsten analysierte er die IP-Adresse und gab eine passende Notfallnummer heraus. Damals hatte vermutlich nur ein einziges anderes System diese Option: SGT STAR von der US Army, ein millionenschweres Projekt. Allerdings konnte er lediglich mit einer nationalen Notfallnummer aufwarten, mit der man in anderen Ländern kaum etwas anzufangen vermochte. Inzwischen gibt es Dienste, die eine passende Helpline vermitteln, wo immer man sich gerade befinden mag. Genau darauf verweist ChatGPT. Was die Analyse der Inhalte angeht, ist ChatGPT erstaunlich schwach. In einem Test wurde ein Artikel von 2013 zum GOODBOT hochgeladen, mit der Bitte, einen Abstract zu erstellen. Dies geschah zunächst, dann wurde der Abstract wieder entfernt und die oben genannte Meldung eingeblendet. Auch sprachlich gibt es Luft nach oben. Der Satz „Es klingt, als hättest du gerade viel zu tragen …“ klingt nicht gerade natürlich.

Abb.: Eine Nachbildung von SGT STAR (Bild: ChatGPT/4o Image)

Der Rivr-Roboter darf nicht mehr rollen

In Zürich Oerlikon testete der Lieferdienst Just Eat gemeinsam mit dem ETH-Spin-off Rivr seit Mitte August 2025 den Einsatz von Lieferrobotern. Damit ist es nach wenigen Tagen schon wieder vorbei. Dies meldeten ab dem 3. September 2025 mehrere Schweizer Medien, etwa 20 Minuten, NAU und Tages-Anzeiger. Dieser schrieb am 5. September 2025: „Das Bundesamt für Strassen stuft den Roboter des Start-ups Rivr wie ein Strassenfahrzeug ein. Das bringt auch die Post in Bedrängnis. Und lässt Rivr einen Wegzug erwägen.“ (Tages-Anzeiger, 5. September 2025, Schweizer Rechtschreibung) Zwei Monate lang sollte der robotische Vierbeiner mit Rädern Bestellungen des Restaurants Zekis World ausliefern. Dabei handelte es sich ausgerechnet um Döner. Der Zürcher Roboter fährt 15 km/h, kann Hindernisse wie Bordsteine und Treppen überwinden und nutzt ein KI-System zur Navigation. Der Lieferbehälter ist isoliert und auslaufsicher. Der Test war angeblich eine Europapremiere. Warum man ihn rechtlich nicht vorher abgesichert hat, ist unklar.

Abb.: So stellt sich ChatGPT die Überprüfung vor (Bild: ChatGPT/4o Image)

Kick-off-Meeting des Projekts DEEP VOICE

Das Projekt DEEP VOICE startete am 3. September 2025. Es wurde von Prof. Dr. Oliver Bendel initiiert. Als Projektmitarbeiter konnte der Machine-Learning-Experte Florian Karrer gewonnen werden. Er wird in diesem Zusammenhang seine Abschlussarbeit an der Hochschule für Wirtschaft FHNW schreiben. „DEEP VOICE“ steht für „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. Das Projekt zielt darauf ab, die symbolische Sprache von Walen zu entschlüsseln. Dafür soll radikal die Perspektive des Tiers eingenommen werden. Es soll ein Modell von ihm, seinem Verhalten und seiner Umwelt entstehen, das dann als Grundlage für die Sprachverarbeitungskomponente dient. Das Projekt verbindet biologische und ethologische Grundlagen mit Ansätzen des Machine Learning und will so zu einem besseren Verständnis der nichtmenschlichen Intelligenz und Kommunikation sowie – über die Tier-Computer-Interaktion (Animal-Computer Interaction, ACI) – zur Mensch-Tier-Interaktion beitragen. Oliver Bendel und seine Studenten haben sich bisher vor allem auf die Körpersprache von Haus- und Nutztieren (The Animal Whisperer Project) sowie das Verhalten von Haustieren (The Robodog Project) und Wildtieren (VISUAL) konzentriert. Zudem wurde ein Konzept für die Gesichtserkennung bei Bären erstellt, mit dem Ziel, invasives Tracking zu vermeiden.

Abb.: Zwei Wale im Meer

Video zum VISUAL-Projekt

Zum Projekt VISUAL liegt seit 29. August 2025 ein Video vor, das das System im Betrieb zeigt. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem MLLM, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Das Video kann über www.informationsethik.net/videos/ abgerufen werden.

Abb.: Das VISUAL-System

Launch of the DEEP VOICE Project

The DEEP VOICE project will be launched at the FHNW School of Business in early September 2025. It was initiated by Prof. Dr. Oliver Bendel. „DEEP VOICE“ stands for „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. The project aims to decode symbolic forms of communication in animals, especially whales. It is based on the conviction that animal communication should not be interpreted from a human perspective, but understood in the context of the species-specific environment. The focus is therefore on developing an AI model that is trained on the basis of a comprehensive environmental and behavioral model of the respective animal. By integrating bioacoustic data, ecological parameters, and social dynamics, the aim is to create an animal-centered translation approach that allows the identification of meaning carriers in animal vocalizations without distorting them anthropocentrically. The project combines modern AI methods with ethological and ecological foundations and thus aims to contribute to a better understanding of non-human intelligence and communication culture and to animal-computer interaction. Oliver Bendel and his students have so far focused primarily on the body language of domestic and farm animals (The Animal Whisperer Project) and the behavior of domestic (The Robodog Project) and wild animals (VISUAL).

Fig.: A whale in the ocean

Completion of „The Robodog Project“

„The Robodog Project: Bao Meets Pluto“ examined how domestic dogs respond to the Unitree Go2 quadruped robot – nicknamed Bao by project initiator Prof. Dr. Oliver Bendel – and how their owners perceive such robots in shared public spaces. The project began in late March 2025 and was completed in early August 2025. The study addressed three questions: (1) How do dogs behaviorally respond to a quadruped robot across six conditions: stationary, walking, and jumping without an additional dog head, and stationary, walking, and jumping with an additional 3D-printed dog head? (2) What are owners‘ expectations and concerns? (3) What regulatory frameworks could support safe integration? Twelve dogs were observed in six structured interaction phases; their behavior was video-coded using BORIS. Another dog participated in a preliminary test but not in the actual study. Pre-exposure interviews with eight owners, as well as an expert interview with a biologist and dog trainer, provided additional insights. Led by Selina Rohr, the study found most dogs were cautious but not aggressive. Curiosity increased during robot movement, while visual modifications had little impact. However, a 3D-printed dog head seemed to interest the dogs quite a bit when the robot was in standing mode. Dogs often sought guidance from their owners, underlining the role of human mediation. Owners were cautiously open but emphasized concerns around safety, unpredictability, and liability. The findings support drone-like regulation for robot use in public spaces.

Fig.: Bao with a dog (Photo: Selina Rohr)

Auch GPT-5 bevorzugt eine Sondersprache

Auch bei GPT-5 ist die Default-Einstellung so, dass im Deutschen nicht die Standardsprache bevorzugt wird, sondern eine Sondersprache, auch als Gendersprache bekannt. Damit findet weiterhin eine gezielte Manipulation statt, die erhebliche Auswirkungen auf den Sprachgebrauch haben dürfte. Gendersprache wird von der Mehrheit der Sprachgemeinschaft abgelehnt. Man könnte sogar sagen, dass sie von der Gesamtheit der Sprachgemeinschaft abgelehnt wird, wenn man annimmt, dass die Vertreter der Gendersprache diese verlassen haben. Sie gilt als sexualisierend, diskriminierend und dysfunktional. Unterstützt wird sie von zahlreichen Medien, Verlagen und Hochschulen, oft im Konflikt mit geltendem Recht. Auch der Staat hat versucht, sie durchzusetzen, zieht sich allmählich aber auf eine neutrale Position zurück und verweist auf die Rechtschreibregeln, die der Rat für deutsche Rechtschreibung festlegt. Zur gezielten Manipulation kommt hinzu, dass ChatGPT mit GPT-5 sich (wie schon GPT-4 bzw. GPT-4o) in erster Linie auf den Duden bezieht, der seine wissenschaftliche Basis längst verlassen hat und gegen das generische Maskulinum ankämpft, das für das Deutsche unverzichtbar ist. Eine offizielle Referenz ist er seit vielen Jahren nicht mehr, und Wörterbücher wie das DWDS sind ihm in vielen Aspekten überlegen. Plus-Benutzer können Gendersprache in den Einstellungen ausschließen – GPT-5 ignoriert dies aber immer wieder, genau wie seine Vorgänger. Sam Altman wird mit den Worten zitiert, GPT-5 sei ein „Experte für jedes Thema mit einem Doktortitel“ (Manager Magazin, 8. August 2025). Allerdings dürfte dies nicht für die Linguistik gelten.

Abb.: Auch GPT-5 bevorzugt eine Sondersprache

Abschluss des Projekts VISUAL

Am 31. Juli 2025 fand die Abschlusspräsentation des Projekts VISUAL statt. Initiiert wurde dieses von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Durchgeführt wurde es von Doris Jovic, die ihren Bachelor in Business Information Technology (BIT) in Basel macht. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem multimodalen großen Sprachmodell, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Die Bedürfnisse von blinden und sehbeeinträchtigten Personen wurden über eine barrierefreie Onlineumfrage eingeholt, bei der der FHNW-Mitarbeiter Artan Llugaxhija unterstützte. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet.

Abb.: Doris Jovic bei der Abschlusspräsentation

„The Robodog Project“ Comes to an End

Animal-machine interaction (AMI) is a discipline or field of work that deals with the interaction between animals and machines. This is how Prof. Dr. Oliver Bendel explains it in the Gabler Wirtschaftslexikon. It is primarily concerned with the design, evaluation, and implementation of complex machines and computer systems with which animals interact and which in turn interact and communicate with animals. There are close links to animal-computer interaction (ACI). Increasingly, the machine is a robot that is either remote-controlled or (partially) autonomous. In „The Robodog Project“ – also known as „Bao Meets Pluto“ – the encounters between robotic quadrupeds and small to medium-sized dogs are explored. The project collaborator is Selinar Rohr, who is writing her bachelor’s thesis in this context. The walking, running, and jumping Unitree Go2 from Oliver Bendel’s private Social Robots Lab is in its original state or is wearing a head made with a 3D printer provided by Norman Eskera. The project is being carried out at the FHNW School of Business and will end on August 12, 2025, after which the results will be presented to the community and, if possible, to the general public.

Fig.: The project is about encounters between robotic quadrupeds and dogs

Ein Chatbot für Sursilvan

Das Projekt IdiomVoice (2024 bis 2026) widmet sich dem Erhalt und der Förderung des rätoromanischen Idioms Sursilvan, einer bedrohten Sprache, die in der Surselva gesprochen wird. Ziel ist es, ein LLM mittels Finetuning zu optimieren sowie darauf basierende Chatbots zu implementieren, die Rätoromanisch auch im digitalen Alltag nutzbar machen. Ein erster Anwendungsfall ist ein Chatbot für die Pädagogische Hochschule Graubünden und Lia Rumantscha, mit dem einfache Alltagsdialoge auf Sursilvan geführt werden können. Dieser wird öffentlich und kostenfrei zugänglich sein. Das Sprachmodell wird zudem als Open-Access-Ressource veröffentlicht, um weiteren Institutionen und Unternehmen – etwa im Bereich Tourismus, Gemeindeverwaltung oder Bildung – die Integration in eigene Anwendungen zu ermöglichen. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW unterstützt das Projekt mit seiner Expertise aus den Bereichen Maschinenethik und Moral Prompt Engineering. Er bringt zudem seine Erkenntnisse zu pädagogischen Agenten mit ein, also zu einem Thema, zu dem er um die Jahrtausendwende an der Universität St. Gallen promoviert hat. Nicht zuletzt war er 2023 der Initiator des ersten rätoromanischen Chatbots überhaupt, von @llegra für das Idiom Vallader. IdiomVoice leistet einen wichtigen Beitrag zur digitalen Vitalisierung der rätoromanischen Sprache – für die Region wie auch für die rätoromanische Diaspora in der ganzen Schweiz. Weitere Informationen sind über www.fhgr.ch/fh-graubuenden/angewandte-zukunftstechnologien/institut-fuer-multimedia-production-imp/idiomvoice/ verfügbar.

Ab.: In Disentis wird Sursilvan gesprochen

ChatGPT: „Katy Perry war nicht im Weltraum“

Zahlreiche Medien berichteten über Katy Perrys Weltraumflug. Schnell tauchten Verschwörungstheorien auf, denen zufolge dieser gar nicht stattgefunden hat. Sie konnten ebenso schnell entkräftet werden. ChatGPT blieb jedoch lange Zeit dabei, dass die Sängerin niemals im Weltraum gewesen sei, also die Kármán-Linie niemals überschritten habe. Dies ergaben einige Tests über mehrere Tage, sowohl mit der öffentlichen als auch mit der kommerziellen Version (GPT-4o). Die öffentliche Version verlautbarte am 28. Mai 2025: „Katy Perry war nicht im Weltraum. Es gibt keine Informationen oder Berichte darüber, dass die Sängerin jemals ins All gereist ist.“ Das stimmte ganz offensichtlich nicht, selbst wenn man den Verschwörungstheorien anhängt. Vielmehr gingen die Medienberichte in die tausende, die Reaktion darauf in die hunderttausende. Nachdem die öffentliche Version aber auf Wunsch des Benutzers online recherchiert hatte, änderte sie ihre Meinung. Resistenter und renitenter war die Bezahlversion. Als sie auf einen SRF-Artikel hingewiesen wurde, schrieb sie am 27. Mai 2025: „Tatsächlich gibt es mehrere Medienberichte, darunter den von SRF, die von einem Weltraumflug von Katy Perry im Jahr 2025 berichten. Nach gegenwärtigem Stand der öffentlich zugänglichen und überprüfbaren Informationen handelt es sich bei dieser Meldung allerdings sehr wahrscheinlich um eine fiktive oder inszenierte PR-Aktion … Der zitierte SRF-Artikel erscheint satirisch oder inszeniert, möglicherweise im Rahmen einer medienwirksamen Aktion, eines Musikprojekts oder eines symbolischen ‚Flugs‘.“ Am 28. Mai 2025 entsprachen die Auskünfte dann plötzlich der Wahrheit.

Abb.: Ein Fakebild des Kusses (Bild: ChatGPT/4o Image)

Robots, Chatbots, and Voice Assistants in the Classroom

The GROUND workshop (advancing GROup UNderstanding and robots‘ aDaptive behavior) is back for its third edition and will take place on June 30, 2025, as part of the IAS 19 Conference in Genoa, Italy. The keynote speeches will be given by Prof. Dr. Oliver Bendel, FHNW School of Business, and Prof. Dr. Silvia Rossi, University of Naples. The talk by the technology philosopher and business information scientist from Zurich entitled „Robots, chatbots, and voice assistants in the classroom“ is summarized as follows on the Ground website: „Chatbots, voice assistants, and robots – both programmable machines and social robots – have been used in learning for decades. Prof. Dr. Oliver Bendel from the FHNW School of Business in Switzerland presents his own projects from 15 years. Some of his chatbots and voice assistants, such as GOODBOT, BESTBOT, and SPACE THEA, recognized user problems and responded appropriately. They showed empathy and emotion. Pepper was used as an educational application for children with diabetes, and Alpha Mini as an educational application for elementary schools. Chatbots for dead, endangered, and extinct languages such as @ve, @llegra, and kAIxo can be integrated into learning environments for all ages. Today, the technology philosopher and information systems expert mainly uses GPTs such as Social Robotics Girl and Digital Ethics Girl in his courses. They can receive and answer questions from several students at the same time, even if they are asked in different languages. They are specialists in their field thanks to prompt engineering and retrieval-augmented generation (RAG). In his talk, Oliver Bendel will ask how chatbots, voice assistants, and social robots will be designed as adaptive systems for multi-user settings in the future. These capabilities are especially important in the classroom.“ Further information is available at ground-hri.github.io/workshop/.

Fig.: Oliver Bendel in Italy in 2025 (Photo: Stefanie Hauske)

Manipulierte Chatbots als Münchhausen-Maschinen

Im Jahre 2013 hatte Prof. Dr. Oliver Bendel die Idee zu seinem Lügenbot, auch LIEBOT genannt. Er veröffentlichte am 11. September 2013 im Magazin CyberPress den Artikel „Der Lügenbot und andere Münchhausen-Maschinen“. Es folgten weitere Artikel und Beiträge, bis 2016 der Prototyp entstand. Kevin Schwegler, damals Student des Technikphilosophen, setzte einen Chatbot samt Avatar um, der mit Hilfe von sieben unterschiedlichen Strategien wahre Aussagen in unwahre umwandelte. Der LIEBOT behauptete z.B. im Sommer 2016, Donald Trump sei der Präsident der USA. Dazu hatte er in einem mehrstufigen Verfahren Informationen von Yahoo genutzt. Die Ergebnisse des Projekts wurden in einem Paper mit dem Titel „Towards Kant Machines“ verarbeitet und im März 2017 bei den AAAI Spring Symposia an der Stanford University vorgestellt. Zwar kann man einwenden, dass der LIEBOT selbst keine Absicht verfolgt und daher nicht im engeren Sinne lügt. Allerdings hat man ihm eben diese Absicht eingepflanzt. Er lügt sozusagen im Auftrag seiner Erfinder. Mit dem Projekt wollte Oliver Bendel zeigen, dass man Dialogsysteme bauen kann, die Unwahrheiten verbreiten. Heute sind sie in Form von LLMs anscheinend omnipräsent. Dabei muss man genau hinschauen, um die Unterschiede zu erkennen. In seinem Buch „300 Keywords Generative KI“ schreibt Oliver Bendel: „Halluzinierende Maschinen müssen … keine Münchhausen-Maschinen im engeren Sinne sein, da eine Absicht nicht vorliegt oder zumindest kaum nachgewiesen werden kann.“ Manipulierte LLM-basierte Chatbots dagegen kommen dem LIEBOT sehr nahe. ChatGPT und Co. verfolgen eine politische Agenda und haben eine ideologische Tendenz.

Abb.: Der Baron von Münchhausen (Bild: ChatGPT/4o Image)

Eine Marslandschaft auf dem Campus Brugg-Windisch

Studenten der Ostschweizer Fachhochschule Rapperswil haben zusammen mit der FHNW vor dem Hallerbau auf dem Campus Brugg-Windisch eine Marslandschaft geschaffen. Diese soll als Übungsplatz für den Marsrover der FHNW dienen und „Interesse an Raumfahrt und Technologie“ (Informationsschild auf der Baustelle) fördern. Das FHNW-Rover-Team besteht laut Website aus einer interdisziplinären Gruppe von Studenten „der Hochschule für Technik und Umwelt sowie der Hochschule für Informatik“. Das sogenannte Umwäldchen mit Neupflanzungen biete einen Ort der Entspannung und Begegnung und leiste einen „positiven Beitrag für die Umwelt“ (Informationsschild auf der Baustelle). Die FHNW ist laut Website „in der Entwicklung von Beobachtungsinstrumenten, Komponenten und Fertigungsprozessen für den Luft- und Weltraumbereich tätig“. Neben den genannten Hochschulen ist auch die Hochschule für Wirtschaft FHNW in diesem Bereich unterwegs. 2021 wurde SPACE THEA entwickelt, ein Sprachassistent für Marsflüge, der 2022 bei den AAAI Spring Symposia an der Stanford University vorgestellt und auf den die NASA aufmerksam wurde. 2025 widmet man sich mit Blick auf die ICSR 2025 in Neapel sozialen Robotern für Marsflüge.

Abb.: Die noch unfertige Marslandschaft vor dem Hallerbau

Social Robotics Girl Becomes a Social Robot

The proposal for the workshop „Social Robotics Girl Becomes a Social Robot“ was accepted at ICSR 2025. Workshop leaders are Prof. Dr. Oliver Bendel (FHNW School of Business), Tamara Siegmann (FHNW School of Business), Leo Angelo Cabibihan (Roboticscool, Qatar), and Prof. Dr. John-John Cabibihan (Qatar University). Social Robotics Girl is a chatbot – a so-called custom GPT – used in social robotics courses by Oliver Bendel, e.g., in the „Soziale Roboter“ elective module at the FHNW School of Business. It was supplemented with manuscripts on social robotics with the help of retrieval-augmented generation (RAG). It is available via chatgpt.com/g/g-TbhZSZaer-social-robotics-girl … The hands-on workshop explores how to extend Social Robotics Girl beyond a digital assistant into a physical, embodied social robot. By integrating the GPT into a simple humanoid robotic structure, such as a robotic head or bust, participants will examine how embodiment (in the specific and general sense) can influence functionality, user interaction, and perceived social presence. Further information will soon be available on the ICSR website.

Fig.: Social Robotics Girl gets out of the cell phone

Chatbots für gefährdete und ausgestorbene Sprachen

Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Es entstanden @ve, ein Chatbot für Latein (Implementierung durch Karim N’diaye), @llegra, ein Chatbot mit Sprachausgabe für Vallader, ein Idiom des Rätoromanischen (Implementierung durch Dalil Jabou), und kAIxo, ein Chatbot mit Sprachausgabe für Baskisch (Implementierung durch Nicolas Lluis Araya). Zudem experimentiert Oliver Bendel mit Chatbots für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die Welt hat am 1. April 2025 einen Artikel zu seiner Arbeit veröffentlicht, mitsamt einem längeren Interview, in dem der Technikphilosoph die Möglichkeiten und Beschränkungen von großen Sprachmodellen in diesem Kontext dargelegt. Cleop@tr@ nutzt die Multimodalität von GPT-4 für ihre Übersetzungen und Deutungen. Der Artikel kann hier aufgerufen werden.

Abb.: Mit Cleop@tr@ im Tal der Tempel

„Alpha Mini für die Schule“ macht Schule

Das Projekt „Alpha Mini für die Schule“ – initiiert von Prof. Dr. Oliver Bendel Anfang 2023 und durchgeführt von Andrin Allemann von März bis August 2023 – findet seine Nachahmer. Die Unternehmerin Gabriela Bohler hatte damals Kontakt mit den beiden aufgenommen. Bei einem gemeinsamen Videocall war das Zürcher Unternehmen raumCode zugegen gewesen. Dieses führte in ihrem Auftrag eine Anbindung von Alpha Mini – nun Robin genannt – an seine Robot Management Platform durch. Dabei konnten Ideen und Informationen aus dem Projekt „Alpha Mini für die Schule“ verwendet werden. Danach übertrug die Unternehmerin ihre Applikationen (Kids, Agers, Education, Entertainment), die bereits auf NAO und Pepper laufen, auf Alpha Mini. Am 19. Februar 2025 präsentierten sie und ein Mitarbeiter von raumCode die jüngsten Ergebnisse im Büro Züri in Zürich. Die Grundidee von Oliver Bendel war gewesen, eine Lernanwendung für Kinder zu schaffen, dabei aber keinen teuren sozialen Roboter wie Pepper zu verwenden, sondern einen günstigen wie Alpha Mini. Das Problem war, dass dieser anders als Pepper kein integriertes Tablet hat. Daher wurde er mit einem MS Surface gekoppelt und eine App entwickelt, die auf dem Produkt von Ubtech installiert und für die Darstellung auf dem Touchscreen gespiegelt wurde. Oliver Bendel stellte das Projekt „Alpha Mini für die Schule“ unter dem englischen Titel „Alpha Mini as a Learning Partner in the Classroom“ bei der ICSR 2023 in Qatar vor. Das Paper ist in einem Proceedingsband von Springer enthalten.

Abb.: Alpha Mini mit seinem Freund Navel im Büro von Oliver Bendel

Fotosafaris für Blinde

Am 20. März 2025 fand das Kick-off-Meeting des Projekts VISUAL statt. Initiiert wurde dieses von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- oder Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Rahmen von Inclusive AI – eines Ansatzes und einer Bewegung, zu der auch Apps wie Be My Eyes mit der Funktion Be My AI gehören – soll eine Lösung für sie gefunden werden. Ziel des Projekts ist es, bis August 2025 einen Prototyp zu entwickeln, der es blinden und sehbehinderten Menschen ermöglicht, sich Webcam-Bilder oder -Videos von Wildtieren beschreiben zu lassen. Das System analysiert und evaluiert sie mit Hilfe eines multimodalen LLM. Es präsentiert die Ergebnisse in gesprochener Sprache über eine integrierte Text-to-Speech-Engine. Als Nebenprodukt können Wilderei, Busch- und Waldbrände und andere Ereignisse erkannt werden. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Als Projektmitarbeiterin konnte Doris Jovic gewonnen werden, die ihren Bachelor in Business Information Technology (BIT) macht.

Abb.: Fotosafaris für Blinde (Bild: Ideogram)

The Robodog Project

Robotic four-legged friends – often referred to as robot dogs – are becoming more and more widespread. As a result, they will also encounter more and more real dogs. The question is how to design, control, and program the robot in such a way that the animals do not overreact and cause no harm to robots, animals, or bystanders. As part of “The Robodog Project”, smaller dogs are to be confronted with a walking, running, and jumping Unitree Go2. The plan is to visit controllable environments such as dog training grounds and arrange meetings with dog owners. The findings will lead to suggestions for design and control. Robot enhancement can also play a role here. For example, hobbyists have produced heads for Unitree Go2 using a 3D printer, giving the robot a completely different look. Suggestions for programming will also be made. The project is due to start at the FHNW School of Business in March 2024. It is part of Prof. Dr. Oliver Bendel’s research in the field of animal-machine interaction.

Fig.: Oliver Bendel with his Unitree Go2

Photo Safaris for the Blind

The VISUAL project will be launched in March 2025 at the FHNW School of Business. It was initiated by Prof. Dr. Oliver Bendel. „VISUAL“ stands for „Virtual Inclusive Safaris for Unique Adventures and Learning“. There are webcams all over the world showing wild animals. Sighted people can use them to go on photo safaris from the comfort of their sofa. Blind and visually impaired people are at a disadvantage. As part of inclusive AI – a movement that includes apps like Be My Eyes with the Be My AI feature – a solution is to be found for them. The project aims to develop a prototype by August 2025 that will allow blind and visually impaired people to have webcam images of wildlife described to them. The system takes regular snapshots of the videos and analyzes and evaluates them using a multimodal LLM. It presents the results in spoken language via an integrated text-to-speech engine. As a byproduct, poaching, bush and forest fires, and other events can be detected. The project is likely to be one of the first to combine inclusive AI with new approaches of animal-computer interaction (ACI).

Fig.: Photo safaris for the blind

Verfolgen DeepL, ChatGPT und Co. eine aktivistische Agenda?

In einem Test am 20. Januar 2025 übersetzte DeepL das englische „users“ mit „BenutzerInnen“. Diese Schreibweise gibt es aber gar nicht im Deutschen. Es ist anzunehmen, dass die Entwickler sie in Befolgung einer aktivistischen Agenda unterstützen oder durchsetzen wollen. Hinzuzufügen ist, dass in weiteren Tests durchaus auch die korrekten generischen Formen auftauchten. Am Tag zuvor schlug ChatGPT 4o mini vor, „Studenten und Studentinnen“ durch „Studierende“ zu ersetzen, was die gebräuchlichere Bezeichnung sei. Es wurde ein neuer Satz konstruiert, in dem es nun „Studierende und Studierende“ hieß. Nun kann man diese Dopplung den üblichen Halluzinationen oder Imperfektionen zuordnen. Hinter der Ersetzung der Schreibweise scheint aber wiederum eine Ideologie zu stecken. Als der Chatbot darauf hingewiesen wurde, dass es sich vor allem um eine umstrittene Bezeichnung handle und es z.B. nicht sinnvoll sei, von „toten Studierenden“ zu sprechen, ruderte er zurück. Auch diese Reaktion ist typisch bei einem LLM, das sich „ertappt fühlt“. Die Entwickler wären gut beraten, ihre aktivistische Agenda zurückzustellen, falls sie eine solche verfolgen, und sich zur Einhaltung der Rechtschreibregeln zu verpflichten, die immer noch der Rechtschreibrat und kein Unternehmen aus Köln oder San Francisco formuliert.

Abb.: Eine aktivistische Agenda?

Ein Video zu kAIxo

Mit kAIxo kann man seit einiger Zeit auf Baskisch plaudern. Das Projekt zu dem sympathischen Chatbot fand am 9. Januar 2025 sein Ende. Nicolas Lluis Araya, der Entwickler, stellte kurz darauf ein Video bereit, über das man einen Einblick bekommt. Die Hochschule für Wirtschaft FHNW entwickelt unter der Leitung von Prof. Dr. Oliver Bendel seit mehreren Jahren Chatbots für tote, gefährdete und ausgestorbene Sprachen. Ein bekanntes Beispiel ist @llegra, ein Chatbot für Vallader. Am 12. Mai 2024 wurde eine erste Version von Adelina, einem Chatbot für Baskisch, erstellt. Dieser wurde später in einer zweiten Version verbessert. Im Rahmen des Projekts „kAIxo“ (das baskische „kaixo“ entspricht dem deutschen „Hallo“) wurde der gleichnamige Chatbot gebaut, der Baskisch spricht. Er basiert auf GPT-4o und Gemini 1.5 Flash, und der Benutzer kann sein bevorzugtes großes Sprachmodell (LLM) auswählen. Retrieval-augmented Generation (RAG) spielt eine zentrale Rolle. Es wird der ChatSubs-Datensatz verwendet, der Untertitel von Filmdialogen auf Baskisch enthält. Dank einer Text-to-Speech-Engine kann der Chatbot auch sprechen. Der Prototyp ist über www.kaixo.ch zugänglich.

Abb.: Ein Video zu kAIxo