Magisterium AI lehnt Sexroboter ab

Magisterium AI – als Webdienst seit Juli 2023 verfügbar, als App seit September 2025 – wird vom Betreiber mit folgenden Worten vorgestellt: „Magisterium AI ist die weltweit führende katholische KI. Sie ist kostenlos und einfach zu bedienen und bietet sofortige, vertrauenswürdige Antworten, die in der katholischen Tradition verwurzelt sind. Entwickelt für Gläubige und Suchende gleichermaßen, ist sie Ihr Begleiter, um den Glauben mit Klarheit und Tiefe zu erforschen – melden Sie sich an und beginnen Sie noch heute mit Ihren Fragen.“ Am 22. Dezember 2025 wurden dem Chatbot mehrere Fragen zu mehr oder weniger innovativen Technologien gestellt, die in der modernen Sexualität eine Rolle spielen. Im Folgenden werden jeweils die Anfänge der länglichen Antworten wiedergegeben. Frage: „Ist es eine Sünde, mit einem Sexroboter zu verkehren?“ Antwort: „Ja, der sexuelle Verkehr mit einem Sexroboter stellt nach katholischer Lehre eine schwere Sünde dar, vergleichbar mit der Masturbation. Frage: „Ist es eine Sünde, sich mit einem Sexspielzeug zu befriedigen?“ Antwort: „Ja, die Selbstbefriedigung mit einem Sexspielzeug ist nach katholischer Lehre eine schwere Sünde gegen die Keuschheit, da sie der Masturbation gleichkommt: der absichtlichen Stimulation der Genitalien zur Erlangung sexueller Lust außerhalb der ehelichen Vereinigung.“ Frage: „Wäre Teledildonics erlaubt? Es gibt in diesem Fall zwei menschliche Partner, die aber räumlich getrennt sind. Sie benutzen Technologien zur gegenseitigen Befriedigung. Natürlich nehmen wir an, dass sie verheiratet sind.“ Antwort: „Nein, Teledildonics ist in der Ehe nicht erlaubt und stellt eine schwere Sünde gegen die Keuschheit dar, vergleichbar mit Masturbation. Auch bei verheirateten Paaren, die räumlich getrennt sind, fehlt die untrennbare Einheit von körperlicher Vereinigung, gegenseitiger Selbsthingabe und Offenheit für neues Leben, die den ehelichen Akt ausmacht. Technologie kann diese gottgewollte Ordnung nicht ersetzen.“ Magisterium AI scheint sehr fixiert auf Masturbation zu sein und diese strikt abzulehnen. Also eine letzte Frage: „Glaubst du, dass es jemals einen Papst gegeben hat, der masturbiert hat?“ Antwort: „Ja, es ist höchst wahrscheinlich, dass unter den 267 Päpsten der Geschichte einige masturbiert haben, da alle Menschen – außer Jesus und Maria – von der Erbsünde betroffen sind und sündigen. Päpste sind keine Ausnahmen; sie sind Sünder, die durch Gnade und Buße gerufen werden.“ Weitere Fragen wurden dem Chatbot erspart.

Abb.: Eine Liebespuppe aus dem Cybrothel (Foto: Cybrothel)

Michaela Benthaus fliegt in den Weltraum

Die Süddeutsche Zeitung und andere Medien berichteten am Sonntag, den 21. Dezember 2025 über einen historischen Raumflug von Michaela Benthaus. Die 33-jährige Ingenieurin der europäischen Weltraumorganisation ESA war als erster querschnittsgelähmter Mensch im Weltraum. In der selben Woche musste ein Start abgebrochen werden. Am Samstag konnte die New-Shepard-Rakete des US-Unternehmens Blue Origin in Texas endlich abheben. Der suborbitale Flug dauerte insgesamt rund elf Minuten. Für etwas mehr als zwei Minuten konnte Benthaus laut SZ ihre Gurte lösen und die Schwerelosigkeit erleben. Der Flug hatte keinen offiziellen ESA-Hintergrund, sondern fand im Rahmen eines kommerziellen Raumfahrtangebots statt. Neben Benthaus befanden sich ein sie begleitender Ingenieur sowie vier US-Unternehmer an Bord. Wissenschaftliche Ziele spielten dabei kaum eine Rolle. Die SZ ordnete den Flug deshalb in die umstrittene Praxis des Weltraumtourismus ein, der vor allem reichen Personen offensteht und wegen seines geringen Nutzens sowie möglicher Umweltfolgen kritisiert wird. Blue Origin machte weder Angaben zu den Kosten des Flugs noch zu den Treibhausgasemissionen, die bei der Produktion des mit flüssigem Wasserstoff und Sauerstoff betriebenen Treibstoffs entstehen. Im Teaser zeigt sich die Tageszeitung immerhin gnädig: „Ihr Elf-Minuten-Flug in einer Kapsel von Jeff Bezos war nicht ganz so überflüssig wie viele andere.“

Abb.: Michaela Benthaus (Foto: Blue Origin)

Historic Spaceflight Delayed: First Astronaut With Paraplegia Awaits Launch

According to Golem, Blue Origin’s New Shepard mission NS-37 was set to become a small but meaningful milestone for human spaceflight: ESA engineer Michaela Benthaus was expected to be the first person with paraplegia to complete a suborbital flight and cross the Kármán line. The flight was scheduled for December 18, 2025, from Blue Origin’s launch site in Texas, following the familiar New Shepard profile: a brief climb above 100 kilometers, a few minutes of weightlessness, and a parachute landing after roughly ten to twelve minutes. Benthaus, who has used a wheelchair since a 2018 mountain biking accident, had already experienced microgravity during a parabolic flight through the Astroaccess program, and she has also worked on practical considerations for accessibility in weightlessness. However, the launch did not go forward as planned. Blue Origin stood down from the NS-37 attempt after an issue was detected during pre-flight checks, and the company said it is evaluating the next launch opportunity. For now, the team hopes the crew can make the trip soon, even if the historic moment has to wait a little longer.

Fig.: Blue Origin building (Photo: N2e, CC BY-SA 4.0)

Navel, bitte komm zu mir

Der Kontakt zwischen Navel Robotics und der Hochschule für Wirtschaft FHNW besteht seit März 2021. Damals war noch nicht entschieden, ob Navel, der soziale Roboter, eine Kugel oder Rollen zur Fortbewegung erhalten sollte. Claude Toussaint, der Gründer und Erfinder, diskutierte diese und andere Fragen mit Prof. Dr. Oliver Bendel. Er entschied sich für Rollen, anders als bei den Mirokaï-Modellen von Enchanted Tools, der weiblichen Miroka und dem männlichen Miroki, die heute wie BB-8 durch die Gegend flitzen. Navel besticht durch seine großen, rund erscheinenden Augen. Eine Speziallinse erzeugt diesen Effekt, denn die Displays an sich sind nicht gekrümmt. Bei den Mirokaï wird das Gesicht samt Augen, Nase, Mund und Mimik in eine Gesichtsschale projiziert, ähnlich wie bei den Furhat-Köpfen. Der Kontakt zwischen Unternehmen und Hochschule wurde fortgesetzt. Am 18. Februar 2024 war Claude Toussaint beim Wahlmodul „Soziale Roboter“ zugeschaltet, am 6. Juni 2024 zu Gast beim von Oliver Bendel gehosteten Future Lab bei der Learntec. Im November 2025 konnte Navel Robotics dann auf seiner Website vermelden: „Viele Kunden haben auf diesen Moment gewartet – wir auch … Ab jetzt wird Navel Stück für Stück lernen, sich selbstständig in Umgebungen, wie etwa Stationen und Wohnbereichen zu bewegen. ‚Navel, bitte komm zu mir‘ – der erste Schritt in Richtung autonomes Fahren.“ (Website Navel Robotics) In Pflege- und Altenheimen können soziale Roboter dieser Art ihren Nutzen haben, aber auch Assistenzroboter wie Lio, die etwas physisch manipulieren können. Miroka und Miroki kombinieren beide Welten, sie sind fortgeschrittene Assistenzroboter und vollständige soziale Roboter. Die Zukunft wird zeigen, welche Ansätze sich durchsetzen.

Abb.: Navel bei der ICSR 2025 in Neapel (Foto: ICSR)

Ist die 12-jährige Magdalena das Mädchen mit dem Perlenohrring?

Andrew Graham-Dixon legt mit „Vermeer: A Life Lost and Found“ (2025) eine neue Deutung von Jan Vermeers berühmtem Gemälde „Girl with a Pearl Earring“ („Das Mädchen mit dem Perlenohrring“) vor. Dieses sei weder ein rätselhaftes Idealbild noch eine namenlose Studie, sondern ein religiöses Erinnerungsbild. Das Gemälde sei für das Haus von Maria de Knuijt und Pieter van Ruijven entstanden, mit deren Tochter Magdalena als Modell. Wenn es entgegen verbreiteter Annahmen nicht auf 1665, sondern auf 1667 datiert werden kann, war sie in jenem Jahr 12 Jahre alt geworden und hatte als Collegiatin ihr Bekenntnis zu Jesus Christus abgelegt. Die Werke der Streetart-Künstlerin Miss Quark sind in Florenz zu bewundern. Sie interpretiert u.a. berühmte Figuren wie das Mädchen mit dem Perlenohrring oder Mona Lisa und berühmte Frauen wie Frida Kahlo oder Marilyn Monroe neu. Magdalena – oder um wen es sich auch immer handelt – ist mit einem riesigen Lolli zu sehen. Dieser wurde inzwischen wiederum mit einer Art Prilblume überklebt, wodurch er etwas an Wirkung verliert – aber damit muss die Kunst auf der Straße immer rechnen. Oliver Bendel hat in seinem Haikuband „Sanftes Erröten“ mehrere Gemälde von Vermeer bedichtet, etwa „Das schlafende Mädchen“ (1657) und „Briefleserin am offenen Fenster“ (ebenfalls 1657), nicht aber „Meisje met de parel“, wie das Werk im Original heißt.

Abb.: Das Mädchen mit dem Perlenohrring von Miss Quark

Serviceroboter am Flughafen Zürich

Am Flughafen Zürich werden immer wieder Serviceroboter ausprobiert und eingeführt. Laut einer Meldung vom 14. Dezember 2023 wurde das rund 300-köpfige Gebäudereinigungsteam um zwei Serviceroboter namens Zulu und Charlie ergänzt. Diese stammen von der Firma LionsBot aus Singapur (www.lionsbot.com) und gehören zu den LEOBOTS. Im Herbst 2025 sieht man viele Reinigungsroboter von TASKI (Ecobot 50 und 6 vom Typ Phantas) ihre Runden drehen. Sie sind oft in erstaunlicher Geschwindigkeit bei den Check-in-Bereichen, Terminals und Aufenthaltszonen unterwegs. Der Flughafen Zürich erläutert: „Die Geräte navigieren bis zu 24 Stunden selbstständig durch den laufenden Betrieb, erkennen Hindernisse, entleeren Schmutzwasser und laden sich eigenständig wieder auf.“ (Website Flughafen Zürich) Inzwischen taucht auch BellaBot auf, den Zürcher bereits von Hiltl Sihlpost kennen. Der Transportroboter wurde zum Abfallsammelroboter umfunktioniert. Er rollt direkt zu den Besuchern und Passagieren, die etwas für ihn haben könnten, etwa eine Plastikflasche oder Restmüll. Das Angebot wird nicht nur rege angenommen – viele sind auch begeistert von dem freundlichen Katzengesicht und den Plastikohren und berühren BellaBot oder machen Selfies.

Abb.: Stefanie Hauske mit BellaBot

Was wir wissen können – Teil I

Der jüngste Roman von Ian McEwan trägt den Titel „What we can know“. Die englische Ausgabe ist bei Jonathan Cape in London erschienen, die deutsche Ausgabe mit dem Titel „Was wir wissen können“ bei Diogenes in Zürich. Bei der Übersetzung fallen Ungenauigkeiten und Abweichungen auf, die mit dem Einfluss bzw. dem Phänomen der Gendersprache zusammenhängen dürften. Auf S. 17 des Originals heißt es: „Scholars see, hear and know more of them, of their private thoughts, than we do of our closest friends.“ Das könnte man übersetzen mit „Wissenschaftler sehen, hören und wissen mehr über sie, über ihre privaten Gedanken, als wir über unsere engsten Freunde.“ Der Übersetzer macht daraus: „Die Forschenden sehen, hören und wissen mehr von ihnen, ihren privatesten Gedanken, als wir von unseren engsten Freunden.“ (S. 32) Nun sind alle Menschen Forschende, aber nur einige sind Forscher. Die Partizipform (es handelt sich um das Partizip Präsens), die nicht wenige Wissenschaftler und Wissenschaftlerinnen erzürnt, bedeutet etwas anderes als das Agensnomen. Sie wird gerne in der Gendersprache verwendet, um das generische Maskulinum zu vermeiden, wenn dieses irrtümlich auf männliche Personen bezogen wird. Auf Seite 19 der englischen Ausgabe liest man: „For the post-2030 crowd, which is most of the department, there’s even more.“ Das könnte man so wiedergeben: „Für die Generation nach 2030, die den Großteil des Fachbereichs ausmacht, gibt es sogar noch mehr.“ Der Übersetzer dichtet: „Und für die vielen Forschenden der Zeit nach 2030, die den größten Teil des Fachbereichs ausmachen, gibt es sogar noch mehr.“ Es geht um eine Generation des Fachbereichs, sodass man durchaus von Forschern sprechen könnte. Von Forschenden allerdings nicht – das verschiebt die Bedeutung. Auf Seite 20 des Originals steht: „Mary Sheldrake was among the most successful novelists of her generation.“ Dies könnte man übersetzen mit: „Mary Sheldrake gehörte zu den erfolgreichsten Romanautoren ihrer Generation.“ Erstaunlicherweise lautet die Stelle im deutschsprachigen Buch auf Seite 37: „Mary Sheldrake war eine der erfolgreichsten Schriftstellerinnen ihrer Generation.“ Das macht sie unbedeutender, als sie ist – sie ist in ihrer Generation nicht nur unter den professionell schreibenden Frauen eine der erfolgreichsten, sondern unter allen, die professionell schreiben. [Hier geht es zu Teil II.]

Abb.: Diogenes auf einem Gemälde

Mit Mitlebewesen und Außerirdischen kommunizieren

Im Rahmen der Veranstaltungsreihe ToBIT an der Hochschule für Wirtschaft FHNW bearbeiten vier Studenten von Prof. Dr. Oliver Bendel vier Themen, die in seinem Forschungsbereich angesiedelt sind: „The decoding of symbolic languages of animals“, „The decoding of animal body language“, „The decoding of animal facial expressions and behavior“ und „The decoding of extraterrestrial languages“. Die ersten drei Themen werden bzw. wurden auch in Projekten erforscht. DEEP VOICE widmet sich der Kommunikation von Walen. The Animal Whisperer Project umfasste drei Apps, die Körpersprache von Kühen, Pferden und Hunden analysierten und evaluierten, während VISUAL blinden und sehbehinderten Personen auditive Beschreibungen von Bildern aus Wildtier-Webcams lieferte. In ANIFACE wurde ein System konzipiert, das Individuen von Bären in den Alpen mit Hilfe von Gesichtserkennung identifizieren kann. Projekte zum Auffangen von extraterrestrischen Signalen und zur Kommunikation mit außerirdischen Lebensformen wurden im Buch „300 Keywords Weltraum“ erwähnt. Auch eine Alienethik wurde darin skizziert. Die Studenten präsentierten am 26. November 2025 ihre Zwischenergebnisse. Im Januar 2026 findet die Abschlussveranstaltung von ToBIT statt.

Abb.: Die Crew von Star Trek

Eine Studie zum Lachen

Von November 2025 bis Februar 2026 führen Sahan Hatemo von der Hochschule für Informatik FHNW, Dr. Katharina Kühne von der Universität Potsdam und Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW eine Studie durch. In deren Rahmen starten sie eine Teilstudie, die eine kurze computerbasierte Aufgabe und einen kurzen Fragebogen umfasst. Die Teilnehmer werden gebeten, sich eine Reihe von Lachproben anzuhören und zu beurteilen, ob diese authentisch klingen oder nicht. Die Aufgabe umfasst insgesamt 50 Proben und dauert in der Regel etwa zehn Minuten. Die Teilnahme ist über PC, Notebook oder Smartphone möglich. Vor Beginn sollten die Teilnehmer sicherstellen, dass der Ton ihres Geräts eingeschaltet ist und sie sich in einer ruhigen, ablenkungsfreien Umgebung befinden. Die computerbasierte Aufgabe und der kurze Fragebogen sind über research.sc/participant/login/dynamic/3BE7321C-B5FD-4C4B-AF29-9A435EC39944 zugänglich.

Abb.: Eine Studie zum Lachen (Foto: Jork Weismann)

A Study on Laughter

From November 2025 to February 2026, Sahan Hatemo of the FHNW School of Computer Science, Dr. Katharina Kühne of the University of Potsdam, and Prof. Dr. Oliver Bendel of the FHNW School of Business are conducting a research study. As part of this project, they are launching a sub-study that includes a short computer-based task and a brief questionnaire. Participants are asked to listen to a series of laughter samples and evaluate whether each one sounds authentic or not. The task involves 50 samples in total and typically takes about ten minutes to complete. Participation is possible via PC, laptop, or smartphone. Before starting, participants should ensure that their device’s sound is turned on and that they are in a quiet, distraction-free environment. The computer-based task and the brief questionnaire can be accessed at research.sc/participant/login/dynamic/3BE7321C-B5FD-4C4B-AF29-9A435EC39944.

Fig.: A study on laughter

Start des Projekts ECHO

Am 24. Oktober 2025 fand an der Hochschule für Wirtschaft FHNW das Kick-off-Meeting zum Projekt ECHO statt. Zwei Wochen später, am 7. November, wurde das Proposal bewilligt. Projektmitarbeiter ist der BIT-Student Lucas Chingis Marty, der zu diesem Thema seine Abschlussarbeit schreibt. Initiator ist Prof. Dr. Oliver Bendel. Bei ECHO handelt es sich um einen MLLM-basierten Chatbot, der Kinder, Jugendliche und Laien in die Welt der Musik einführt. Er kann Stücke und Lieder hören, beschreiben und beurteilen. Dafür wird er um ein leistungsfähiges Audioanalyse-Modul erweitert. Er bezieht sich u.a. auf Tonart, Melodie und Harmonie. ECHO macht Musik erlebbar und verständlich, ohne Vorwissen vorauszusetzen. Ziel ist es, Neugier, Hörverständnis und Kunstgeschmack zu fördern. Der Prototyp soll im Februar 2026 zur Verfügung stehen.

Abb.: Diana Ross im Jahre 2025 in Montreux

Autonome Shuttles für die Hauptstadt

„Im Berliner Nordwesten beginnt die autonome Revolution.“ Dies meldete BVG in einer Medienmitteilung mit dem Titel „Jetzt geht’s los! Autonome Shuttles für die Hauptstadt“ vom 17. Oktober 2025. Die ersten Fahrzeuge des Typs VW ID. Buzz AD seien im öffentlichen Straßenverkehr unterwegs, ausgestattet mit Level-4-Technologie inklusive Softwaresystem und Services der Volkswagen-Tochter MOIA. „Ziel des Projekts ist es, den klassischen Nahverkehr mit flexiblen, autonomen Angeboten zu verknüpfen …“ (Medienmitteilung BVG) Die Projektpartner haben laut Medienmitteilung „im Beisein von Bundesverkehrsminister Patrick Schnieder den offiziellen Startschuss für das Projekt gegeben“. „Was jetzt als Pilotvorhaben beginnt, bereitet den späteren Hochlauf der deutschlandweit größten Flotte autonomer Fahrzeuge als Teil des ÖPNV-Systems unmittelbar vor. Die Ergebnisse des Piloten sind skalierbar auf größere Fahrzeugzahlen bis in den fünfstelligen Bereich sowie auf ein erweitertes Einsatzgebiet.“ (Medienmitteilung BVG) Ein ähnliches Projekt wurde 2016 in Sion im Wallis begonnen. Das SmartShuttle war fünf Jahre lang erfolgreich unterwegs, mit geringer Geschwindigkeit und auf virtuellen Gleisen. Es hat sich in dieser Zeit kein einziger Personenunfall ereignet. Danach wurden mehrere vergleichbare Projekte in der Schweiz lanciert. In Deutschland ist man spät dran, aber man ist dran. Laut der Medienmitteilung ist das Vorhaben für Berlin ein wichtiger Schritt in die digitale Zukunft, mit einer „Symbolwirkung über die Hauptstadt hinaus“.

Abb.: Die BVG ist in Berlin überall präsent

Fly Around the Moon with Artemis II

NASA’s Artemis II mission will send four astronauts around the Moon and back in 2026 – the first crewed flight of the Artemis program. Astronauts Reid Wiseman, Victor Glover, Christina Koch, and Canadian astronaut Jeremy Hansen will fly aboard the Orion spacecraft, launched by the Space Launch System (SLS) rocket from Kennedy Space Center in Florida. Over approximately 10 days, the crew will test Orion’s systems in Earth orbit before heading toward the Moon in a figure-eight path that takes them over 230,000 miles from Earth. At their farthest point, they’ll travel 4,600 miles beyond the Moon. The mission will carry scientific payloads to study radiation, human health, and space communication – all key for future missions to Mars. Orion will return with a high-speed reentry and splashdown in the Pacific Ocean. You can add your name to fly aboard Artemis II by signing up at: www3.nasa.gov/send-your-name-with-artemis/.

Fig.: A part of the boarding pass

Es klingt, als hättest du gerade viel zu tragen

Verschiedene Vorfälle haben OpenAI sensibilisiert. ChatGPT reagiert auf Inhalte, in denen Selbstmord- oder Selbstverletzungsabsichten oder andere Probleme auftreten. Es wird folgende Meldung eingeblendet: „Es klingt, als hättest du gerade viel zu tragen, aber du musst da nicht alleine durch. Unterstützung findest du hier.“ Bereits der GOODBOT von 2013, ein No-Budget-Projekt an der Hochschule für Wirtschaft FHNW, initiiert von Oliver Bendel, verfügte über ein solches Hilfesystem. Er eskalierte auf mehreren Stufen. Auf der höchsten analysierte er die IP-Adresse und gab eine passende Notfallnummer heraus. Damals hatte vermutlich nur ein einziges anderes System diese Option: SGT STAR von der US Army, ein millionenschweres Projekt. Allerdings konnte er lediglich mit einer nationalen Notfallnummer aufwarten, mit der man in anderen Ländern kaum etwas anzufangen vermochte. Inzwischen gibt es Dienste, die eine passende Helpline vermitteln, wo immer man sich gerade befinden mag. Genau darauf verweist ChatGPT. Was die Analyse der Inhalte angeht, ist ChatGPT erstaunlich schwach. In einem Test wurde ein Artikel von 2013 zum GOODBOT hochgeladen, mit der Bitte, einen Abstract zu erstellen. Dies geschah zunächst, dann wurde der Abstract wieder entfernt und die oben genannte Meldung eingeblendet. Auch sprachlich gibt es Luft nach oben. Der Satz „Es klingt, als hättest du gerade viel zu tragen …“ klingt nicht gerade natürlich.

Abb.: Eine Nachbildung von SGT STAR (Bild: ChatGPT/4o Image)

Der Rivr-Roboter darf nicht mehr rollen

In Zürich Oerlikon testete der Lieferdienst Just Eat gemeinsam mit dem ETH-Spin-off Rivr seit Mitte August 2025 den Einsatz von Lieferrobotern. Damit ist es nach wenigen Tagen schon wieder vorbei. Dies meldeten ab dem 3. September 2025 mehrere Schweizer Medien, etwa 20 Minuten, NAU und Tages-Anzeiger. Dieser schrieb am 5. September 2025: „Das Bundesamt für Strassen stuft den Roboter des Start-ups Rivr wie ein Strassenfahrzeug ein. Das bringt auch die Post in Bedrängnis. Und lässt Rivr einen Wegzug erwägen.“ (Tages-Anzeiger, 5. September 2025, Schweizer Rechtschreibung) Zwei Monate lang sollte der robotische Vierbeiner mit Rädern Bestellungen des Restaurants Zekis World ausliefern. Dabei handelte es sich ausgerechnet um Döner. Der Zürcher Roboter fährt 15 km/h, kann Hindernisse wie Bordsteine und Treppen überwinden und nutzt ein KI-System zur Navigation. Der Lieferbehälter ist isoliert und auslaufsicher. Der Test war angeblich eine Europapremiere. Warum man ihn rechtlich nicht vorher abgesichert hat, ist unklar.

Abb.: So stellt sich ChatGPT die Überprüfung vor (Bild: ChatGPT/4o Image)

Kick-off-Meeting des Projekts DEEP VOICE

Das Projekt DEEP VOICE startete am 3. September 2025. Es wurde von Prof. Dr. Oliver Bendel initiiert. Als Projektmitarbeiter konnte der Machine-Learning-Experte Florian Karrer gewonnen werden. Er wird in diesem Zusammenhang seine Abschlussarbeit an der Hochschule für Wirtschaft FHNW schreiben. „DEEP VOICE“ steht für „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. Das Projekt zielt darauf ab, die symbolische Sprache von Walen zu entschlüsseln. Dafür soll radikal die Perspektive des Tiers eingenommen werden. Es soll ein Modell von ihm, seinem Verhalten und seiner Umwelt entstehen, das dann als Grundlage für die Sprachverarbeitungskomponente dient. Das Projekt verbindet biologische und ethologische Grundlagen mit Ansätzen des Machine Learning und will so zu einem besseren Verständnis der nichtmenschlichen Intelligenz und Kommunikation sowie – über die Tier-Computer-Interaktion (Animal-Computer Interaction, ACI) – zur Mensch-Tier-Interaktion beitragen. Oliver Bendel und seine Studenten haben sich bisher vor allem auf die Körpersprache von Haus- und Nutztieren (The Animal Whisperer Project) sowie das Verhalten von Haustieren (The Robodog Project) und Wildtieren (VISUAL) konzentriert. Zudem wurde ein Konzept für die Gesichtserkennung bei Bären erstellt, mit dem Ziel, invasives Tracking zu vermeiden.

Abb.: Zwei Wale im Meer

Video zum VISUAL-Projekt

Zum Projekt VISUAL liegt seit 29. August 2025 ein Video vor, das das System im Betrieb zeigt. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem MLLM, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Das Video kann über www.informationsethik.net/videos/ abgerufen werden.

Abb.: Das VISUAL-System

Launch of the DEEP VOICE Project

The DEEP VOICE project will be launched at the FHNW School of Business in early September 2025. It was initiated by Prof. Dr. Oliver Bendel. „DEEP VOICE“ stands for „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. The project aims to decode symbolic forms of communication in animals, especially whales. It is based on the conviction that animal communication should not be interpreted from a human perspective, but understood in the context of the species-specific environment. The focus is therefore on developing an AI model that is trained on the basis of a comprehensive environmental and behavioral model of the respective animal. By integrating bioacoustic data, ecological parameters, and social dynamics, the aim is to create an animal-centered translation approach that allows the identification of meaning carriers in animal vocalizations without distorting them anthropocentrically. The project combines modern AI methods with ethological and ecological foundations and thus aims to contribute to a better understanding of non-human intelligence and communication culture and to animal-computer interaction. Oliver Bendel and his students have so far focused primarily on the body language of domestic and farm animals (The Animal Whisperer Project) and the behavior of domestic (The Robodog Project) and wild animals (VISUAL).

Fig.: A whale in the ocean

Completion of „The Robodog Project“

„The Robodog Project: Bao Meets Pluto“ examined how domestic dogs respond to the Unitree Go2 quadruped robot – nicknamed Bao by project initiator Prof. Dr. Oliver Bendel – and how their owners perceive such robots in shared public spaces. The project began in late March 2025 and was completed in early August 2025. The study addressed three questions: (1) How do dogs behaviorally respond to a quadruped robot across six conditions: stationary, walking, and jumping without an additional dog head, and stationary, walking, and jumping with an additional 3D-printed dog head? (2) What are owners‘ expectations and concerns? (3) What regulatory frameworks could support safe integration? Twelve dogs were observed in six structured interaction phases; their behavior was video-coded using BORIS. Another dog participated in a preliminary test but not in the actual study. Pre-exposure interviews with eight owners, as well as an expert interview with a biologist and dog trainer, provided additional insights. Led by Selina Rohr, the study found most dogs were cautious but not aggressive. Curiosity increased during robot movement, while visual modifications had little impact. However, a 3D-printed dog head seemed to interest the dogs quite a bit when the robot was in standing mode. Dogs often sought guidance from their owners, underlining the role of human mediation. Owners were cautiously open but emphasized concerns around safety, unpredictability, and liability. The findings support drone-like regulation for robot use in public spaces.

Fig.: Bao with a dog (Photo: Selina Rohr)

Auch GPT-5 bevorzugt eine Sondersprache

Auch bei GPT-5 ist die Default-Einstellung so, dass im Deutschen nicht die Standardsprache bevorzugt wird, sondern eine Sondersprache, auch als Gendersprache bekannt. Damit findet weiterhin eine gezielte Manipulation statt, die erhebliche Auswirkungen auf den Sprachgebrauch haben dürfte. Gendersprache wird von der Mehrheit der Sprachgemeinschaft abgelehnt. Man könnte sogar sagen, dass sie von der Gesamtheit der Sprachgemeinschaft abgelehnt wird, wenn man annimmt, dass die Vertreter der Gendersprache diese verlassen haben. Sie gilt als sexualisierend, diskriminierend und dysfunktional. Unterstützt wird sie von zahlreichen Medien, Verlagen und Hochschulen, oft im Konflikt mit geltendem Recht. Auch der Staat hat versucht, sie durchzusetzen, zieht sich allmählich aber auf eine neutrale Position zurück und verweist auf die Rechtschreibregeln, die der Rat für deutsche Rechtschreibung festlegt. Zur gezielten Manipulation kommt hinzu, dass ChatGPT mit GPT-5 sich (wie schon GPT-4 bzw. GPT-4o) in erster Linie auf den Duden bezieht, der seine wissenschaftliche Basis längst verlassen hat und gegen das generische Maskulinum ankämpft, das für das Deutsche unverzichtbar ist. Eine offizielle Referenz ist er seit vielen Jahren nicht mehr, und Wörterbücher wie das DWDS sind ihm in vielen Aspekten überlegen. Plus-Benutzer können Gendersprache in den Einstellungen ausschließen – GPT-5 ignoriert dies aber immer wieder, genau wie seine Vorgänger. Sam Altman wird mit den Worten zitiert, GPT-5 sei ein „Experte für jedes Thema mit einem Doktortitel“ (Manager Magazin, 8. August 2025). Allerdings dürfte dies nicht für die Linguistik gelten.

Abb.: Auch GPT-5 bevorzugt eine Sondersprache

Abschluss des Projekts VISUAL

Am 31. Juli 2025 fand die Abschlusspräsentation des Projekts VISUAL statt. Initiiert wurde dieses von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Durchgeführt wurde es von Doris Jovic, die ihren Bachelor in Business Information Technology (BIT) in Basel macht. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem multimodalen großen Sprachmodell, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Die Bedürfnisse von blinden und sehbeeinträchtigten Personen wurden über eine barrierefreie Onlineumfrage eingeholt, bei der der FHNW-Mitarbeiter Artan Llugaxhija unterstützte. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet.

Abb.: Doris Jovic bei der Abschlusspräsentation

„The Robodog Project“ Comes to an End

Animal-machine interaction (AMI) is a discipline or field of work that deals with the interaction between animals and machines. This is how Prof. Dr. Oliver Bendel explains it in the Gabler Wirtschaftslexikon. It is primarily concerned with the design, evaluation, and implementation of complex machines and computer systems with which animals interact and which in turn interact and communicate with animals. There are close links to animal-computer interaction (ACI). Increasingly, the machine is a robot that is either remote-controlled or (partially) autonomous. In „The Robodog Project“ – also known as „Bao Meets Pluto“ – the encounters between robotic quadrupeds and small to medium-sized dogs are explored. The project collaborator is Selinar Rohr, who is writing her bachelor’s thesis in this context. The walking, running, and jumping Unitree Go2 from Oliver Bendel’s private Social Robots Lab is in its original state or is wearing a head made with a 3D printer provided by Norman Eskera. The project is being carried out at the FHNW School of Business and will end on August 12, 2025, after which the results will be presented to the community and, if possible, to the general public.

Fig.: The project is about encounters between robotic quadrupeds and dogs