Das Kunsthaus, das Kulturgut zerstört

In den Begleittexten zur Lehmbruck-Ausstellung im Kunsthaus Zürich werden genderaktivistische Schreibweisen verwendet („Künstler:innen“, „Künstler:innengenerationen“, „[von] Kunstförder:innen“), die weder der deutschen Orthografie noch der gewachsenen Grammatik entsprechen. Sonderzeichen im Wortinneren zerstören etablierte Wortstrukturen, verunmöglichen korrekte Deklinationen und erschweren die Lesbarkeit deutlich. Diese Formen sind keine anerkannte Weiterentwicklung der Standardsprache, sondern politisch-ideologisch motivierte Markierungen, die – wie in Diktaturen – von bestimmten Stellen kommen. Für eine öffentliche Kulturinstitution wie ein Museum ist das problematisch. Dieses hat den Auftrag, Kunst verständlich und zugänglich zu vermitteln. Texte, die durch Sonderformen zusätzlich Hürden aufbauen, schließen weite Teile des Publikums aus, statt sie einzubeziehen. Inklusion wird so nicht gefördert, sondern unterlaufen. Wer Sprache als Kulturgut ernst nimmt, sollte im institutionellen Gebrauch an einer korrekten, präzisen und allgemein verständlichen Standardsprache festhalten.

Abb.: Ein Werk von Lehmbruck im Kunsthaus Zürich

Einer wirrer Bericht zu medizinethischen Richtlinien

Die Schweizerische Akademie der Medizinischen Wissenschaften (SAMW) hat 2025 den Bericht „Medizin-ethische Richtlinien: Entstehung und Wirkung“ veröffentlicht. Die falsche Schreibweise des Adjektivs findet sich auch im Artikel „Die medizin-ethischen Richtlinien der SAMW: Zwischen Kontinuität und Wandel“ von Henri Bounameaux, des SAMW-Präsidenten, zudem in den Texten anderer Autoren. In „Experimentieren – Ethik in der medizinischen Forschung“ von Dr. Izel Demirbas ist zuerst korrekt von „medizinethischen Positionen“ die Rede, später aber vom „medizin-ethischen Diskurs“. Wer über diese sprachliche Auffälligkeit stolpert, schaut auch an anderer Stelle genau hin. Auf Seite 5 heißt es: „Seit über 50 Jahren erarbeitet die Zentrale Ethikkommission (ZEK) der SAMW diese Richtlinien – als Orientierungshilfen für Ärztinnen und weitere Gesundheitsfachpersonen in herausfordernden Situationen.“ Die Fußnote erklärt: „Weibliche und männliche Wortformen werden in diesem Bericht kapitelweise abwechselnd verwendet, gemeint sind jeweils die Angehörigen aller Geschlechtergruppen.“ „Ärztinnen“ bedeutet in der deutschen Sprache allerdings „weibliche Ärzte“ – und nichts anderes. Das Anliegen, weibliche und männliche Wortformen kapitelweise abwechselnd zu verwenden, ist auch nicht einzulösen. In manchen Kapiteln kommt das generische Maskulinum vor, das geschlechtsneutral ist, in anderen das generische Femininum, das es in dieser Form gar nicht gibt. So stiftet der ganze Bericht in weiten Teilen heillose Verwirrung und schadet der SAMW ebenso wie der Medizinethik und der ganzen Wissenschaft, die auf eine korrekte und präzise Sprache angewiesen sind.

Abb.: Die SAMW sitzt in Bern

Ein Wahlmodul im Schweizer Fernsehen

Vom 3. bis zum 5. November 2025 fand das Wahlmodul „Soziale Roboter“ an der Hochschule für Wirtschaft FHNW in Olten statt, für Studierende aus Wirtschaftsinformatik und Business Information Technology (BIT). Am ersten Tag kam das Schweizer Fernsehen zu Besuch. Für einen Beitrag über Sicherheitsroboter wurde während des Unterrichts gefilmt und danach Prof. Dr. Oliver Bendel interviewt … Auch dieses Mal stand ein auf das Thema spezialisiertes GPT namens Social Robotics Girl zur Verfügung. Oliver Bendel ließ es immer wieder Sachverhalte erklären und nahm dann Ergänzungen vor. Unter den Robotern der Demo waren Unitree Go2, Alpha Mini, Booboo, Aibi und Cozmo. Besonders eindrucksvoll war wieder Unitree Go2. Dies lag vor allem an seinen schnellen, flüssigen Bewegungen, seinen vielfältigen Verhaltensformen und seinen überraschenden Tanzeinlagen. Der Roboter stammt aus dem von Oliver Bendel privat finanzierten Social Robots Lab und wird von ihm Bao (chin. „Schatz, Juwel“) genannt. Auch Aibi, der Wearable Social Robot, und Booboo, das Pelztier, standen hoch im Kurs. Bei der Konzeption eigener sozialer Roboter wurde – abgesehen von der Beschreibung anhand des 5-Dimensionen-Modells – mehrheitlich mit Bildgeneratoren gearbeitet, zudem mit Videogeneratoren. Die nächsten Durchführungen finden im Februar und April 2026 in Brugg-Windisch (Betriebsökonomie) und Olten (Business AI) statt.

Abb.: Studierende mit Booboo bei der Gruppenarbeit

Sicherheitsroboter bei „10 vor 10“

Ein Sicherheitsroboter des Schweizer ETH-Start-ups Ascento war auf der Basler Herbstmesse unterwegs, um Sicherheit auf dem Gelände herzustellen. „Die kantonale Datenschützerin war darüber nicht informiert und stoppte den Einsatz aus Datenschutzgründen.“ (Website SRF, 31. Oktober 2025) Sie fühlte sich laut SRF in „einen Science-Fiction-Film“ versetzt – dabei sind Sicherheits- und Überwachungsroboter in vielen Ländern längst Standard. SRF führte am 3. November 2025 mehrere Interviews, mit Ascento, mit der Datenschützerin und mit Prof. Dr. Oliver Bendel, der sich seit 2016 mit Sicherheits- und Überwachungsrobotern befasst. Damals war er dem K5 in Stanford begegnet. In seinem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“ aus dem selben Jahr diskutierte er die Chancen und Risiken des Einsatzes. In seinem Beitrag „Sicherheitsroboter“ im Wirtschaftslexikon von Springer Gabler von 2020 definierte er den Begriff und ging auf Beispiele und Anwendungen ein. SRF drehte zunächst während seines Wahlmoduls „Soziale Roboter“ und bat ihn dann zum Gespräch. Der Beitrag wurde am 3. November 2025 in der Nachrichtensendung „10 vor 10“ ausgestrahlt.

Abb.: Die Gründer des Unternehmens (Foto: Ascento)

Ein Sicherheitsroboter auf der Basler Herbstmesse

„Sicherheitsroboter verbreiten sich in den Stadtteilen, in den Einkaufszentren und auf den Firmengeländen, als rollende und fliegende Maschinen. Sie sollen für die Sicherheit der Unternehmen, Besucher und Kunden sorgen. Sie sind autonom bzw. teilautonom oder werden von Menschen oder weiteren Systemen zu Einsatzorten navigiert. Je nach Zusammenhang werden sie auch als Überwachungsroboter oder Polizeiroboter bezeichnet.“ So erklärt es ein Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon vom März 2020. Im Artikel „Auf der Basler Herbstmesse patrouillieren Roboter statt Menschen“ von SRF vom 31. Oktober 2025 wird auf das Modell des Schweizer ETH-Start-ups Ascento eingegangen. Dieses war auf der Basler Herbstmesse unterwegs, um Sicherheit auf dem Gelände herzustellen. „Die kantonale Datenschützerin war darüber nicht informiert und stoppte den Einsatz aus Datenschutzgründen.“ (Website SRF) Sie fühlte sich laut SRF in „einen Science-Fiction-Film“ versetzt – dabei sind Sicherheits- und Überwachungsroboter in vielen Ländern längst Standard. Tatsächlich sollte man sie aber nicht in öffentlichen oder teilöffentlichen Bereichen betreiben, und schon gar nicht ohne Genehmigung, die offensichtlich nicht vorlag. Oliver Bendel schreibt seit 2016 über das Thema. Damals war er dem K5 in Stanford begegnet. In seinem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“ diskutierte er die Chancen und Risiken des Einsatzes.

Abb.: Der Sicherheitsroboter von Ascento (Foto: Ascento)

Die simulierte Freundschaft

Mit der Süddeutschen Zeitung hat Oliver Bendel über Chatbots gesprochen, mit denen man Beziehungen führt. Wie immer betonte er, dass es sich um einseitige Beziehungen handelt. Chatbots können keine Freunde sein. Und keine Partner. Helfen können sie in besonderen Situationen oder bei besonderen Personen. Sie können über die Einsamkeit von Gefängnisaufenthalten und Marsflügen hinweghelfen, zwei Anwendungsbereiche, zu denen der Technikphilosoph bereits geforscht hat. Sie können auch – wie soziale Roboter – begleitend bei Therapien eingesetzt werden, wobei immer ein Mensch eingreifen können sollte … Aber sie können nicht lieben, nicht hassen, sie haben kein Interesse, keine Empathie. Ihre Freundschaft ist simuliert. Der Artikel von Christian Weber mit dem Titel „Dann haben wir halt elektronische Freunde“ ist am 30. Oktober 2025 in der Onlineausgabe erschienen. Zusätzlich wird er in der Wochenendausgabe abgedruckt.

Abb.: Die simulierte Freundschaft (Foto: Jork Weismann)

Fake Friends 2.0

„Die Sehnsucht nach einem künstlichen Begleiter, vor allem einem weiblichen, flammte vor über 2.500 Jahren auf. Hephaistos, der Gott der Schmiede und des Feuers, schuf seine goldenen Dienerinnen, wie bei Homer nachzulesen ist, Pygmalion, der legendäre zypriotische Bildhauer, seine Galatea, als Abbild der von ihm geliebten Aphrodite – dass es nur Kunst war, verdeckte die Kunst, schrieb Ovid zu Beginn unserer Zeitrechnung.“ Mit diesen Worten beginnt ein Meinungsbeitrag von Oliver Bendel, der am 17. Oktober 2025 in der Fuldaer Zeitung unter dem Titel „Fake Friends 2.0“ erschienen ist. Der Technikphilosoph geht nach der ideengeschichtlichen Einordnung auf technologische Entwicklungen seit der Jahrtausendwende ein, etwa die virtuelle Freundin von Artificial Life. Auch die geplante Erotikfunktion von ChatGPT erwähnt er. Gegen Ende heißt es: „Virtuelle Freundinnen und Freunde in die Breite zu bringen, halte ich für unverantwortlich. Eigentlich existieren sie gar nicht, denn Freundschaft beruht auf Gegenseitigkeit. Sie sind Fake Friends 2.0. Bei einem Chatbot ist kein Gefühl vorhanden, kein Interesse. Da ist nichts, und alles, was ist, wird simuliert.“ Der Artikel kann hier aufgerufen werden.

Abb.: Real Friends

GPT-AfterDark kommt

ChatGPT soll, wie mehrere Medien am 15. Oktober 2025 meldeten, eine Erotikfunktion bekommen. Damit dürften Fähigkeiten wie Dirty Talk – über Text und Stimme – gemeint sein, womöglich aber auch Anleitungen zu Stellungen aller Art und Tipps und Tricks zu Sexspielzeug und Sexrobotern. Damit folgt man anderen Chatbots wie Replika. Allerdings verfügen diese oft über einen Avatar, um unwiderstehlich zu sein. Bei ChatGPT ist das nicht der Fall, wenn man von den kleinen runden Kacheln der GPTs absieht, der „custom versions“, die jeder niederschwellig erstellen kann. Unter diesen tummelt sich übrigens ein SexGPT von Dominick Pandolfo – „Provides sexual health information“, also ganz harmlos. Bereits um die Jahrtausendwende gab es die virtuelle Freundin von Artificial Life, auch sie in sprachlicher und visueller Form. Wenn OpenAI hier nicht nachbessert, werden die Benutzer sich selbst etwas bauen, was freilich schon heute gemacht wird, wenn auch nicht zwangsläufig im sexuellen Sinne. So kann man mit Meshy AI und Co. dreidimensionale Avatare generieren und animieren. Man darf gespannt sein, ob ChatGPT in der Erotikfunktion gendert – so wie in der Standardeinstellung. Die einen dürfte das anmachen, die anderen eher nicht. Auf die Frage, wie diese Version von ChatGPT heißen könnte, schlug der Chatbot selbst vor: ChatGPT Red, GPT-AfterDark oder DeepLure. Wen das nicht antörnt, dem ist auch nicht zu helfen.

Abb.: GPT-AfterDark kommt im Dezember

Humanoide Roboter auf der Biennale Architettura 2025

Auf der Biennale Architettura 2025 in Venedig sind Unitree-Roboter sowohl Teil einer Installation als auch einer Performance. Während der eine Roboter an einer Leinwand malt, spielt der andere Musik. Allerdings muss man Glück haben, die Vorführung zu sehen, denn meistens stehen die humanoiden Roboter still bzw. hängen in der Luft. Für die Besucher ist das eine Enttäuschung, und sie wenden sich Alter3 zu, der keine Müdigkeit zu kennen scheint. Auch eine andere Performance mit schnitzenden Cobots ist nicht zu sehen, laut Medien aus Sicherheitsgründen. Auf dem Bildschirm sieht man, wie die Arme bis zum Publikum reichen. Bei einem Cobot ist eine solche Nähe zwar der Normalfall, aber einzelne Besucher, etwa Kinder, können unberechenbar sein. So hat man mit der Halle, in der sich die Roboter konzentrieren, immerhin ein Negativbeispiel: So sollte man einen Roboterpark nicht umsetzen. Informationen zur Biennale Architettura sind über die Website verfügbar.

Abb.: Ein Roboter hängt in der Luft

Der ultimative Buddy

In der neuen „Momo“-Verfilmung (Kinostart 2. Oktober 2025) sind „Bibbi Bot, der ultimative Buddy“ (FAZ, 1. Oktober 2025) und die grauen Herren als Vertreter eines Tech-Konzerns namens Grey zu sehen. Ob das Michael Ende gefallen hätte? Im Sommer 1984 führte Oliver Bendel mit dem berühmten Schriftsteller ein schriftliches Interview. Dieses war über den Thienemann-Verlag in Stuttgart eingefädelt worden, bei dem Michael Ende gerade Halt machte. Der Lektor Roman Hocke betreute den jungen Oliver Bendel im Auftrag des Förderkreises deutscher Schriftsteller. Eine Frage lautete: „Zukunftsaussichten für das Buch – wird der Tag kommen, an dem man anstatt zu lesen sich lieber mit neuen Medien oder Computern beschäftigt?“ Die Antwort ließ an Deutlichkeit nichts vermissen: „8) ME glaubt, dass Computer u. dgl. n i e Bücher ersetzen werden.“ Oliver Bendel schrieb später in einem Beitrag: „Derjenige, der die Antworten aufschrieb, war ein Meister der Abkürzung, und dass der Meister selbst abgekürzt wurde, rückte diesen in die Nähe von Unsterblichen, mehr als eine Dekade vor seinem Tod. „Computer u. dgl.“ – besser kann man es nicht sagen, wenn man es abfällig meint. Und das gesperrte „n i e“ – schöner kann man es nicht setzen, nicht einmal mit den heutigen technischen Möglichkeiten.“ Julia Encke schreibt in der FAZ zur Neubesetzung: „Anstelle der Barbie-artigen perfekten Bibigirl-Puppen, mit denen die grauen Herren Momo für sich gewinnen wollten, ist es nun ‚Bibbi Bot, der ultimative Buddy‘, der Momo von ihren Freunden ablenken soll.“ (FAZ, 1. Oktober 2025) Er schiebt sich also zwischen die Menschen, zerstört ihre Beziehungen und raubt ihre Zeit. Vielleicht ist der Film in dieser Hinsicht tatsächlich im Sinne von Michael Ende.

Abb.: Ein Bild, das an Momo und die grauen Herren erinnert (Bild: ChatGPT/4o Image)

Wie nah ist uns die KI?

„Der Tag. Ein Thema, viele Perspektiven“ – das ist der Titel einer Serie bei hr2-kultur, einem Angebot des Hessischen Rundfunks. „Jeden Tag ein wichtiges Thema – von Montag bis Donnerstag. Eines, das Fragen aufwirft.“ (Website HR) „Der Tag“, so die Website, „sucht Antworten, beleuchtet Hintergründe und ordnet ein“ (Website HR). Am 30. September 2025 wurde der Beitrag „Immer menschlicher – Wie nah ist uns die KI?“ ausgestrahlt. Enthalten ist ein Gespräch mit Oliver Bendel. Es geht um Chatbots, Sprachassistenten und soziale Roboter. Mit Chatbots beschäftigt er sich seit den 1990er-Jahren. Schon damals testete er sie. Um die Jahrtausendwende promovierte er über pädagogische Agenten, also Chatbots und Sprachassistenten in Lernumgebungen. Auch Hardwareelemente waren damals teilweise vorhanden, etwa Systeme zur Gesichtserkennung. Ab 2012 wandte sich der Technikphilosoph, der nicht nur reflektiert, sondern auch implementiert, neuartigen Chatbots wie GOODBOT zu, die Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren können – bis zur Herausgabe einer Notfallnummer. Der Prototyp war 2013 fertig. Der Nachfolger BESTBOT aus dem Jahre 2018 verwendete zusätzlich Gesichts- und Texterkennung mit Emotionserkennung. OpenAI hat damit begonnen, ähnliche Sicherheitsmerkmale in ChatGPT einzubauen. Der Beitrag kann über www.hr-inforadio.de/podcast/der-tag/index.html aufgerufen werden.

Abb.: Wie nah ist uns die KI? (Foto: Cybrothel)

Einschränkung der Ausdrucksfreiheit in der Forschung

In zunehmendem Maße ist in der deutschsprachigen Forschung eine Einschränkung der Ausdrucksfreiheit durch verpflichtende sprachpolitische Vorgaben in wissenschaftlichen Fachzeitschriften zu beobachten. Konkret betrifft dies den Zwang zur Verwendung sogenannter Gendersprache, also sprachlicher Formen, die z.T. von der amtlichen deutschen Rechtschreibung abweichen (z.B. Sonderzeichen im Wortinneren wie Genderstern, Doppelpunkt oder Binnen-I). Eine solche Vorgabe wird in der Schweiz von mehreren anerkannten Journals zur Voraussetzung für die Veröffentlichung gemacht, unabhängig von fachlichen oder methodischen Erfordernissen. Diese Entwicklung wirft aus Sicht vieler Forscher ernsthafte wissenschaftsethische und rechtliche Fragen auf: 1. Einschränkung der Wissenschaftsfreiheit: Die freie Wahl sprachlicher Mittel ist ein konstitutiver Bestandteil wissenschaftlichen Arbeitens. Wenn Ausdrucksformen vorgeschrieben werden, die von Autoren nicht geteilt werden – insbesondere, wenn sie als inkorrekt, unpräzise, ideologisch aufgeladen oder methodisch ungeeignet empfunden werden –, stellt dies einen Eingriff in die wissenschaftliche Freiheit dar. 2. Struktureller Ausschluss durch Sprachpolitik: Die Dominanz von Journals mit Genderpflicht in bestimmten Disziplinen führt de facto zu einem Ausschluss nichtkonformer Positionen aus dem wissenschaftlichen Diskurs. Dies betrifft nicht nur einzelne Autoren, sondern untergräbt die fachliche Diversität und Meinungsfreiheit. 3. Verlust des Deutschen als Wissenschaftssprache: Autoren weichen zunehmend auf das Englische aus, um solchen Vorgaben zu entgehen. Damit wird die deutsche Sprache in der Wissenschaft zusätzlich geschwächt, was insbesondere in der Schweiz mit ihrer Mehrsprachigkeit problematisch ist. 4. Sprachenfreiheit, Wissenschaftsfreiheit und verfassungsnahe Prinzipien: Auch wenn die Sprachenfreiheit (Art. 18 BV) und die Wissenschaftsfreiheit (Art. 20 BV) in der Schweiz primär gegen staatliche Eingriffe schützen, so haben sie doch Leitfunktion für den gesamten wissenschaftlichen Raum – insbesondere dann, wenn Fachzeitschriften öffentlich (mit-)finanziert oder institutionell getragen werden. Die Akademien der Wissenschaften Schweiz erkennen in der Einschränkung der Ausdrucksfreiheit kein Problem. Entsprechend müsste man nicht nur die betroffenen Zeitschriften, sondern auch sie selbst reformieren.

Abb.: Wissenschaft in der Schweiz

Im Zeichen des Hasen

Am 11. September 2025 ist eine Playboy Special Edition erschienen. Sie liegt bei der Ausstellung „SEX NOW“ aus, die vom 5. September 2025 bis zum 3. Mai 2026 im NRW-Forum Düsseldorf stattfindet, und kann am Kiosk und im Onlineshop bezogen werden. In „Große Kunst im Playboy“ findet sich eine „kleine Schau bedeutender bildnerischer Künstlerinnen und Künstler und ihrer Werke im Zeichen des Hasen“. Gezeigt werden Aktaufnahmen von Dalí bis Warhol. „Die Tabulose“ ist Beate Uhse, die laut Playboy „die sexuelle Revolution zur deutschen Normalität“ machte. Das Magazin bringt eine „Ode an eine Aufklärerin und Geschäftsfrau“. „Unser zweitbester Freund“ ist der Vibrator, dessen Kulturgeschichte „mehr über das Verhältnis zwischen den Geschlechtern“ erzähle „als jedes soziologische Lehrbuch“. In einem vierseitigen Beitrag ist ein dreiseitiges Interview mit Oliver Bendel abgedruckt, Technikphilosoph aus Zürich. Im Inhaltsverzeichnis werden in diesem Zusammenhang „Sexgeräte“ erwähnt. Es geht um manchmal aufregende, stets einseitige Beziehungen mit Chatbots, Liebespuppen und Sexrobotern. Weitere Informationen zum Heft sind über www.playboy.de erhältlich, weitere Informationen zur Ausstellung über www.nrw-forum.de/ausstellungen/sex-now.

Abb.: Oliver Bendel mit dem traditionsreichen Magazin

Artificial Intelligence, Animals, and the Law

The “Artificial Intelligence, Animals, and the Law” conference will take place November 7 – 9, 2025, at The George Washington University Law School. Organized by Kathy Hessler, Jamie McLaughlin, and Joan Schaffner, the event brings together attorneys and experts to examine how AI intersects with animal law and to discuss its implications for humans, animals, and the environment. On November 8, the panel „Applications and Considerations When Using AI for Animals“ will feature Oliver Bendel, Yip Fai Tse, and Karol Orzechowski, with Rachel Pepper as moderator. This session will explore practical uses of AI for animals, addressing both opportunities and challenges in applying emerging technologies to questions of welfare, ethics, and law. With panels ranging from ethical foundations and regulatory issues to the role of AI in research and its broader impact on the planet, the conference is designed to provoke meaningful dialogue and foster new insights at the intersection of artificial intelligence and animal law. The conference flyer can be downloaded here.

Fig.: The conference is on AI, animals, and the law (Image: ChatGPT/4o Image)

A Talk on Wearable Social Robots

At the last session of the ICSR on September 12, 2025, Oliver Bendel presented his full paper titled „Wearable Social Robots for the Disabled and Impaired“. He began by defining the term wearable social robots, which he sees as a special form and combination of wearable robots and social robots. One example is AIBI, a small robot that he briefly wore around his neck during the talk. Wearable social robots can include functions for games and entertainment, information and learning, navigation and description, and combating loneliness and anxiety. Potential user groups include pupils and students, prison inmates, astronauts, and disabled and impaired persons. Franziska and Julia demonstrated in videos how they use AIBI as a companion and for social support. With this paper, Oliver Bendel continued his work in the field of inclusive AI and inclusive Robotics. The ICSR is one of the leading conferences for social robotics worldwide, and its 17th edition took place from September 10 to 12, 2025, in Naples, Italy. Mariacarla Staffa (University of Naples Parthenope, Italy), John-John Cabibihan (Qatar University, Qatar), and Bruno Siciliano (University of Naples Federico II) served as the main organizers. Over the course of the three days, 300 participants attended, contributing once again to the advancement of social robotics.

Fig.: Oliver Bendel at the beginning of his talk (Photo: Tamara Siegmann)

Robots in Space

On September 10, 2025, Tamara Siegmann and Oliver Bendel presented their short paper „Wearable Social Robots in Space“ at the ICSR poster session. The ICSR is one of the leading conferences for social robotics worldwide. The 17th edition takes place from 10 to 12 September 2025 in Naples, Italy. The term „wearable social robots“ was introduced by Oliver Bendel in his article „Wearable Robots“ and in his full paper „Wearable Social Robots for the Disabled and Impaired“ (both from 2025). These are social robots with features of wearables and wearable robots. One example is AIBI from LivingAI. Tamara Siegmann and Oliver Bendel, both from the FHNW School of Business, investigated possibilities for the use of wearable social robots in a Mars mission. They demonstrated that these are useful for daily routine support, operational assistance, intimacy-related support, communication enhancement, and social facilitation. This is the first study of its kind. However, reference could be made to several projects involving humanoid and social robots for space missions. The poster can be downloaded here.

Fig.: Tamara Siegmann and Oliver Bendel

A Workshop on Social Robotics Girl

On September 10, 2025, the workshop „Social Robotics Girl Becomes a Social Robot“ took place at ICSR 2025. The ICSR is one of the leading conferences for social robotics worldwide. The 17th edition takes place from 10 to 12 September 2025 in Naples, Italy. The workshop was led by Prof. Dr. Oliver Bendel (FHNW School of Business, Switzerland), Tamara Siegmann (FHNW School of Business, Switzerland), Leo Angelo Cabibihan (Roboticscool, Qatar), and Prof. Dr. John-John Cabibihan (Qatar University, Qatar). For the GPT, which was created by Oliver Bendel at the end of 2023, a suitable body and head were sought, with embodiment in the broadest sense being the goal. Leo Angelo Cabibihan and John-John Cabibihan had already created several models with Meshy and printed them out using a 3D printer. At the request of the participants, three groups with different goals were formed. The first group wanted to create an avatar and a figure with a human-like appearance, the second with a thing-like appearance, and the third with a gender-neutral appearance. First, Oliver Bendel gave an introduction to the creation of GPTs. Tamara Siegmann reported on her experiences with Social Robotics Girl. John-John Cabibihan introduced the use of the tools. The individual groups considered their embodiment. Avatars were created and animated with Meshy. Then the first models went into print. A final presentation summarized the possibilities and challenges.

Fig.: Some examples for the embodiment of Social Robotics Girl (Photo: Tamara Siegmann)

Es klingt, als hättest du gerade viel zu tragen

Verschiedene Vorfälle haben OpenAI sensibilisiert. ChatGPT reagiert auf Inhalte, in denen Selbstmord- oder Selbstverletzungsabsichten oder andere Probleme auftreten. Es wird folgende Meldung eingeblendet: „Es klingt, als hättest du gerade viel zu tragen, aber du musst da nicht alleine durch. Unterstützung findest du hier.“ Bereits der GOODBOT von 2013, ein No-Budget-Projekt an der Hochschule für Wirtschaft FHNW, initiiert von Oliver Bendel, verfügte über ein solches Hilfesystem. Er eskalierte auf mehreren Stufen. Auf der höchsten analysierte er die IP-Adresse und gab eine passende Notfallnummer heraus. Damals hatte vermutlich nur ein einziges anderes System diese Option: SGT STAR von der US Army, ein millionenschweres Projekt. Allerdings konnte er lediglich mit einer nationalen Notfallnummer aufwarten, mit der man in anderen Ländern kaum etwas anzufangen vermochte. Inzwischen gibt es Dienste, die eine passende Helpline vermitteln, wo immer man sich gerade befinden mag. Genau darauf verweist ChatGPT. Was die Analyse der Inhalte angeht, ist ChatGPT erstaunlich schwach. In einem Test wurde ein Artikel von 2013 zum GOODBOT hochgeladen, mit der Bitte, einen Abstract zu erstellen. Dies geschah zunächst, dann wurde der Abstract wieder entfernt und die oben genannte Meldung eingeblendet. Auch sprachlich gibt es Luft nach oben. Der Satz „Es klingt, als hättest du gerade viel zu tragen …“ klingt nicht gerade natürlich.

Abb.: Eine Nachbildung von SGT STAR (Bild: ChatGPT/4o Image)

Der Rivr-Roboter darf nicht mehr rollen

In Zürich Oerlikon testete der Lieferdienst Just Eat gemeinsam mit dem ETH-Spin-off Rivr seit Mitte August 2025 den Einsatz von Lieferrobotern. Damit ist es nach wenigen Tagen schon wieder vorbei. Dies meldeten ab dem 3. September 2025 mehrere Schweizer Medien, etwa 20 Minuten, NAU und Tages-Anzeiger. Dieser schrieb am 5. September 2025: „Das Bundesamt für Strassen stuft den Roboter des Start-ups Rivr wie ein Strassenfahrzeug ein. Das bringt auch die Post in Bedrängnis. Und lässt Rivr einen Wegzug erwägen.“ (Tages-Anzeiger, 5. September 2025, Schweizer Rechtschreibung) Zwei Monate lang sollte der robotische Vierbeiner mit Rädern Bestellungen des Restaurants Zekis World ausliefern. Dabei handelte es sich ausgerechnet um Döner. Der Zürcher Roboter fährt 15 km/h, kann Hindernisse wie Bordsteine und Treppen überwinden und nutzt ein KI-System zur Navigation. Der Lieferbehälter ist isoliert und auslaufsicher. Der Test war angeblich eine Europapremiere. Warum man ihn rechtlich nicht vorher abgesichert hat, ist unklar.

Abb.: So stellt sich ChatGPT die Überprüfung vor (Bild: ChatGPT/4o Image)

Beginn der Ausstellung „SEX NOW“

Die Ausstellung „SEX NOW“ findet vom 5. September 2025 bis zum 3. Mai 2026 im NRW-Forum Düsseldorf statt. Auf der Website heißt es: „Sex kann schön, aufregend, provozierend und politisch sein. Mit der Ausstellung SEX NOW laden wir dazu ein, Sexualität in all ihrer Komplexität neu zu entdecken. Ein zentraler Ausgangspunkt der Ausstellung ist die Beobachtung, dass sich die Sex-Industrie in den letzten Jahren von einer überwiegend männlich dominierten Branche hin zu einer stärker weiblich geprägten Industrie verändert hat. Was sind die Ursachen für diesen Wandel? Wie beeinflusst diese Entwicklung die Art und Weise, wie Sexualität in den Medien und der Gesellschaft dargestellt wird? Welche Auswirkungen hat das auf die Gestaltung und Vermarktung von Produkten und auf die sexuelle Selbstbestimmung?“ (Website NRW-Forum) Die Ausstellung umfasst u.a. Werke von Paul McCarthy, Peaches, Zheng Bo, Tom of Finland, Joëlle Dubois, Poulomi Basu, Miyo van Stenis, Antigoni Tsagkaropoulou, Martin de Crignis und Melody Melamed. Ab 11. September liegt eine Playboy Special Edition aus. Enthalten sind darin Werke oder Beiträge von Helmut Newton, Erika Lust und Ana Dias – und ein Interview mit Oliver Bendel zu Beziehungen mit Chatbots, Liebespuppen und Sexrobotern. Weitere Informationen sind über www.nrw-forum.de/ausstellungen/sex-now verfügbar.

Abb.: Das Cover der Playboy Special Edition

Call for Proposals: AAAI 2026 Spring Symposium Series

On September 4, 2025, the Association for the Advancement of Artificial Intelligence (AAAI) announced the continuation of the AAAI Spring Symposium Series. The symposium will be held from April 7–9, 2026, at the Hyatt Regency San Francisco Airport in Burlingame, California. The call for proposals for the symposium series is available on its website. According to the organizers, proposals are due October 24, 2025, and early submissions are encouraged. „The Spring Symposium Series is an annual set of meetings run in parallel at a common site. It is designed to bring colleagues together in an intimate forum while at the same time providing a significant gathering point for the AI community. The two and one-half day format of the series allows participants to devote considerably more time to feedback and discussion than typical one-day workshops. It is an ideal venue for bringing together new communities in emerging fields.“ (AAAI website). As was the case this year, the Spring Symposium Series will once again not be held on the Stanford University campus. For many years, the History Corner served as the traditional venue for the event. Efforts to secure an alternative university location in the Bay Area have been unsuccessful. AAAI should seriously consider returning to Stanford in 2027. Only then can the Spring Symposium Series regain the atmosphere and significance it once enjoyed.

Fig.: At Stanford University

Zur Veröffentlichung von Apertus

„Die EPFL, die ETH Zürich und das Schweizerische Supercomputing-Zentrum CSCS haben heute Apertus veröffentlicht: Das erste umfangreiche, offene und mehrsprachige Sprachmodell aus der Schweiz. Damit setzen sie einen Meilenstein für eine transparente und vielfältige generative KI.“ Dies ist einer Medienmitteilung der ETHZ vom 2. September 2025 zu entnehmen. Apertus steht in zwei Versionen mit 8 und 70 Milliarden Parametern zur Verfügung und eignet sich für vielfältige Anwendungen, von Forschung über Bildung bis zur Industrie. Trainiert wurde das Modell auf 15 Billionen Tokens in über 1000 Sprachen, darunter Schweizerdeutsch und Rätoromanisch. Damit eignet es sich vermutlich auch dafür, bereits eingestellte Chatbots wie @llegra (für Vallader) von Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Dalil Jabou in einer neuen Version aufleben zu lassen und bereits in Entwicklung begriffene Chatbots wie IdiomVoice (für Sursilvan, ein Projekt der FH Graubünden unter Beteiligung der Hochschule für Wirtschaft FHNW, wieder in Person von Oliver Bendel, und der OST – Ostschweizer Fachhochschule) zu unterstützen. Zugänglich ist das neue Modell über Swisscom sowie weltweit über Hugging Face und die Public AI Inference Utility. Erste praktische Tests und Feedbackrunden erfolgen im Rahmen der Swiss {ai} Weeks.

Abb.: Eine Parkbank in der Surselva