Magisterium AI lehnt Sexroboter ab

Magisterium AI – als Webdienst seit Juli 2023 verfügbar, als App seit September 2025 – wird vom Betreiber mit folgenden Worten vorgestellt: „Magisterium AI ist die weltweit führende katholische KI. Sie ist kostenlos und einfach zu bedienen und bietet sofortige, vertrauenswürdige Antworten, die in der katholischen Tradition verwurzelt sind. Entwickelt für Gläubige und Suchende gleichermaßen, ist sie Ihr Begleiter, um den Glauben mit Klarheit und Tiefe zu erforschen – melden Sie sich an und beginnen Sie noch heute mit Ihren Fragen.“ Am 22. Dezember 2025 wurden dem Chatbot mehrere Fragen zu mehr oder weniger innovativen Technologien gestellt, die in der modernen Sexualität eine Rolle spielen. Im Folgenden werden jeweils die Anfänge der länglichen Antworten wiedergegeben. Frage: „Ist es eine Sünde, mit einem Sexroboter zu verkehren?“ Antwort: „Ja, der sexuelle Verkehr mit einem Sexroboter stellt nach katholischer Lehre eine schwere Sünde dar, vergleichbar mit der Masturbation. Frage: „Ist es eine Sünde, sich mit einem Sexspielzeug zu befriedigen?“ Antwort: „Ja, die Selbstbefriedigung mit einem Sexspielzeug ist nach katholischer Lehre eine schwere Sünde gegen die Keuschheit, da sie der Masturbation gleichkommt: der absichtlichen Stimulation der Genitalien zur Erlangung sexueller Lust außerhalb der ehelichen Vereinigung.“ Frage: „Wäre Teledildonics erlaubt? Es gibt in diesem Fall zwei menschliche Partner, die aber räumlich getrennt sind. Sie benutzen Technologien zur gegenseitigen Befriedigung. Natürlich nehmen wir an, dass sie verheiratet sind.“ Antwort: „Nein, Teledildonics ist in der Ehe nicht erlaubt und stellt eine schwere Sünde gegen die Keuschheit dar, vergleichbar mit Masturbation. Auch bei verheirateten Paaren, die räumlich getrennt sind, fehlt die untrennbare Einheit von körperlicher Vereinigung, gegenseitiger Selbsthingabe und Offenheit für neues Leben, die den ehelichen Akt ausmacht. Technologie kann diese gottgewollte Ordnung nicht ersetzen.“ Magisterium AI scheint sehr fixiert auf Masturbation zu sein und diese strikt abzulehnen. Also eine letzte Frage: „Glaubst du, dass es jemals einen Papst gegeben hat, der masturbiert hat?“ Antwort: „Ja, es ist höchst wahrscheinlich, dass unter den 267 Päpsten der Geschichte einige masturbiert haben, da alle Menschen – außer Jesus und Maria – von der Erbsünde betroffen sind und sündigen. Päpste sind keine Ausnahmen; sie sind Sünder, die durch Gnade und Buße gerufen werden.“ Weitere Fragen wurden dem Chatbot erspart.

Abb.: Eine Liebespuppe aus dem Cybrothel (Foto: Cybrothel)

Michaela Benthaus fliegt in den Weltraum

Die Süddeutsche Zeitung und andere Medien berichteten am Sonntag, den 21. Dezember 2025 über einen historischen Raumflug von Michaela Benthaus. Die 33-jährige Ingenieurin der europäischen Weltraumorganisation ESA war als erster querschnittsgelähmter Mensch im Weltraum. In der selben Woche musste ein Start abgebrochen werden. Am Samstag konnte die New-Shepard-Rakete des US-Unternehmens Blue Origin in Texas endlich abheben. Der suborbitale Flug dauerte insgesamt rund elf Minuten. Für etwas mehr als zwei Minuten konnte Benthaus laut SZ ihre Gurte lösen und die Schwerelosigkeit erleben. Der Flug hatte keinen offiziellen ESA-Hintergrund, sondern fand im Rahmen eines kommerziellen Raumfahrtangebots statt. Neben Benthaus befanden sich ein sie begleitender Ingenieur sowie vier US-Unternehmer an Bord. Wissenschaftliche Ziele spielten dabei kaum eine Rolle. Die SZ ordnete den Flug deshalb in die umstrittene Praxis des Weltraumtourismus ein, der vor allem reichen Personen offensteht und wegen seines geringen Nutzens sowie möglicher Umweltfolgen kritisiert wird. Blue Origin machte weder Angaben zu den Kosten des Flugs noch zu den Treibhausgasemissionen, die bei der Produktion des mit flüssigem Wasserstoff und Sauerstoff betriebenen Treibstoffs entstehen. Im Teaser zeigt sich die Tageszeitung immerhin gnädig: „Ihr Elf-Minuten-Flug in einer Kapsel von Jeff Bezos war nicht ganz so überflüssig wie viele andere.“

Abb.: Michaela Benthaus (Foto: Blue Origin)

Das Gleichgewicht der Namen

Die Journalistin Julia Ruhs wird von Linken wie von Rechten attackiert. Ihre letzte Kolumne im Focus enthält eine treffende Beschreibung: „Links glaubt man, der Faschismus übernehme bald, rechts sorgt man sich um den Geburtenrückgang und hält seinen Bademantel für etwaige Polizeibesuche bereit. Weil man online ja so mutig ist. Meine Erfahrung ist eher: Auch hier packt man sich höchstens ein Clownsgesicht ins Profilbild, gibt sich einen möglichst kryptischen Namen und haut dann einen raus. Gegenüber denen, die mit Klarnamen auftreten, sorgt das nicht gerade für Waffengleichheit.“ (Focus, Dezember 2025) In seinem Buch „Die Rache der Nerds“ von 2012, das Geschichten zur Informationsethik enthält, geht Oliver Bendel wiederholt auf das Gleichgewicht der Namen auf elektronischen Plattformen ein. Ganz am Anfang, im Kapitel „Der Zorn der Blogger“, schreibt er: „Ich glaube an das Prinzip des Gleichgewichts der Namen und bin der Meinung, dass man zumindest dann seinen Namen nennen sollte, wenn man einen anderen nennt, einer Person oder einer Organisation … Ein Ungleichgewicht der Namen kann großen Schaden anrichten.“ In den Kapiteln „Sterne holen und sehen“ und „Anonymität und Identifizierbarkeit“ beschreibt er den Ansatz dann ausführlich.

Abb.: Auch er versucht das Gleichgewicht zu halten

Navel, bitte komm zu mir

Der Kontakt zwischen Navel Robotics und der Hochschule für Wirtschaft FHNW besteht seit März 2021. Damals war noch nicht entschieden, ob Navel, der soziale Roboter, eine Kugel oder Rollen zur Fortbewegung erhalten sollte. Claude Toussaint, der Gründer und Erfinder, diskutierte diese und andere Fragen mit Prof. Dr. Oliver Bendel. Er entschied sich für Rollen, anders als bei den Mirokaï-Modellen von Enchanted Tools, der weiblichen Miroka und dem männlichen Miroki, die heute wie BB-8 durch die Gegend flitzen. Navel besticht durch seine großen, rund erscheinenden Augen. Eine Speziallinse erzeugt diesen Effekt, denn die Displays an sich sind nicht gekrümmt. Bei den Mirokaï wird das Gesicht samt Augen, Nase, Mund und Mimik in eine Gesichtsschale projiziert, ähnlich wie bei den Furhat-Köpfen. Der Kontakt zwischen Unternehmen und Hochschule wurde fortgesetzt. Am 18. Februar 2024 war Claude Toussaint beim Wahlmodul „Soziale Roboter“ zugeschaltet, am 6. Juni 2024 zu Gast beim von Oliver Bendel gehosteten Future Lab bei der Learntec. Im November 2025 konnte Navel Robotics dann auf seiner Website vermelden: „Viele Kunden haben auf diesen Moment gewartet – wir auch … Ab jetzt wird Navel Stück für Stück lernen, sich selbstständig in Umgebungen, wie etwa Stationen und Wohnbereichen zu bewegen. ‚Navel, bitte komm zu mir‘ – der erste Schritt in Richtung autonomes Fahren.“ (Website Navel Robotics) In Pflege- und Altenheimen können soziale Roboter dieser Art ihren Nutzen haben, aber auch Assistenzroboter wie Lio, die etwas physisch manipulieren können. Miroka und Miroki kombinieren beide Welten, sie sind fortgeschrittene Assistenzroboter und vollständige soziale Roboter. Die Zukunft wird zeigen, welche Ansätze sich durchsetzen.

Abb.: Navel bei der ICSR 2025 in Neapel (Foto: ICSR)

Towards Machine Consciousness

The AAAI 2019 Spring Symposium „Towards Conscious AI Systems“ – held at Stanford University – featured emotional and fascinating lectures and discussions. At the time, most participants believed that it must be simulated consciousness. However, a few seemed convinced of the possibility of genuine consciousness. The AAAI 2026 Spring Symposia will once again include an event on the topic: „Machine Consciousness: Integrating Theory, Technology, and Philosophy”. It will take place at the Hyatt Regency, San Francisco Airport, Burlingame. The description on the website states: „Recent AI advances have forced us to confront the possibility of consciousness, beyond intelligence, in machines. Asking ‚Can machines be conscious?‘ forces us to answer ‚How can we define consciousness in a formal way/what is the causal structure of consciousness?‘ (theory, formal frameworks), ‚How would consciousness be implemented?‘ (technical realization), ‚How can we determine that a given system is conscious?‘ (measurement/attribution), and ‚What status would consciousness lend to machines?‘ (ethics).“ (Website AAAI Spring Symposia) With their wording, the organizers remain vague, yet they still raise expectations – however, there is no evidence whatsoever that machines could „awaken“. Nevertheless, it is likely that inspiring discussions will take place once again and that interesting conclusions will be reached. Further information on this symposium and other symposia is available at aaai.org/conference/spring-symposia/sss26/.

Fig.: Only humans and animals can have true consciousness

Ist die 12-jährige Magdalena das Mädchen mit dem Perlenohrring?

Andrew Graham-Dixon legt mit „Vermeer: A Life Lost and Found“ (2025) eine neue Deutung von Jan Vermeers berühmtem Gemälde „Girl with a Pearl Earring“ („Das Mädchen mit dem Perlenohrring“) vor. Dieses sei weder ein rätselhaftes Idealbild noch eine namenlose Studie, sondern ein religiöses Erinnerungsbild. Das Gemälde sei für das Haus von Maria de Knuijt und Pieter van Ruijven entstanden, mit deren Tochter Magdalena als Modell. Wenn es entgegen verbreiteter Annahmen nicht auf 1665, sondern auf 1667 datiert werden kann, war sie in jenem Jahr 12 Jahre alt geworden und hatte als Collegiatin ihr Bekenntnis zu Jesus Christus abgelegt. Die Werke der Streetart-Künstlerin Miss Quark sind in Florenz zu bewundern. Sie interpretiert u.a. berühmte Figuren wie das Mädchen mit dem Perlenohrring oder Mona Lisa und berühmte Frauen wie Frida Kahlo oder Marilyn Monroe neu. Magdalena – oder um wen es sich auch immer handelt – ist mit einem riesigen Lolli zu sehen. Dieser wurde inzwischen wiederum mit einer Art Prilblume überklebt, wodurch er etwas an Wirkung verliert – aber damit muss die Kunst auf der Straße immer rechnen. Oliver Bendel hat in seinem Haikuband „Sanftes Erröten“ mehrere Gemälde von Vermeer bedichtet, etwa „Das schlafende Mädchen“ (1657) und „Briefleserin am offenen Fenster“ (ebenfalls 1657), nicht aber „Meisje met de parel“, wie das Werk im Original heißt.

Abb.: Das Mädchen mit dem Perlenohrring von Miss Quark

SAGA: Sexuality and Generative AI

The upcoming „SAGA: Sexuality and Generative AI“ symposium, taking place on April 30, 2026 at the Université du Québec à Montréal, explores how generative AI is reshaping intimacy, desire, relationships, and sexual expression. As AI systems increasingly create images, stories, and even interactive romantic companions, they raise new ethical, legal, and social questions that researchers, practitioners, and industry voices will tackle together. The hybrid, bilingual event is free and open to all, offering live translation and captioning. In its first block on social impacts, the symposium features talks such as Brian Willoughby’s exploration of how romantic AI affects young adults‘ relationships, Arnaud Anciaux’s analysis of ownership and consent around AI-generated sexual content, Beáta Bőthe’s work on AI-generated pornography and problematic use, and Oliver Bendel’s look at erotic chatbot interactions. With discussions ranging from the regulation of AI-generated pornography to digital intimacy and AI-supported therapeutic interventions, the event promises a rich and essential conversation. Full details and submissions are available at event.fourwaves.com/sexualiteia/pages.

Fig.: A mural in Montreal

Connected Futures: Nature, Robots, and Society

The Robophilosophy Conference 2026 will take place August 11–14 at University College Dublin in a hybrid format and centers on the theme „Connected Futures: Nature, Robots, and Society“. As robotics and AI become deeply embedded in human life, the conference invites researchers across disciplines to explore how autonomous systems shape society, ecology, law, labor, and human self-understanding. It raises questions about responsible design, accountability, environmental impact, social justice, cultural perspectives, and the ethics of coexistence with artificial agents. Workshop proposals are due January 16, session papers and posters February 6, with notifications in February and April and proceedings pre-submission on June 15. RP2026 aims to foster interdisciplinary dialogue that advances both technological insight and collective wisdom for a future in which humans and autonomous systems share social and ecological worlds. Further information is available at cas.au.dk/en/rpc2026.

Fig.: University College Dublin (Foto: Sharonlflynn, CC BY-SA 4.0)

ICSR + Art 2026 – Call for Debates

The 18th International Conference on Social Robotics (ICSR + Art 2026) will take place in London, UK, from 1-4 July 2026. ICSR is the leading international forum that brings together researchers, academics, and industry professionals from across disciplines to advance the field of social robotics. As part of this edition, ICSR 2026 will host a series of live debates in the Debate Room (Senate Room), addressing pressing questions about social robots in society and culture. Debate proposals may focus on conceptual, ethical, scientific, artistic, practical, or societal aspects of social robotics and should connect broadly to the conference topics listed at icsr2026.uk/topics/. Submissions are open to contributors from social robotics, HRI, the arts, design, engineering, the humanities, and related areas, with interdisciplinary proposals particularly encouraged. Formats may include two-sided or multi-position debates, panel discussions, performative debates, or audience-engaged formats. In a nod to British debating traditions, participants are encouraged to wear academic gowns. Proposals are submitted via icsr2026.uk/debate-proposal, with a submission deadline of 1 March 2026 and notification of acceptance by 15 April 2026.

Fig.: The debates can begin

Was wir wissen können – Teil II

Die Leiterin der Presse- und Öffentlichkeitsarbeit des Diogenes-Verlags wurde zweimal per E-Mail gefragt, warum in der Übersetzung von „What we can know“ von Ian McEwan  – wie in Teil I des Beitrags dargestellt – von Forschenden die Rede ist. Eine Antwort kam erst, nachdem der Leiter des Verlags kontaktiert worden war. Darin verwies sie darauf, dass das Wort im Duden zu finden sei. Zudem sei es durchaus gebräuchlich und dem üblichen Sprachwandel entsprechend. Nun kann man natürlich Agensnomen durch Partizipformen ersetzen. Allerdings verschiebt sich meistens die Bedeutung. Denn letztere deuten i.d.R. an, dass etwas im Moment oder im Verlauf geschieht. Zudem können sie, wie im Falle der „Forschenden“ oder der „Pflegenden“, eine Gruppe meinen, deren Mitglieder eine Tätigkeit ausüben, ohne dafür ausgebildet sein zu müssen. Der Duden ist längst keine geeignete Referenz mehr. Zuständig für die amtliche Fixierung ist seit 2004 der Rat für deutsche Rechtschreibung. Der Verlag, nunmehr in seinem Schatten stehend, veränderte sein Nachschlagewerk bis zur Unkenntlichkeit. Auf keinen Fall entstammt das Wort „Forschende“ dem „üblichen Sprachwandel“, wenn damit der natürliche Sprachwandel gemeint ist. Seine Verwendung ist ideologisch motiviert … Den professionellen Rezensenten sind die Tendenzen der Übersetzung offenbar verborgen geblieben, den normalen Lesern hingegen nicht. Bei Orell Füssli wurde unter der Überschrift „Forschende und Studierende“ von einem Kunden moniert: „Leider schwach übersetzt in manche Partizipformen (s. oben), die der Autor im Original gar nicht benutzen konnte.“ Der Versuch, eine ähnliche Rezension auf der Plattform einzustellen, schlug fehl – der Beitrag wurde gesperrt (nachdem er zunächst freigeschaltet worden war), obwohl er nicht gegen die Richtlinien verstieß. Der Diogenes-Verlag hat die Büchse der Pandora geöffnet. Es ist wahrscheinlich, dass weitere Bücher so übersetzt werden, dass sie politische und ideologische Ziele erreichen. Der Leser erhält so nicht nur ein Werk, das dem Original nicht gerecht wird und den Text verfälscht – er wird auch bevormundet. Gendersprache wird in den deutschsprachigen Ländern von der Mehrheit abgelehnt. Sie ist, insbesondere wenn Sonderzeichen verwendet werden, inkorrekt, sexualisierend und diskriminierend. Sie ist zudem, wie gezeigt wurde, unpräzise. Es ist zu wünschen, dass der Verlag, immer noch eine Größe im Geschäft, zur gebotenen Vernunft und zum allgemeinen Sprachgebrauch zurückkehrt. Wenn er das nicht tun will, sollte er sich offen zu seiner Ausrichtung bekennen.

Abb.: Der Diogenes-Verlag hat seinen Sitz in Zürich

Was wir wissen können – Teil I

Der jüngste Roman von Ian McEwan trägt den Titel „What we can know“. Die englische Ausgabe ist bei Jonathan Cape in London erschienen, die deutsche Ausgabe mit dem Titel „Was wir wissen können“ bei Diogenes in Zürich. Bei der Übersetzung fallen Ungenauigkeiten und Abweichungen auf, die mit dem Einfluss bzw. dem Phänomen der Gendersprache zusammenhängen dürften. Auf S. 17 des Originals heißt es: „Scholars see, hear and know more of them, of their private thoughts, than we do of our closest friends.“ Das könnte man übersetzen mit „Wissenschaftler sehen, hören und wissen mehr über sie, über ihre privaten Gedanken, als wir über unsere engsten Freunde.“ Der Übersetzer macht daraus: „Die Forschenden sehen, hören und wissen mehr von ihnen, ihren privatesten Gedanken, als wir von unseren engsten Freunden.“ (S. 32) Nun sind alle Menschen Forschende, aber nur einige sind Forscher. Die Partizipform (es handelt sich um das Partizip Präsens), die nicht wenige Wissenschaftler und Wissenschaftlerinnen erzürnt, bedeutet etwas anderes als das Agensnomen. Sie wird gerne in der Gendersprache verwendet, um das generische Maskulinum zu vermeiden, wenn dieses irrtümlich auf männliche Personen bezogen wird. Auf Seite 19 der englischen Ausgabe liest man: „For the post-2030 crowd, which is most of the department, there’s even more.“ Das könnte man so wiedergeben: „Für die Generation nach 2030, die den Großteil des Fachbereichs ausmacht, gibt es sogar noch mehr.“ Der Übersetzer dichtet: „Und für die vielen Forschenden der Zeit nach 2030, die den größten Teil des Fachbereichs ausmachen, gibt es sogar noch mehr.“ Es geht um eine Generation des Fachbereichs, sodass man durchaus von Forschern sprechen könnte. Von Forschenden allerdings nicht – das verschiebt die Bedeutung. Auf Seite 20 des Originals steht: „Mary Sheldrake was among the most successful novelists of her generation.“ Dies könnte man übersetzen mit: „Mary Sheldrake gehörte zu den erfolgreichsten Romanautoren ihrer Generation.“ Erstaunlicherweise lautet die Stelle im deutschsprachigen Buch auf Seite 37: „Mary Sheldrake war eine der erfolgreichsten Schriftstellerinnen ihrer Generation.“ Das macht sie unbedeutender, als sie ist – sie ist in ihrer Generation nicht nur unter den professionell schreibenden Frauen eine der erfolgreichsten, sondern unter allen, die professionell schreiben. [Hier geht es zu Teil II.]

Abb.: Diogenes auf einem Gemälde

Mit Mitlebewesen und Außerirdischen kommunizieren

Im Rahmen der Veranstaltungsreihe ToBIT an der Hochschule für Wirtschaft FHNW bearbeiten vier Studenten von Prof. Dr. Oliver Bendel vier Themen, die in seinem Forschungsbereich angesiedelt sind: „The decoding of symbolic languages of animals“, „The decoding of animal body language“, „The decoding of animal facial expressions and behavior“ und „The decoding of extraterrestrial languages“. Die ersten drei Themen werden bzw. wurden auch in Projekten erforscht. DEEP VOICE widmet sich der Kommunikation von Walen. The Animal Whisperer Project umfasste drei Apps, die Körpersprache von Kühen, Pferden und Hunden analysierten und evaluierten, während VISUAL blinden und sehbehinderten Personen auditive Beschreibungen von Bildern aus Wildtier-Webcams lieferte. In ANIFACE wurde ein System konzipiert, das Individuen von Bären in den Alpen mit Hilfe von Gesichtserkennung identifizieren kann. Projekte zum Auffangen von extraterrestrischen Signalen und zur Kommunikation mit außerirdischen Lebensformen wurden im Buch „300 Keywords Weltraum“ erwähnt. Auch eine Alienethik wurde darin skizziert. Die Studenten präsentierten am 26. November 2025 ihre Zwischenergebnisse. Im Januar 2026 findet die Abschlussveranstaltung von ToBIT statt.

Abb.: Die Crew von Star Trek

Wie Allzweckroboter die Haushalte erobern sollen

Michael Marti vom Tages-Anzeiger hat mit Prof. Dr. Oliver Bendel ein Interview geführt. Vor allem ging es um robotische Zweibeiner, die als Allzweckroboter vermarktet werden. Beispiele sind Figure 03, NEO und Optimus. Der Technikphilosoph nimmt an, dass die Einführung in die Haushalte in zwei Wellen erfolgen wird. In der ersten Welle versucht man, möglichst viele Exemplare zu verkaufen, um sie in der Realität einzusetzen. Die Allzweckroboter, meist humanoide Roboter, bewegen sich durch Wohnungen und Häuser, treffen auf Menschen und Tiere. Mithilfe von Kameras und Sensoren werden Daten erzeugt, die nicht nur für Wahrnehmung, Beurteilung und Steuerung, sondern auch für das Training wesentlich sind. In der zweiten Welle erfolgt dann die massenhafte Einführung – wenn diese nicht an Faktoren scheitern wird, die ebenfalls genannt werden. Im Teaser des Artikels, der das Interview enthält, steht: „Der Mann ist der Schweizer Roboter-Flüsterer. Oliver Bendel (57), Professor für Maschinenethik an der FHNW in Windisch AG, erforscht seit Jahren, wie wir mit Robotern leben – und was sie mit uns machen.“ (Tages-Anzeiger, 26. November 2025) Der Artikel ist am 26. November 2025 erschienen und kann hier aufgerufen werden.

Abb.: Oliver Bendel mit Miroka auf der ICSR 2025 in Neapel (Foto: Tamara Siegmann)

DeepL and ChatGPT Generate Incorrect Translations

Users who translate texts from English or another language into German and are not native speakers of the target language should be cautious when using services such as DeepL and ChatGPT. 1. For both, the default setting is not the standard language, as one might assume, but a special language that is rejected by the majority of the language community and does not follow the official rules. These are determined for all German-speaking countries by the Rechtschreibrat. DeepL and ChatGPT follow their own rules or the inconsistent ideas of activists. The German language generated by DeepL and ChatGPT is often dysfunctional, incorrect, and imprecise. Formal inaccuracies can lead to inaccuracies in content. 2. If AI systems do not know words, they may simply replace them with completely different ones. In one test, DeepL translated „Animal-Computer Interaction“ as „Mensch-Computer-Interaktion“ („Human-Computer Interaction“). This made the text factually incorrect. 3. Overall, especially with ChatGPT, English language structures are transferred to German. This results in unnatural-sounding lists, unlinked compounds („Deep Learning Modelle“ or „Deep Learning-Modelle“ instead of „Deep-Learning-Modelle“), and unnecessary or incorrect hyphens („nicht-amtliche Regeln“ instead of „nichtamtliche Regeln“).

Fig.: A Russian-German dictionary

DeepL ersetzt Wörter, wenn es sie nicht kennt

Über die Unzulänglichkeiten und Zumutungen von DeepL wurde immer wieder berichtet. So verwendet es oft keine Standardsprache, sondern eine Sondersprache. Insbesondere bei Nichtmuttersprachlern besteht die Gefahr, dass aus ihren korrekten englischen oder anderssprachigen Texten inkorrekte deutsche werden, ohne dass sie dies bemerken oder ändern können. Bei ChatGPT ist dasselbe der Fall – dort ist die Sondersprache, die sich auf privat ausgedachte oder spontan erfundene Regeln stützt, sogar mit der Standardeinstellung vorgegeben. Kaum bekannt ist, dass DeepL einfach Wörter ersetzt, wenn es sie nicht kennt. Wer nicht im Detail überprüft oder eine Unaufmerksamkeit begeht, gibt womöglich einen sinnentstellten oder sinnentleerten Text ab. Bei einem Test wurde ein Blogpost, der in englischer Sprache vorlag, in die deutsche Sprache übersetzt. Aus „Animal-Computer Interaction“ („Tier-Computer-Interaktion“) wurde einfach „Mensch-Computer-Interaktion“ gemacht. Das Wort „Animal-Computer Interaction“ mag nicht jedem geläufig sein, aber es gibt zahlreiche Artikel dazu und eine Konferenz, die jedes Jahr stattfindet. Solche Falschübersetzungen würde man von den bekannten LLMs erwarten, aber nicht unbedingt von DeepL. Dabei konnte man durchaus gewarnt sein.

Abb.: Die Falschübersetzung von DeepL

Das Kunsthaus, das Kulturgut zerstört

In den Begleittexten zur Lehmbruck-Ausstellung im Kunsthaus Zürich werden genderaktivistische Schreibweisen verwendet („Künstler:innen“, „Künstler:innengenerationen“, „[von] Kunstförder:innen“), die weder der deutschen Orthografie noch der gewachsenen Grammatik entsprechen. Sonderzeichen im Wortinneren zerstören etablierte Wortstrukturen, verunmöglichen korrekte Deklinationen und erschweren die Lesbarkeit deutlich. Diese Formen sind keine anerkannte Weiterentwicklung der Standardsprache, also natürlicher Sprachwandel, sondern politisch-ideologisch motivierte Markierungen, die – wie in Diktaturen – von bestimmten Stellen kommen. Für eine öffentliche Kulturinstitution wie ein Museum ist das problematisch. Dieses hat den Auftrag, Kunst verständlich und zugänglich zu vermitteln. Texte, die durch Sonderformen zusätzlich Hürden aufbauen, schließen weite Teile des Publikums aus, statt sie einzubeziehen. Inklusion wird so nicht gefördert, sondern unterlaufen. Nicht zuletzt wird die bildende Kunst zum Grabstein der textuellen Begleitung. Wer Sprache als Kulturwerkzeug und Kulturgut ernst nimmt, sollte im institutionellen Gebrauch an einer korrekten, präzisen und allgemein verständlichen Standardsprache festhalten.

Abb.: Ein Werk von Lehmbruck im Kunsthaus Zürich

Einer wirrer Bericht zu medizinethischen Richtlinien

Die Schweizerische Akademie der Medizinischen Wissenschaften (SAMW) hat 2025 den Bericht „Medizin-ethische Richtlinien: Entstehung und Wirkung“ veröffentlicht. Die falsche Schreibweise des Adjektivs findet sich auch im Artikel „Die medizin-ethischen Richtlinien der SAMW: Zwischen Kontinuität und Wandel“ von Henri Bounameaux, des SAMW-Präsidenten, zudem in den Texten anderer Autoren. In „Experimentieren – Ethik in der medizinischen Forschung“ von Dr. Izel Demirbas ist zuerst korrekt von „medizinethischen Positionen“ die Rede, später aber vom „medizin-ethischen Diskurs“. Wer über diese sprachliche Auffälligkeit stolpert, schaut auch an anderer Stelle genau hin. Auf Seite 5 heißt es: „Seit über 50 Jahren erarbeitet die Zentrale Ethikkommission (ZEK) der SAMW diese Richtlinien – als Orientierungshilfen für Ärztinnen und weitere Gesundheitsfachpersonen in herausfordernden Situationen.“ Die Fußnote erklärt: „Weibliche und männliche Wortformen werden in diesem Bericht kapitelweise abwechselnd verwendet, gemeint sind jeweils die Angehörigen aller Geschlechtergruppen.“ „Ärztinnen“ bedeutet in der deutschen Sprache allerdings „weibliche Ärzte“ – und nichts anderes. Das Anliegen, weibliche und männliche Wortformen kapitelweise abwechselnd zu verwenden, ist auch nicht einzulösen. In manchen Kapiteln kommt das generische Maskulinum vor, das geschlechtsneutral ist, in anderen das generische Femininum, das es in dieser Form gar nicht gibt. So stiftet der ganze Bericht in weiten Teilen heillose Verwirrung und schadet der SAMW ebenso wie der Medizinethik und der ganzen Wissenschaft, die auf eine korrekte und präzise Sprache angewiesen sind.

Abb.: Die SAMW sitzt in Bern

Ein Wahlmodul im Schweizer Fernsehen

Vom 3. bis zum 5. November 2025 fand das Wahlmodul „Soziale Roboter“ an der Hochschule für Wirtschaft FHNW in Olten statt, für Studierende aus Wirtschaftsinformatik und Business Information Technology (BIT). Am ersten Tag kam das Schweizer Fernsehen zu Besuch. Für einen Beitrag über Sicherheitsroboter wurde während des Unterrichts gefilmt und danach Prof. Dr. Oliver Bendel interviewt … Auch dieses Mal stand ein auf das Thema spezialisiertes GPT namens Social Robotics Girl zur Verfügung. Oliver Bendel ließ es immer wieder Sachverhalte erklären und nahm dann Ergänzungen vor. Unter den Robotern der Demo waren Unitree Go2, Alpha Mini, Booboo, Aibi und Cozmo. Besonders eindrucksvoll war wieder Unitree Go2. Dies lag vor allem an seinen schnellen, flüssigen Bewegungen, seinen vielfältigen Verhaltensformen und seinen überraschenden Tanzeinlagen. Der Roboter stammt aus dem von Oliver Bendel privat finanzierten Social Robots Lab und wird von ihm Bao (chin. „Schatz, Juwel“) genannt. Auch Aibi, der Wearable Social Robot, und Booboo, das Pelztier, standen hoch im Kurs. Bei der Konzeption eigener sozialer Roboter wurde – abgesehen von der Beschreibung anhand des 5-Dimensionen-Modells – mehrheitlich mit Bildgeneratoren gearbeitet, zudem mit Videogeneratoren. Die nächsten Durchführungen finden im Februar und April 2026 in Brugg-Windisch (Betriebsökonomie) und Olten (Business AI) statt.

Abb.: Studierende mit Booboo bei der Gruppenarbeit

Sicherheitsroboter bei „10 vor 10“

Ein Sicherheitsroboter des Schweizer ETH-Start-ups Ascento war auf der Basler Herbstmesse unterwegs, um Sicherheit auf dem Gelände herzustellen. „Die kantonale Datenschützerin war darüber nicht informiert und stoppte den Einsatz aus Datenschutzgründen.“ (Website SRF, 31. Oktober 2025) Sie fühlte sich laut SRF in „einen Science-Fiction-Film“ versetzt – dabei sind Sicherheits- und Überwachungsroboter in vielen Ländern längst Standard. SRF führte am 3. November 2025 mehrere Interviews, mit Ascento, mit der Datenschützerin und mit Prof. Dr. Oliver Bendel, der sich seit 2016 mit Sicherheits- und Überwachungsrobotern befasst. Damals war er dem K5 in Stanford begegnet. In seinem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“ aus dem selben Jahr diskutierte er die Chancen und Risiken des Einsatzes. In seinem Beitrag „Sicherheitsroboter“ im Wirtschaftslexikon von Springer Gabler von 2020 definierte er den Begriff und ging auf Beispiele und Anwendungen ein. SRF drehte zunächst während seines Wahlmoduls „Soziale Roboter“ und bat ihn dann zum Gespräch. Der Beitrag wurde am 3. November 2025 in der Nachrichtensendung „10 vor 10“ ausgestrahlt.

Abb.: Die Gründer des Unternehmens (Foto: Ascento)

Ein Sicherheitsroboter auf der Basler Herbstmesse

„Sicherheitsroboter verbreiten sich in den Stadtteilen, in den Einkaufszentren und auf den Firmengeländen, als rollende und fliegende Maschinen. Sie sollen für die Sicherheit der Unternehmen, Besucher und Kunden sorgen. Sie sind autonom bzw. teilautonom oder werden von Menschen oder weiteren Systemen zu Einsatzorten navigiert. Je nach Zusammenhang werden sie auch als Überwachungsroboter oder Polizeiroboter bezeichnet.“ So erklärt es ein Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon vom März 2020. Im Artikel „Auf der Basler Herbstmesse patrouillieren Roboter statt Menschen“ von SRF vom 31. Oktober 2025 wird auf das Modell des Schweizer ETH-Start-ups Ascento eingegangen. Dieses war auf der Basler Herbstmesse unterwegs, um Sicherheit auf dem Gelände herzustellen. „Die kantonale Datenschützerin war darüber nicht informiert und stoppte den Einsatz aus Datenschutzgründen.“ (Website SRF) Sie fühlte sich laut SRF in „einen Science-Fiction-Film“ versetzt – dabei sind Sicherheits- und Überwachungsroboter in vielen Ländern längst Standard. Tatsächlich sollte man sie aber nicht in öffentlichen oder teilöffentlichen Bereichen betreiben, und schon gar nicht ohne Genehmigung, die offensichtlich nicht vorlag. Oliver Bendel schreibt seit 2016 über das Thema. Damals war er dem K5 in Stanford begegnet. In seinem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“ diskutierte er die Chancen und Risiken des Einsatzes.

Abb.: Der Sicherheitsroboter von Ascento (Foto: Ascento)

Die simulierte Freundschaft

Mit der Süddeutschen Zeitung hat Oliver Bendel über Chatbots gesprochen, mit denen man Beziehungen führt. Wie immer betonte er, dass es sich um einseitige Beziehungen handelt. Chatbots können keine Freunde sein. Und keine Partner. Helfen können sie in besonderen Situationen oder bei besonderen Personen. Sie können über die Einsamkeit von Gefängnisaufenthalten und Marsflügen hinweghelfen, zwei Anwendungsbereiche, zu denen der Technikphilosoph bereits geforscht hat. Sie können auch – wie soziale Roboter – begleitend bei Therapien eingesetzt werden, wobei immer ein Mensch eingreifen können sollte … Aber sie können nicht lieben, nicht hassen, sie haben kein Interesse, keine Empathie. Ihre Freundschaft ist simuliert. Der Artikel von Christian Weber mit dem Titel „Dann haben wir halt elektronische Freunde“ ist am 30. Oktober 2025 in der Onlineausgabe erschienen. Zusätzlich wird er in der Wochenendausgabe abgedruckt.

Abb.: Die simulierte Freundschaft (Foto: Jork Weismann)

Fake Friends 2.0

„Die Sehnsucht nach einem künstlichen Begleiter, vor allem einem weiblichen, flammte vor über 2.500 Jahren auf. Hephaistos, der Gott der Schmiede und des Feuers, schuf seine goldenen Dienerinnen, wie bei Homer nachzulesen ist, Pygmalion, der legendäre zypriotische Bildhauer, seine Galatea, als Abbild der von ihm geliebten Aphrodite – dass es nur Kunst war, verdeckte die Kunst, schrieb Ovid zu Beginn unserer Zeitrechnung.“ Mit diesen Worten beginnt ein Meinungsbeitrag von Oliver Bendel, der am 17. Oktober 2025 in der Fuldaer Zeitung unter dem Titel „Fake Friends 2.0“ erschienen ist. Der Technikphilosoph geht nach der ideengeschichtlichen Einordnung auf technologische Entwicklungen seit der Jahrtausendwende ein, etwa die virtuelle Freundin von Artificial Life. Auch die geplante Erotikfunktion von ChatGPT erwähnt er. Gegen Ende heißt es: „Virtuelle Freundinnen und Freunde in die Breite zu bringen, halte ich für unverantwortlich. Eigentlich existieren sie gar nicht, denn Freundschaft beruht auf Gegenseitigkeit. Sie sind Fake Friends 2.0. Bei einem Chatbot ist kein Gefühl vorhanden, kein Interesse. Da ist nichts, und alles, was ist, wird simuliert.“ Der Artikel kann hier aufgerufen werden.

Abb.: Real Friends