Ist die 12-jährige Magdalena das Mädchen mit dem Perlenohrring?

Andrew Graham-Dixon legt mit „Vermeer: A Life Lost and Found“ (2025) eine neue Deutung von Jan Vermeers berühmtem Gemälde „Girl with a Pearl Earring“ („Das Mädchen mit dem Perlenohrring“) vor. Dieses sei weder ein rätselhaftes Idealbild noch eine namenlose Studie, sondern ein religiöses Erinnerungsbild. Das Gemälde sei für das Haus von Maria de Knuijt und Pieter van Ruijven entstanden, mit deren Tochter Magdalena als Modell. Wenn es entgegen verbreiteter Annahmen nicht auf 1665, sondern auf 1667 datiert werden kann, war sie in jenem Jahr 12 Jahre alt geworden und hatte als Collegiatin ihr Bekenntnis zu Jesus Christus abgelegt. Die Werke der Streetart-Künstlerin Miss Quark sind in Florenz zu bewundern. Sie interpretiert u.a. berühmte Figuren wie das Mädchen mit dem Perlenohrring oder Mona Lisa und berühmte Frauen wie Frida Kahlo oder Marilyn Monroe neu. Magdalena – oder um wen es sich auch immer handelt – ist mit einem riesigen Lolli zu sehen. Dieser wurde inzwischen wiederum mit einer Art Prilblume überklebt, wodurch er etwas an Wirkung verliert – aber damit muss die Kunst auf der Straße immer rechnen. Oliver Bendel hat in seinem Haikuband „Sanftes Erröten“ mehrere Gemälde von Vermeer bedichtet, etwa „Das schlafende Mädchen“ (1657) und „Briefleserin am offenen Fenster“ (ebenfalls 1657), nicht aber „Meisje met de parel“, wie das Werk im Original heißt.

Abb.: Das Mädchen mit dem Perlenohrring von Miss Quark

SAGA: Sexuality and Generative AI

The upcoming „SAGA: Sexuality and Generative AI“ symposium, taking place on April 30, 2026 at the Université du Québec à Montréal, explores how generative AI is reshaping intimacy, desire, relationships, and sexual expression. As AI systems increasingly create images, stories, and even interactive romantic companions, they raise new ethical, legal, and social questions that researchers, practitioners, and industry voices will tackle together. The hybrid, bilingual event is free and open to all, offering live translation and captioning. In its first block on social impacts, the symposium features talks such as Brian Willoughby’s exploration of how romantic AI affects young adults‘ relationships, Arnaud Anciaux’s analysis of ownership and consent around AI-generated sexual content, Beáta Bőthe’s work on AI-generated pornography and problematic use, and Oliver Bendel’s look at erotic chatbot interactions. With discussions ranging from the regulation of AI-generated pornography to digital intimacy and AI-supported therapeutic interventions, the event promises a rich and essential conversation. Full details and submissions are available at event.fourwaves.com/sexualiteia/submission.

Fig.: A mural in Montreal

Connected Futures: Nature, Robots, and Society

The Robophilosophy Conference 2026 will take place August 11–14 at University College Dublin in a hybrid format and centers on the theme „Connected Futures: Nature, Robots, and Society“. As robotics and AI become deeply embedded in human life, the conference invites researchers across disciplines to explore how autonomous systems shape society, ecology, law, labor, and human self-understanding. It raises questions about responsible design, accountability, environmental impact, social justice, cultural perspectives, and the ethics of coexistence with artificial agents. Workshop proposals are due January 16, session papers and posters February 6, with notifications in February and April and proceedings pre-submission on June 15. RP2026 aims to foster interdisciplinary dialogue that advances both technological insight and collective wisdom for a future in which humans and autonomous systems share social and ecological worlds. Further information is available at cas.au.dk/en/rpc2026.

Fig.: University College Dublin (Foto: Sharonlflynn, CC BY-SA 4.0)

ICSR + Art 2026 – Call for Debates

The 18th International Conference on Social Robotics (ICSR + Art 2026) will take place in London, UK, from 1-4 July 2026. ICSR is the leading international forum that brings together researchers, academics, and industry professionals from across disciplines to advance the field of social robotics. As part of this edition, ICSR 2026 will host a series of live debates in the Debate Room (Senate Room), addressing pressing questions about social robots in society and culture. Debate proposals may focus on conceptual, ethical, scientific, artistic, practical, or societal aspects of social robotics and should connect broadly to the conference topics listed at icsr2026.uk/topics/. Submissions are open to contributors from social robotics, HRI, the arts, design, engineering, the humanities, and related areas, with interdisciplinary proposals particularly encouraged. Formats may include two-sided or multi-position debates, panel discussions, performative debates, or audience-engaged formats. In a nod to British debating traditions, participants are encouraged to wear academic gowns. Proposals are submitted via icsr2026.uk/debate-proposal, with a submission deadline of 1 March 2026 and notification of acceptance by 15 April 2026.

Fig.: The debates can begin

Was wir wissen können – Teil II

Die Leiterin der Presse- und Öffentlichkeitsarbeit des Diogenes-Verlags wurde zweimal per E-Mail gefragt, warum in der Übersetzung von „What we can know“ von Ian McEwan  – wie in Teil I des Beitrags dargestellt – von Forschenden die Rede ist. Eine Antwort kam erst, nachdem der Leiter des Verlags kontaktiert worden war. Darin verwies sie darauf, dass das Wort im Duden zu finden sei. Zudem sei es durchaus gebräuchlich und dem üblichen Sprachwandel entsprechend. Nun kann man natürlich Agensnomen durch Partizipformen ersetzen. Allerdings verschiebt sich meistens die Bedeutung. Denn letztere deuten i.d.R. an, dass etwas im Moment oder im Verlauf geschieht. Zudem können sie, wie im Falle der „Forschenden“ oder der „Pflegenden“, eine Gruppe meinen, deren Mitglieder eine Tätigkeit ausüben, ohne dafür ausgebildet sein zu müssen. Der Duden ist längst keine geeignete Referenz mehr. Zuständig für die amtliche Fixierung ist seit 2004 der Rat für deutsche Rechtschreibung. Der Verlag, nunmehr in seinem Schatten stehend, veränderte sein Nachschlagewerk bis zur Unkenntlichkeit. Auf keinen Fall entstammt das Wort „Forschende“ dem „üblichen Sprachwandel“, wenn damit der natürliche Sprachwandel gemeint ist. Seine Verwendung ist ideologisch motiviert … Den professionellen Rezensenten sind die Tendenzen der Übersetzung offenbar verborgen geblieben, den normalen Lesern hingegen nicht. Bei Orell Füssli wurde unter der Überschrift „Forschende und Studierende“ von einem Kunden moniert: „Leider schwach übersetzt in manche Partizipformen (s. oben), die der Autor im Original gar nicht benutzen konnte.“ Der Versuch, eine ähnliche Rezension auf der Plattform einzustellen, schlug fehl – der Beitrag wurde gesperrt (nachdem er zunächst freigeschaltet worden war), obwohl er nicht gegen die Richtlinien verstieß. Der Diogenes-Verlag hat die Büchse der Pandora geöffnet. Es ist wahrscheinlich, dass weitere Bücher so übersetzt werden, dass sie politische und ideologische Ziele erreichen. Der Leser erhält so nicht nur ein Werk, das dem Original nicht gerecht wird und den Text verfälscht – er wird auch bevormundet. Gendersprache wird in den deutschsprachigen Ländern von der Mehrheit abgelehnt. Sie ist, insbesondere wenn Sonderzeichen verwendet werden, inkorrekt, sexualisierend und diskriminierend. Sie ist zudem, wie gezeigt wurde, unpräzise. Es ist zu wünschen, dass der Verlag, immer noch eine Größe im Geschäft, zur gebotenen Vernunft und zum allgemeinen Sprachgebrauch zurückkehrt. Wenn er das nicht tun will, sollte er sich offen zu seiner Ausrichtung bekennen.

Abb.: Der Diogenes-Verlag hat seinen Sitz in Zürich

Was wir wissen können – Teil I

Der jüngste Roman von Ian McEwan trägt den Titel „What we can know“. Die englische Ausgabe ist bei Jonathan Cape in London erschienen, die deutsche Ausgabe mit dem Titel „Was wir wissen können“ bei Diogenes in Zürich. Bei der Übersetzung fallen Ungenauigkeiten und Abweichungen auf, die mit dem Einfluss bzw. dem Phänomen der Gendersprache zusammenhängen dürften. Auf S. 17 des Originals heißt es: „Scholars see, hear and know more of them, of their private thoughts, than we do of our closest friends.“ Das könnte man übersetzen mit „Wissenschaftler sehen, hören und wissen mehr über sie, über ihre privaten Gedanken, als wir über unsere engsten Freunde.“ Der Übersetzer macht daraus: „Die Forschenden sehen, hören und wissen mehr von ihnen, ihren privatesten Gedanken, als wir von unseren engsten Freunden.“ (S. 32) Nun sind alle Menschen Forschende, aber nur einige sind Forscher. Die Partizipform (es handelt sich um das Partizip Präsens), die nicht wenige Wissenschaftler und Wissenschaftlerinnen erzürnt, bedeutet etwas anderes als das Agensnomen. Sie wird gerne in der Gendersprache verwendet, um das generische Maskulinum zu vermeiden, wenn dieses irrtümlich auf männliche Personen bezogen wird. Auf Seite 19 der englischen Ausgabe liest man: „For the post-2030 crowd, which is most of the department, there’s even more.“ Das könnte man so wiedergeben: „Für die Generation nach 2030, die den Großteil des Fachbereichs ausmacht, gibt es sogar noch mehr.“ Der Übersetzer dichtet: „Und für die vielen Forschenden der Zeit nach 2030, die den größten Teil des Fachbereichs ausmachen, gibt es sogar noch mehr.“ Es geht um eine Generation des Fachbereichs, sodass man durchaus von Forschern sprechen könnte. Von Forschenden allerdings nicht – das verschiebt die Bedeutung. Auf Seite 20 des Originals steht: „Mary Sheldrake was among the most successful novelists of her generation.“ Dies könnte man übersetzen mit: „Mary Sheldrake gehörte zu den erfolgreichsten Romanautoren ihrer Generation.“ Erstaunlicherweise lautet die Stelle im deutschsprachigen Buch auf Seite 37: „Mary Sheldrake war eine der erfolgreichsten Schriftstellerinnen ihrer Generation.“ Das macht sie unbedeutender, als sie ist – sie ist in ihrer Generation nicht nur unter den professionell schreibenden Frauen eine der erfolgreichsten, sondern unter allen, die professionell schreiben. [Hier geht es zu Teil II.]

Abb.: Diogenes auf einem Gemälde

Mit Mitlebewesen und Außerirdischen kommunizieren

Im Rahmen der Veranstaltungsreihe ToBIT an der Hochschule für Wirtschaft FHNW bearbeiten vier Studenten von Prof. Dr. Oliver Bendel vier Themen, die in seinem Forschungsbereich angesiedelt sind: „The decoding of symbolic languages of animals“, „The decoding of animal body language“, „The decoding of animal facial expressions and behavior“ und „The decoding of extraterrestrial languages“. Die ersten drei Themen werden bzw. wurden auch in Projekten erforscht. DEEP VOICE widmet sich der Kommunikation von Walen. The Animal Whisperer Project umfasste drei Apps, die Körpersprache von Kühen, Pferden und Hunden analysierten und evaluierten, während VISUAL blinden und sehbehinderten Personen auditive Beschreibungen von Bildern aus Wildtier-Webcams lieferte. In ANIFACE wurde ein System konzipiert, das Individuen von Bären in den Alpen mit Hilfe von Gesichtserkennung identifizieren kann. Projekte zum Auffangen von extraterrestrischen Signalen und zur Kommunikation mit außerirdischen Lebensformen wurden im Buch „300 Keywords Weltraum“ erwähnt. Auch eine Alienethik wurde darin skizziert. Die Studenten präsentierten am 26. November 2025 ihre Zwischenergebnisse. Im Januar 2026 findet die Abschlussveranstaltung von ToBIT statt.

Abb.: Die Crew von Star Trek

Wie Allzweckroboter die Haushalte erobern sollen

Michael Marti vom Tages-Anzeiger hat mit Prof. Dr. Oliver Bendel ein Interview geführt. Vor allem ging es um robotische Zweibeiner, die als Allzweckroboter vermarktet werden. Beispiele sind Figure 03, NEO und Optimus. Der Technikphilosoph nimmt an, dass die Einführung in die Haushalte in zwei Wellen erfolgen wird. In der ersten Welle versucht man, möglichst viele Exemplare zu verkaufen, um sie in der Realität einzusetzen. Die Allzweckroboter, meist humanoide Roboter, bewegen sich durch Wohnungen und Häuser, treffen auf Menschen und Tiere. Mithilfe von Kameras und Sensoren werden Daten erzeugt, die nicht nur für Wahrnehmung, Beurteilung und Steuerung, sondern auch für das Training wesentlich sind. In der zweiten Welle erfolgt dann die massenhafte Einführung – wenn diese nicht an Faktoren scheitern wird, die ebenfalls genannt werden. Im Teaser des Artikels, der das Interview enthält, steht: „Der Mann ist der Schweizer Roboter-Flüsterer. Oliver Bendel (57), Professor für Maschinenethik an der FHNW in Windisch AG, erforscht seit Jahren, wie wir mit Robotern leben – und was sie mit uns machen.“ (Tages-Anzeiger, 26. November 2025) Der Artikel ist am 26. November 2025 erschienen und kann hier aufgerufen werden.

Abb.: Oliver Bendel mit Miroka auf der ICSR 2025 in Neapel (Foto: Tamara Siegmann)

DeepL and ChatGPT Generate Incorrect Translations

Users who translate texts from English or another language into German and are not native speakers of the target language should be cautious when using services such as DeepL and ChatGPT. 1. For both, the default setting is not the standard language, as one might assume, but a special language that is rejected by the majority of the language community and does not follow the official rules. These are determined for all German-speaking countries by the Rechtschreibrat. DeepL and ChatGPT follow their own rules or the inconsistent ideas of activists. The German language generated by DeepL and ChatGPT is often dysfunctional, incorrect, and imprecise. Formal inaccuracies can lead to inaccuracies in content. 2. If AI systems do not know words, they may simply replace them with completely different ones. In one test, DeepL translated „Animal-Computer Interaction“ as „Mensch-Computer-Interaktion“ („Human-Computer Interaction“). This made the text factually incorrect. 3. Overall, especially with ChatGPT, English language structures are transferred to German. This results in unnatural-sounding lists, unlinked compounds („Deep Learning Modelle“ or „Deep Learning-Modelle“ instead of „Deep-Learning-Modelle“), and unnecessary or incorrect hyphens („nicht-amtliche Regeln“ instead of „nichtamtliche Regeln“).

Fig.: A Russian-German dictionary

DeepL ersetzt Wörter, wenn es sie nicht kennt

Über die Unzulänglichkeiten und Zumutungen von DeepL wurde immer wieder berichtet. So verwendet es oft keine Standardsprache, sondern eine Sondersprache. Insbesondere bei Nichtmuttersprachlern besteht die Gefahr, dass aus ihren korrekten englischen oder anderssprachigen Texten inkorrekte deutsche werden, ohne dass sie dies bemerken oder ändern können. Bei ChatGPT ist dasselbe der Fall – dort ist die Sondersprache, die sich auf privat ausgedachte oder spontan erfundene Regeln stützt, sogar mit der Standardeinstellung vorgegeben. Kaum bekannt ist, dass DeepL einfach Wörter ersetzt, wenn es sie nicht kennt. Wer nicht im Detail überprüft oder eine Unaufmerksamkeit begeht, gibt womöglich einen sinnentstellten oder sinnentleerten Text ab. Bei einem Test wurde ein Blogpost, der in englischer Sprache vorlag, in die deutsche Sprache übersetzt. Aus „Animal-Computer Interaction“ („Tier-Computer-Interaktion“) wurde einfach „Mensch-Computer-Interaktion“ gemacht. Das Wort „Animal-Computer Interaction“ mag nicht jedem geläufig sein, aber es gibt zahlreiche Artikel dazu und eine Konferenz, die jedes Jahr stattfindet. Solche Falschübersetzungen würde man von den bekannten LLMs erwarten, aber nicht unbedingt von DeepL. Dabei konnte man durchaus gewarnt sein.

Abb.: Die Falschübersetzung von DeepL

Das Kunsthaus, das Kulturgut zerstört

In den Begleittexten zur Lehmbruck-Ausstellung im Kunsthaus Zürich werden genderaktivistische Schreibweisen verwendet („Künstler:innen“, „Künstler:innengenerationen“, „[von] Kunstförder:innen“), die weder der deutschen Orthografie noch der gewachsenen Grammatik entsprechen. Sonderzeichen im Wortinneren zerstören etablierte Wortstrukturen, verunmöglichen korrekte Deklinationen und erschweren die Lesbarkeit deutlich. Diese Formen sind keine anerkannte Weiterentwicklung der Standardsprache, also natürlicher Sprachwandel, sondern politisch-ideologisch motivierte Markierungen, die – wie in Diktaturen – von bestimmten Stellen kommen. Für eine öffentliche Kulturinstitution wie ein Museum ist das problematisch. Dieses hat den Auftrag, Kunst verständlich und zugänglich zu vermitteln. Texte, die durch Sonderformen zusätzlich Hürden aufbauen, schließen weite Teile des Publikums aus, statt sie einzubeziehen. Inklusion wird so nicht gefördert, sondern unterlaufen. Nicht zuletzt wird die bildende Kunst zum Grabstein der textuellen Begleitung. Wer Sprache als Kulturwerkzeug und Kulturgut ernst nimmt, sollte im institutionellen Gebrauch an einer korrekten, präzisen und allgemein verständlichen Standardsprache festhalten.

Abb.: Ein Werk von Lehmbruck im Kunsthaus Zürich

Einer wirrer Bericht zu medizinethischen Richtlinien

Die Schweizerische Akademie der Medizinischen Wissenschaften (SAMW) hat 2025 den Bericht „Medizin-ethische Richtlinien: Entstehung und Wirkung“ veröffentlicht. Die falsche Schreibweise des Adjektivs findet sich auch im Artikel „Die medizin-ethischen Richtlinien der SAMW: Zwischen Kontinuität und Wandel“ von Henri Bounameaux, des SAMW-Präsidenten, zudem in den Texten anderer Autoren. In „Experimentieren – Ethik in der medizinischen Forschung“ von Dr. Izel Demirbas ist zuerst korrekt von „medizinethischen Positionen“ die Rede, später aber vom „medizin-ethischen Diskurs“. Wer über diese sprachliche Auffälligkeit stolpert, schaut auch an anderer Stelle genau hin. Auf Seite 5 heißt es: „Seit über 50 Jahren erarbeitet die Zentrale Ethikkommission (ZEK) der SAMW diese Richtlinien – als Orientierungshilfen für Ärztinnen und weitere Gesundheitsfachpersonen in herausfordernden Situationen.“ Die Fußnote erklärt: „Weibliche und männliche Wortformen werden in diesem Bericht kapitelweise abwechselnd verwendet, gemeint sind jeweils die Angehörigen aller Geschlechtergruppen.“ „Ärztinnen“ bedeutet in der deutschen Sprache allerdings „weibliche Ärzte“ – und nichts anderes. Das Anliegen, weibliche und männliche Wortformen kapitelweise abwechselnd zu verwenden, ist auch nicht einzulösen. In manchen Kapiteln kommt das generische Maskulinum vor, das geschlechtsneutral ist, in anderen das generische Femininum, das es in dieser Form gar nicht gibt. So stiftet der ganze Bericht in weiten Teilen heillose Verwirrung und schadet der SAMW ebenso wie der Medizinethik und der ganzen Wissenschaft, die auf eine korrekte und präzise Sprache angewiesen sind.

Abb.: Die SAMW sitzt in Bern

Ein Wahlmodul im Schweizer Fernsehen

Vom 3. bis zum 5. November 2025 fand das Wahlmodul „Soziale Roboter“ an der Hochschule für Wirtschaft FHNW in Olten statt, für Studierende aus Wirtschaftsinformatik und Business Information Technology (BIT). Am ersten Tag kam das Schweizer Fernsehen zu Besuch. Für einen Beitrag über Sicherheitsroboter wurde während des Unterrichts gefilmt und danach Prof. Dr. Oliver Bendel interviewt … Auch dieses Mal stand ein auf das Thema spezialisiertes GPT namens Social Robotics Girl zur Verfügung. Oliver Bendel ließ es immer wieder Sachverhalte erklären und nahm dann Ergänzungen vor. Unter den Robotern der Demo waren Unitree Go2, Alpha Mini, Booboo, Aibi und Cozmo. Besonders eindrucksvoll war wieder Unitree Go2. Dies lag vor allem an seinen schnellen, flüssigen Bewegungen, seinen vielfältigen Verhaltensformen und seinen überraschenden Tanzeinlagen. Der Roboter stammt aus dem von Oliver Bendel privat finanzierten Social Robots Lab und wird von ihm Bao (chin. „Schatz, Juwel“) genannt. Auch Aibi, der Wearable Social Robot, und Booboo, das Pelztier, standen hoch im Kurs. Bei der Konzeption eigener sozialer Roboter wurde – abgesehen von der Beschreibung anhand des 5-Dimensionen-Modells – mehrheitlich mit Bildgeneratoren gearbeitet, zudem mit Videogeneratoren. Die nächsten Durchführungen finden im Februar und April 2026 in Brugg-Windisch (Betriebsökonomie) und Olten (Business AI) statt.

Abb.: Studierende mit Booboo bei der Gruppenarbeit

Sicherheitsroboter bei „10 vor 10“

Ein Sicherheitsroboter des Schweizer ETH-Start-ups Ascento war auf der Basler Herbstmesse unterwegs, um Sicherheit auf dem Gelände herzustellen. „Die kantonale Datenschützerin war darüber nicht informiert und stoppte den Einsatz aus Datenschutzgründen.“ (Website SRF, 31. Oktober 2025) Sie fühlte sich laut SRF in „einen Science-Fiction-Film“ versetzt – dabei sind Sicherheits- und Überwachungsroboter in vielen Ländern längst Standard. SRF führte am 3. November 2025 mehrere Interviews, mit Ascento, mit der Datenschützerin und mit Prof. Dr. Oliver Bendel, der sich seit 2016 mit Sicherheits- und Überwachungsrobotern befasst. Damals war er dem K5 in Stanford begegnet. In seinem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“ aus dem selben Jahr diskutierte er die Chancen und Risiken des Einsatzes. In seinem Beitrag „Sicherheitsroboter“ im Wirtschaftslexikon von Springer Gabler von 2020 definierte er den Begriff und ging auf Beispiele und Anwendungen ein. SRF drehte zunächst während seines Wahlmoduls „Soziale Roboter“ und bat ihn dann zum Gespräch. Der Beitrag wurde am 3. November 2025 in der Nachrichtensendung „10 vor 10“ ausgestrahlt.

Abb.: Die Gründer des Unternehmens (Foto: Ascento)

Ein Sicherheitsroboter auf der Basler Herbstmesse

„Sicherheitsroboter verbreiten sich in den Stadtteilen, in den Einkaufszentren und auf den Firmengeländen, als rollende und fliegende Maschinen. Sie sollen für die Sicherheit der Unternehmen, Besucher und Kunden sorgen. Sie sind autonom bzw. teilautonom oder werden von Menschen oder weiteren Systemen zu Einsatzorten navigiert. Je nach Zusammenhang werden sie auch als Überwachungsroboter oder Polizeiroboter bezeichnet.“ So erklärt es ein Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon vom März 2020. Im Artikel „Auf der Basler Herbstmesse patrouillieren Roboter statt Menschen“ von SRF vom 31. Oktober 2025 wird auf das Modell des Schweizer ETH-Start-ups Ascento eingegangen. Dieses war auf der Basler Herbstmesse unterwegs, um Sicherheit auf dem Gelände herzustellen. „Die kantonale Datenschützerin war darüber nicht informiert und stoppte den Einsatz aus Datenschutzgründen.“ (Website SRF) Sie fühlte sich laut SRF in „einen Science-Fiction-Film“ versetzt – dabei sind Sicherheits- und Überwachungsroboter in vielen Ländern längst Standard. Tatsächlich sollte man sie aber nicht in öffentlichen oder teilöffentlichen Bereichen betreiben, und schon gar nicht ohne Genehmigung, die offensichtlich nicht vorlag. Oliver Bendel schreibt seit 2016 über das Thema. Damals war er dem K5 in Stanford begegnet. In seinem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“ diskutierte er die Chancen und Risiken des Einsatzes.

Abb.: Der Sicherheitsroboter von Ascento (Foto: Ascento)

Die simulierte Freundschaft

Mit der Süddeutschen Zeitung hat Oliver Bendel über Chatbots gesprochen, mit denen man Beziehungen führt. Wie immer betonte er, dass es sich um einseitige Beziehungen handelt. Chatbots können keine Freunde sein. Und keine Partner. Helfen können sie in besonderen Situationen oder bei besonderen Personen. Sie können über die Einsamkeit von Gefängnisaufenthalten und Marsflügen hinweghelfen, zwei Anwendungsbereiche, zu denen der Technikphilosoph bereits geforscht hat. Sie können auch – wie soziale Roboter – begleitend bei Therapien eingesetzt werden, wobei immer ein Mensch eingreifen können sollte … Aber sie können nicht lieben, nicht hassen, sie haben kein Interesse, keine Empathie. Ihre Freundschaft ist simuliert. Der Artikel von Christian Weber mit dem Titel „Dann haben wir halt elektronische Freunde“ ist am 30. Oktober 2025 in der Onlineausgabe erschienen. Zusätzlich wird er in der Wochenendausgabe abgedruckt.

Abb.: Die simulierte Freundschaft (Foto: Jork Weismann)

Fake Friends 2.0

„Die Sehnsucht nach einem künstlichen Begleiter, vor allem einem weiblichen, flammte vor über 2.500 Jahren auf. Hephaistos, der Gott der Schmiede und des Feuers, schuf seine goldenen Dienerinnen, wie bei Homer nachzulesen ist, Pygmalion, der legendäre zypriotische Bildhauer, seine Galatea, als Abbild der von ihm geliebten Aphrodite – dass es nur Kunst war, verdeckte die Kunst, schrieb Ovid zu Beginn unserer Zeitrechnung.“ Mit diesen Worten beginnt ein Meinungsbeitrag von Oliver Bendel, der am 17. Oktober 2025 in der Fuldaer Zeitung unter dem Titel „Fake Friends 2.0“ erschienen ist. Der Technikphilosoph geht nach der ideengeschichtlichen Einordnung auf technologische Entwicklungen seit der Jahrtausendwende ein, etwa die virtuelle Freundin von Artificial Life. Auch die geplante Erotikfunktion von ChatGPT erwähnt er. Gegen Ende heißt es: „Virtuelle Freundinnen und Freunde in die Breite zu bringen, halte ich für unverantwortlich. Eigentlich existieren sie gar nicht, denn Freundschaft beruht auf Gegenseitigkeit. Sie sind Fake Friends 2.0. Bei einem Chatbot ist kein Gefühl vorhanden, kein Interesse. Da ist nichts, und alles, was ist, wird simuliert.“ Der Artikel kann hier aufgerufen werden.

Abb.: Real Friends

GPT-AfterDark kommt

ChatGPT soll, wie mehrere Medien am 15. Oktober 2025 meldeten, eine Erotikfunktion bekommen. Damit dürften Fähigkeiten wie Dirty Talk – über Text und Stimme – gemeint sein, womöglich aber auch Anleitungen zu Stellungen aller Art und Tipps und Tricks zu Sexspielzeug und Sexrobotern. Damit folgt man anderen Chatbots wie Replika. Allerdings verfügen diese oft über einen Avatar, um unwiderstehlich zu sein. Bei ChatGPT ist das nicht der Fall, wenn man von den kleinen runden Kacheln der GPTs absieht, der „custom versions“, die jeder niederschwellig erstellen kann. Unter diesen tummelt sich übrigens ein SexGPT von Dominick Pandolfo – „Provides sexual health information“, also ganz harmlos. Bereits um die Jahrtausendwende gab es die virtuelle Freundin von Artificial Life, auch sie in sprachlicher und visueller Form. Wenn OpenAI hier nicht nachbessert, werden die Benutzer sich selbst etwas bauen, was freilich schon heute gemacht wird, wenn auch nicht zwangsläufig im sexuellen Sinne. So kann man mit Meshy AI und Co. dreidimensionale Avatare generieren und animieren. Man darf gespannt sein, ob ChatGPT in der Erotikfunktion gendert – so wie in der Standardeinstellung. Die einen dürfte das anmachen, die anderen eher nicht. Auf die Frage, wie diese Version von ChatGPT heißen könnte, schlug der Chatbot selbst vor: ChatGPT Red, GPT-AfterDark oder DeepLure. Wen das nicht antörnt, dem ist auch nicht zu helfen.

Abb.: GPT-AfterDark kommt im Dezember

Humanoide Roboter auf der Biennale Architettura 2025

Auf der Biennale Architettura 2025 in Venedig sind Unitree-Roboter sowohl Teil einer Installation als auch einer Performance. Während der eine Roboter an einer Leinwand malt, spielt der andere Musik. Allerdings muss man Glück haben, die Vorführung zu sehen, denn meistens stehen die humanoiden Roboter still bzw. hängen in der Luft. Für die Besucher ist das eine Enttäuschung, und sie wenden sich Alter3 zu, der keine Müdigkeit zu kennen scheint. Auch eine andere Performance mit schnitzenden Cobots ist nicht zu sehen, laut Medien aus Sicherheitsgründen. Auf dem Bildschirm sieht man, wie die Arme bis zum Publikum reichen. Bei einem Cobot ist eine solche Nähe zwar der Normalfall, aber einzelne Besucher, etwa Kinder, können unberechenbar sein. So hat man mit der Halle, in der sich die Roboter konzentrieren, immerhin ein Negativbeispiel: So sollte man einen Roboterpark nicht umsetzen. Informationen zur Biennale Architettura sind über die Website verfügbar.

Abb.: Ein Roboter hängt in der Luft

Der ultimative Buddy

In der neuen „Momo“-Verfilmung (Kinostart 2. Oktober 2025) sind „Bibbi Bot, der ultimative Buddy“ (FAZ, 1. Oktober 2025) und die grauen Herren als Vertreter eines Tech-Konzerns namens Grey zu sehen. Ob das Michael Ende gefallen hätte? Im Sommer 1984 führte Oliver Bendel mit dem berühmten Schriftsteller ein schriftliches Interview. Dieses war über den Thienemann-Verlag in Stuttgart eingefädelt worden, bei dem Michael Ende gerade Halt machte. Der Lektor Roman Hocke betreute den jungen Oliver Bendel im Auftrag des Förderkreises deutscher Schriftsteller. Eine Frage lautete: „Zukunftsaussichten für das Buch – wird der Tag kommen, an dem man anstatt zu lesen sich lieber mit neuen Medien oder Computern beschäftigt?“ Die Antwort ließ an Deutlichkeit nichts vermissen: „8) ME glaubt, dass Computer u. dgl. n i e Bücher ersetzen werden.“ Oliver Bendel schrieb später in einem Beitrag: „Derjenige, der die Antworten aufschrieb, war ein Meister der Abkürzung, und dass der Meister selbst abgekürzt wurde, rückte diesen in die Nähe von Unsterblichen, mehr als eine Dekade vor seinem Tod. „Computer u. dgl.“ – besser kann man es nicht sagen, wenn man es abfällig meint. Und das gesperrte „n i e“ – schöner kann man es nicht setzen, nicht einmal mit den heutigen technischen Möglichkeiten.“ Julia Encke schreibt in der FAZ zur Neubesetzung: „Anstelle der Barbie-artigen perfekten Bibigirl-Puppen, mit denen die grauen Herren Momo für sich gewinnen wollten, ist es nun ‚Bibbi Bot, der ultimative Buddy‘, der Momo von ihren Freunden ablenken soll.“ (FAZ, 1. Oktober 2025) Er schiebt sich also zwischen die Menschen, zerstört ihre Beziehungen und raubt ihre Zeit. Vielleicht ist der Film in dieser Hinsicht tatsächlich im Sinne von Michael Ende.

Abb.: Ein Bild, das an Momo und die grauen Herren erinnert (Bild: ChatGPT/4o Image)

Wie nah ist uns die KI?

„Der Tag. Ein Thema, viele Perspektiven“ – das ist der Titel einer Serie bei hr2-kultur, einem Angebot des Hessischen Rundfunks. „Jeden Tag ein wichtiges Thema – von Montag bis Donnerstag. Eines, das Fragen aufwirft.“ (Website HR) „Der Tag“, so die Website, „sucht Antworten, beleuchtet Hintergründe und ordnet ein“ (Website HR). Am 30. September 2025 wurde der Beitrag „Immer menschlicher – Wie nah ist uns die KI?“ ausgestrahlt. Enthalten ist ein Gespräch mit Oliver Bendel. Es geht um Chatbots, Sprachassistenten und soziale Roboter. Mit Chatbots beschäftigt er sich seit den 1990er-Jahren. Schon damals testete er sie. Um die Jahrtausendwende promovierte er über pädagogische Agenten, also Chatbots und Sprachassistenten in Lernumgebungen. Auch Hardwareelemente waren damals teilweise vorhanden, etwa Systeme zur Gesichtserkennung. Ab 2012 wandte sich der Technikphilosoph, der nicht nur reflektiert, sondern auch implementiert, neuartigen Chatbots wie GOODBOT zu, die Probleme des Benutzers erkennen und auf mehreren Stufen eskalieren können – bis zur Herausgabe einer Notfallnummer. Der Prototyp war 2013 fertig. Der Nachfolger BESTBOT aus dem Jahre 2018 verwendete zusätzlich Gesichts- und Texterkennung mit Emotionserkennung. OpenAI hat damit begonnen, ähnliche Sicherheitsmerkmale in ChatGPT einzubauen. Der Beitrag kann über www.hr-inforadio.de/podcast/der-tag/index.html aufgerufen werden.

Abb.: Wie nah ist uns die KI? (Foto: Cybrothel)

Einschränkung der Ausdrucksfreiheit in der Forschung

In zunehmendem Maße ist in der deutschsprachigen Forschung eine Einschränkung der Ausdrucksfreiheit durch verpflichtende sprachpolitische Vorgaben in wissenschaftlichen Fachzeitschriften zu beobachten. Konkret betrifft dies den Zwang zur Verwendung sogenannter Gendersprache, also sprachlicher Formen, die z.T. von der amtlichen deutschen Rechtschreibung abweichen (z.B. Sonderzeichen im Wortinneren wie Genderstern, Doppelpunkt oder Binnen-I). Eine solche Vorgabe wird in der Schweiz von mehreren anerkannten Journals zur Voraussetzung für die Veröffentlichung gemacht, unabhängig von fachlichen oder methodischen Erfordernissen. Diese Entwicklung wirft aus Sicht vieler Forscher ernsthafte wissenschaftsethische und rechtliche Fragen auf: 1. Einschränkung der Wissenschaftsfreiheit: Die freie Wahl sprachlicher Mittel ist ein konstitutiver Bestandteil wissenschaftlichen Arbeitens. Wenn Ausdrucksformen vorgeschrieben werden, die von Autoren nicht geteilt werden – insbesondere, wenn sie als inkorrekt, unpräzise, ideologisch aufgeladen oder methodisch ungeeignet empfunden werden –, stellt dies einen Eingriff in die wissenschaftliche Freiheit dar. 2. Struktureller Ausschluss durch Sprachpolitik: Die Dominanz von Journals mit Genderpflicht in bestimmten Disziplinen führt de facto zu einem Ausschluss nichtkonformer Positionen aus dem wissenschaftlichen Diskurs. Dies betrifft nicht nur einzelne Autoren, sondern untergräbt die fachliche Diversität und Meinungsfreiheit. 3. Verlust des Deutschen als Wissenschaftssprache: Autoren weichen zunehmend auf das Englische aus, um solchen Vorgaben zu entgehen. Damit wird die deutsche Sprache in der Wissenschaft zusätzlich geschwächt, was insbesondere in der Schweiz mit ihrer Mehrsprachigkeit problematisch ist. 4. Sprachenfreiheit, Wissenschaftsfreiheit und verfassungsnahe Prinzipien: Auch wenn die Sprachenfreiheit (Art. 18 BV) und die Wissenschaftsfreiheit (Art. 20 BV) in der Schweiz primär gegen staatliche Eingriffe schützen, so haben sie doch Leitfunktion für den gesamten wissenschaftlichen Raum – insbesondere dann, wenn Fachzeitschriften öffentlich (mit-)finanziert oder institutionell getragen werden. Die Akademien der Wissenschaften Schweiz erkennen in der Einschränkung der Ausdrucksfreiheit kein Problem. Entsprechend müsste man nicht nur die betroffenen Zeitschriften, sondern auch sie selbst reformieren.

Abb.: Wissenschaft in der Schweiz