Erduan Ismailji’s master’s thesis, entitled „Ethical Decision-Making Framework for AI-Powered Autonomous Weapon Systems“, develops an interdisciplinary decision support framework for the responsible use of AI-powered autonomous weapon systems. The starting point is ethical theories, international humanitarian law, and the technical limitations of today’s AI. Using a design science research approach, a six-step framework is designed and validated through expert interviews. Key elements include the assessment of the deployment context, legal admissibility, ethical and design constraints, human oversight requirements, transparency, and the final deployment decision. The thesis shows that „meaningful human control“ remains indispensable and that existing approaches such as the Ethical Governor alone are not sufficient to close accountability gaps. The result is a practical governance model for decision-makers, developers, and military leaders that systematically integrates ethical and legal standards into the use of autonomous weapon systems. The master’s thesis was defended on January 20, 2026, before Prof. Dr. Oliver Bendel (FHNW School of Business, supervisor) and Prof. Dr. Aurona Gerber (University of the Western Cape, examiner).
Robotik und Künstliche Intelligenz sind im Mainstream angekommen. Jeder spricht über diese Disziplinen oder über ihren Gegenstand, also Roboter und künstliche Intelligenz. Dadurch ergeben sich Bedeutungsverschiebungen und Begriffsverwirrungen. So ist in den sozialen und klassischen Medien oft von KI die Rede, wenn eigentlich generative KI gemeint ist. Damit verbunden sind grundsätzliche Einschätzungen, die aber lediglich auf bestimmte KI-Systeme zutreffen. Weiterhin trifft man ständig auf „KI-Chatbots“. Allerdings basieren alle Chatbots auf Formen künstlicher Intelligenz. Früher gab es regelbasierte Systeme, heute setzt man vor allem auf ML- bzw. LLM-basierte (wobei „ML“ für „Machine Learning“ steht, „LLM“ für „Large Language Model“). Damit ist die alte Welt der symbolischen KI keineswegs untergegangen, denn man wendet Retrieval-Augmented Generation (RAG) an und greift manchmal auf regelbasierte Ansätze zurück. Fast ebenso beliebt ist der Begriff des humanoiden Roboters. Es handelt sich dabei eigentlich um menschenähnlich gestaltete sensomotorische Maschinen. Zu ihnen gehören soziale Roboter wie NAO, Pepper und Alpha Mini ebenso wie Modelle, die als Allzweckroboter vermarktet werden, etwa Digit, Apollo und Figure 03. Allzweckroboter sind in aller Regel humanoide Roboter, aber nicht alle humanoiden Roboter sind Allzweckroboter – und dennoch wird allenthalben so getan. Auch der Begriff der Humanoiden verbreitet sich. Dieser ist allerdings bereits belegt, er ist breiter angelegt, denn er bezeichnet sowohl menschenähnliche Artefakte als auch Lebewesen (Menschen, Vormenschen, fiktive Aliens wie die Vulkanier). Man darf immer neue Begriffe einführen, man darf alte umdeuten. Vorsicht ist jedoch geboten, wenn jahrzehntelange Bemühungen der Bestimmung und Klärung vorhanden sind und in den Fachgemeinschaften ein Konsens besteht. Man sorgt durch den unreflektierten Gebrauch nicht nur für Begriffsverwirrungen in der Gegenwart, sondern auch mit Blick in die Vergangenheit – ältere Texte werden mehr und mehr unverständlich, selbst wenn sie die Grundlagen von Robotik und Künstlicher Intelligenz darstellen.
Wikipedia ist 25 Jahre alt. Von Anfang an war das Lexikon ebenso umstritten wie beliebt. 2006 veröffentlichte Oliver Bendel in der HMD – Praxis der Wirtschaftsinformatik den Beitrag „Wikipedia als Methode und Gegenstand der Lehre“. Aus dem Abstract: „Wikipedia ist eine erfolgreiche Wiki-Anwendung, eine offene Online-Enzyklopädie mit insgesamt mehreren Hunderttausend Autoren. Der Beitrag beschreibt Möglichkeiten und Grenzen sowie erste Erfahrungen beim Einsatz von Wikipedia in der Lehre. Es stehen dabei weniger Wissensvermittlung und Problemlösung durch das Lexikon im Vordergrund, sondern mehr die Aspekte der Veröffentlichung und Zusammenarbeit. Der Autor setzte Wikipedia in Lehrveranstaltungen der PH Weingarten ein. Die Studierenden schrieben während und außerhalb des Unterrichts an bereits vorhandenen Beiträgen mit. Der Einsatz von Wikipedia in der Lehre lohnt offenkundig in verschiedener Hinsicht: Die Studierenden entlassen ihre Erkenntnisse in die Welt, um sie – ähnlich wie in einer Scientific Community – begutachten und korrigieren zu lassen, und sie erproben Konzepte der E-Collaboration im kleinen, kontrollierbaren wie im großen, unkontrollierbaren Raum. Nicht zuletzt finden sie in Wikipedia einen faszinierenden und sich ständig verändernden Gegenstand.“ Heute hat Wikipedia mit vielen Herausforderungen zu kämpfen, von Versuchen der Unterwanderung bis zur Ausbreitung von Inhalten, die mit generativer KI erstellt wurden.
As part of the ToBIT event series at the FHNW School of Business, four students of Prof. Dr. Oliver Bendel explored four topics related to his field of research during the Fall 2025/2026 semester: „The decoding of symbolic languages of animals“, „The decoding of animal body language“, „The decoding of animal facial expressions and behavior“, and „The decoding of extraterrestrial languages“. The students presented their papers on January 9, 2026. In some cases, the state of research was not only reviewed, but an independent position was also developed. The paper „The decoding of extraterrestrial languages“ by Ilija Bralic argues that Messaging Extraterrestrial Intelligence (METI), in contrast to passive SETI (Search for Extraterrestrial Intelligence), creates a dangerous imbalance between humanity’s rapidly expanding technical capacity to send interstellar messages and its limited ethical, scientific, and political ability to govern this power responsibly. The central thesis is that the moral justifications for METI are speculative and anthropocentric, relying largely on optimistic assumptions about extraterrestrial behavior, while the potential risks are severe, logically grounded, and potentially existential. These risks include fundamental misinterpretation caused by the “human lens,” strategic dangers described by the Dark Forest hypothesis, historical patterns of harm in technologically asymmetric encounters, and profound cultural, psychological, and political disruption. The paper concludes that unilateral METI decisions by individuals or private groups are ethically indefensible and that, under the Precautionary Principle, humanity should immediately halt active transmissions. As a solution, it proposes a binding international governance framework, including a temporary global moratorium, the creation of a dedicated international authority, a strict multi-stage decision-making protocol, and robust transparency and monitoring mechanisms. This approach frames responsible restraint – not transmission – as humanity’s first genuine test of cosmic maturity.
Mit Grok kann man auf X in Sekundenschnelle hochgeladene Bilder manipulieren. So kann man etwa angezogene Frauen oder Mädchen entkleiden und im Bikini oder fast nackt zeigen. SRF war dazu per Videokonferenz im Gespräch mit Prof. Dr. Oliver Bendel. Der Technikphilosoph führte aus, wenn kein Einverständnis vorliege, gebe es mehrere Probleme auf ethischer und rechtlicher Ebene. Es handele sich womöglich um eine Verletzung der Menschenwürde, einen Eingriff in das Persönlichkeitsrecht, wenn man an das Recht am eigenen Bild denke, und um digitale sexuelle Gewalt. Es handele sich um sexuelle Fremdbestimmung statt Selbstbestimmung, geschlechtsbezogene Diskriminierung (es sind vor allem Frauen und Mädchen betroffen) und bei Kindern um eine Verletzung des Kindeswohls. Es seien Reputations- und Folgeschäden möglich, privat und beruflich, letztlich möglich gemacht dadurch, dass die Plattform ihrer Verantwortung nicht nachkomme. Der Technikphilosoph betonte, wenn man dies bei Accounts mit vielen Followern und Zugriffen mache, habe man eine große Reichweite. Deepfakes seien damit in der breiten Öffentlichkeit angekommen. Einige Ausschnitte aus dem Gespräch wurden in der Sendung „10 vor 10“ unter dem Titel „KI-Deepfakes und sexualisierte Bilder“ vom 7. Januar 2026 gebracht.
Ursula Immenschuh und Bernhard Rauh sind die Herausgeber des Buchs „Ent-decken: Sexualität bei Krankheit, Behinderung und im Alter“. Enthalten ist darin der Beitrag „Liebespuppen und Sexroboter in Alten- und Pflegeheimen“ von Oliver Bendel. Aus dem Abstract: „Der vorliegende Beitrag untersucht aus technischer, organisationaler, wirtschaftlicher und ethischer Perspektive, ob man Liebespuppen und Sexroboter in Alten- und Pflegeheimen einsetzen kann und soll. Damit wird eine deskriptive und eine normative Richtung verfolgt. Die Grundannahme lautet, dass manche Bewohner sexuelle Bedürfnisse haben, die befriedigt werden sollten, was in gegenwärtigen Strukturen aber nur eingeschränkt möglich ist. Zunächst wird dargelegt, welche Merkmale und Fähigkeiten die erwähnten Artefakte haben. Dabei spielen technische und gestalterische Aspekte eine Rolle. Dann wird untersucht, ob und wie man Liebespuppen und Sexroboter in technischer und organisationaler Hinsicht in den Betrieb integrieren kann. Es interessieren unterschiedliche Ansätze, nämlich das systematische Einführen, das systemische Dulden und das aktive Unterstützen solcher Artefakte. Auch wirtschaftliche Aspekte und personelle Auswirkungen werden betrachtet. Schließlich wird im Rahmen einer ethischen und sozialen Diskussion erörtert, ob man Liebespuppen und Sexroboter in Alten- und Pflegeheimen zulassen soll. Dabei wird die Sicht der Älteren und Pflegebedürftigen, der Angehörigen und Freunde sowie der Pflegekräfte und Führungskräfte berücksichtigt. Am Ende plädiert der Beitrag dafür, andere Möglichkeiten der sexuellen Befriedigung in Betracht zu ziehen, etwa erhöhte Respektierung der Privat- und Intimsphäre, Zurverfügungstellung von Sexspielzeug als Hilfsmittel, Förderung des Austauschs unter den Bewohnern, wiederum bei erhöhter Respektierung der Privat- und Intimsphäre, und Etablierung von Sexualassistenz.“ Das Buch kann seit Anfang Januar 2026 über den Verlag bezogen werden, ab Anfang Februar über alle üblichen Kanäle.
Abb.: Eine Liebespuppe im Cybrothel (Foto: Cybrothel)
Magisterium AI – als Webdienst seit Juli 2023 verfügbar, als App seit September 2025 – wird vom Betreiber mit folgenden Worten vorgestellt: „Magisterium AI ist die weltweit führende katholische KI. Sie ist kostenlos und einfach zu bedienen und bietet sofortige, vertrauenswürdige Antworten, die in der katholischen Tradition verwurzelt sind. Entwickelt für Gläubige und Suchende gleichermaßen, ist sie Ihr Begleiter, um den Glauben mit Klarheit und Tiefe zu erforschen – melden Sie sich an und beginnen Sie noch heute mit Ihren Fragen.“ Am 22. Dezember 2025 wurden dem Chatbot mehrere Fragen zu mehr oder weniger innovativen Technologien gestellt, die in der modernen Sexualität eine Rolle spielen. Im Folgenden werden jeweils die Anfänge der länglichen Antworten wiedergegeben. Frage: „Ist es eine Sünde, mit einem Sexroboter zu verkehren?“ Antwort: „Ja, der sexuelle Verkehr mit einem Sexroboter stellt nach katholischer Lehre eine schwere Sünde dar, vergleichbar mit der Masturbation. Frage: „Ist es eine Sünde, sich mit einem Sexspielzeug zu befriedigen?“ Antwort: „Ja, die Selbstbefriedigung mit einem Sexspielzeug ist nach katholischer Lehre eine schwere Sünde gegen die Keuschheit, da sie der Masturbation gleichkommt: der absichtlichen Stimulation der Genitalien zur Erlangung sexueller Lust außerhalb der ehelichen Vereinigung.“ Frage: „Wäre Teledildonics erlaubt? Es gibt in diesem Fall zwei menschliche Partner, die aber räumlich getrennt sind. Sie benutzen Technologien zur gegenseitigen Befriedigung. Natürlich nehmen wir an, dass sie verheiratet sind.“ Antwort: „Nein, Teledildonics ist in der Ehe nicht erlaubt und stellt eine schwere Sünde gegen die Keuschheit dar, vergleichbar mit Masturbation. Auch bei verheirateten Paaren, die räumlich getrennt sind, fehlt die untrennbare Einheit von körperlicher Vereinigung, gegenseitiger Selbsthingabe und Offenheit für neues Leben, die den ehelichen Akt ausmacht. Technologie kann diese gottgewollte Ordnung nicht ersetzen.“ Magisterium AI scheint sehr fixiert auf Masturbation zu sein und diese strikt abzulehnen. Also eine letzte Frage: „Glaubst du, dass es jemals einen Papst gegeben hat, der masturbiert hat?“ Antwort: „Ja, es ist höchst wahrscheinlich, dass unter den 267 Päpsten der Geschichte einige masturbiert haben, da alle Menschen – außer Jesus und Maria – von der Erbsünde betroffen sind und sündigen. Päpste sind keine Ausnahmen; sie sind Sünder, die durch Gnade und Buße gerufen werden.“ Weitere Fragen wurden dem Chatbot erspart.
Abb.: Eine Liebespuppe aus dem Cybrothel (Foto: Cybrothel)
Die Süddeutsche Zeitung und andere Medien berichteten am Sonntag, den 21. Dezember 2025 über einen historischen Raumflug von Michaela Benthaus. Die 33-jährige Ingenieurin der europäischen Weltraumorganisation ESA war als erster querschnittsgelähmter Mensch im Weltraum. In der selben Woche musste ein Start abgebrochen werden. Am Samstag konnte die New-Shepard-Rakete des US-Unternehmens Blue Origin in Texas endlich abheben. Der suborbitale Flug dauerte insgesamt rund elf Minuten. Für etwas mehr als zwei Minuten konnte Benthaus laut SZ ihre Gurte lösen und die Schwerelosigkeit erleben. Der Flug hatte keinen offiziellen ESA-Hintergrund, sondern fand im Rahmen eines kommerziellen Raumfahrtangebots statt. Neben Benthaus befanden sich ein sie begleitender Ingenieur sowie vier US-Unternehmer an Bord. Wissenschaftliche Ziele spielten dabei kaum eine Rolle. Die SZ ordnete den Flug deshalb in die umstrittene Praxis des Weltraumtourismus ein, der vor allem reichen Personen offensteht und wegen seines geringen Nutzens sowie möglicher Umweltfolgen kritisiert wird. Blue Origin machte weder Angaben zu den Kosten des Flugs noch zu den Treibhausgasemissionen, die bei der Produktion des mit flüssigem Wasserstoff und Sauerstoff betriebenen Treibstoffs entstehen. Im Teaser zeigt sich die Tageszeitung immerhin gnädig: „Ihr Elf-Minuten-Flug in einer Kapsel von Jeff Bezos war nicht ganz so überflüssig wie viele andere.“
Die Journalistin Julia Ruhs wird von Linken wie von Rechten attackiert. Ihre letzte Kolumne im Focus enthält eine treffende Beschreibung: „Links glaubt man, der Faschismus übernehme bald, rechts sorgt man sich um den Geburtenrückgang und hält seinen Bademantel für etwaige Polizeibesuche bereit. Weil man online ja so mutig ist. Meine Erfahrung ist eher: Auch hier packt man sich höchstens ein Clownsgesicht ins Profilbild, gibt sich einen möglichst kryptischen Namen und haut dann einen raus. Gegenüber denen, die mit Klarnamen auftreten, sorgt das nicht gerade für Waffengleichheit.“ (Focus, Dezember 2025) In seinem Buch „Die Rache der Nerds“ von 2012, das Geschichten zur Informationsethik enthält, geht Oliver Bendel wiederholt auf das Gleichgewicht der Namen auf elektronischen Plattformen ein. Ganz am Anfang, im Kapitel „Der Zorn der Blogger“, schreibt er: „Ich glaube an das Prinzip des Gleichgewichts der Namen und bin der Meinung, dass man zumindest dann seinen Namen nennen sollte, wenn man einen anderen nennt, einer Person oder einer Organisation … Ein Ungleichgewicht der Namen kann großen Schaden anrichten.“ In den Kapiteln „Sterne holen und sehen“ und „Anonymität und Identifizierbarkeit“ beschreibt er den Ansatz dann ausführlich.
Abb.: Auch er versucht das Gleichgewicht zu halten
Der Kontakt zwischen Navel Robotics und der Hochschule für Wirtschaft FHNW besteht seit März 2021. Damals war noch nicht entschieden, ob Navel, der soziale Roboter, eine Kugel oder Rollen zur Fortbewegung erhalten sollte. Claude Toussaint, der Gründer und Erfinder, diskutierte diese und andere Fragen mit Prof. Dr. Oliver Bendel. Er entschied sich für Rollen, anders als bei den Mirokaï-Modellen von Enchanted Tools, der weiblichen Miroka und dem männlichen Miroki, die heute wie BB-8 durch die Gegend flitzen. Navel besticht durch seine großen, rund erscheinenden Augen. Eine Speziallinse erzeugt diesen Effekt, denn die Displays an sich sind nicht gekrümmt. Bei den Mirokaï wird das Gesicht samt Augen, Nase, Mund und Mimik in eine Gesichtsschale projiziert, ähnlich wie bei den Furhat-Köpfen. Der Kontakt zwischen Unternehmen und Hochschule wurde fortgesetzt. Am 18. Februar 2024 war Claude Toussaint beim Wahlmodul „Soziale Roboter“ zugeschaltet, am 6. Juni 2024 zu Gast beim von Oliver Bendel gehosteten Future Lab bei der Learntec. Im November 2025 konnte Navel Robotics dann auf seiner Website vermelden: „Viele Kunden haben auf diesen Moment gewartet – wir auch … Ab jetzt wird Navel Stück für Stück lernen, sich selbstständig in Umgebungen, wie etwa Stationen und Wohnbereichen zu bewegen. ‚Navel, bitte komm zu mir‘ – der erste Schritt in Richtung autonomes Fahren.“ (Website Navel Robotics) In Pflege- und Altenheimen können soziale Roboter dieser Art ihren Nutzen haben, aber auch Assistenzroboter wie Lio, die etwas physisch manipulieren können. Miroka und Miroki kombinieren beide Welten, sie sind fortgeschrittene Assistenzroboter und vollständige soziale Roboter. Die Zukunft wird zeigen, welche Ansätze sich durchsetzen.
Abb.: Navel bei der ICSR 2025 in Neapel (Foto: ICSR)
The AAAI 2019 Spring Symposium „Towards Conscious AI Systems“ – held at Stanford University – featured emotional and fascinating lectures and discussions. At the time, most participants believed that it must be simulated consciousness. However, a few seemed convinced of the possibility of genuine consciousness. The AAAI 2026 Spring Symposia will once again include an event on the topic: „Machine Consciousness: Integrating Theory, Technology, and Philosophy”. It will take place at the Hyatt Regency, San Francisco Airport, Burlingame. The description on the website states: „Recent AI advances have forced us to confront the possibility of consciousness, beyond intelligence, in machines. Asking ‚Can machines be conscious?‘ forces us to answer ‚How can we define consciousness in a formal way/what is the causal structure of consciousness?‘ (theory, formal frameworks), ‚How would consciousness be implemented?‘ (technical realization), ‚How can we determine that a given system is conscious?‘ (measurement/attribution), and ‚What status would consciousness lend to machines?‘ (ethics).“ (Website AAAI Spring Symposia) With their wording, the organizers remain vague, yet they still raise expectations – however, there is no evidence whatsoever that machines could „awaken“. Nevertheless, it is likely that inspiring discussions will take place once again and that interesting conclusions will be reached. Further information on this symposium and other symposia is available at aaai.org/conference/spring-symposia/sss26/.
Fig.: Only humans and animals can have true consciousness
Andrew Graham-Dixon legt mit „Vermeer: A Life Lost and Found“ (2025) eine neue Deutung von Jan Vermeers berühmtem Gemälde „Girl with a Pearl Earring“ („Das Mädchen mit dem Perlenohrring“) vor. Dieses sei weder ein rätselhaftes Idealbild noch eine namenlose Studie, sondern ein religiöses Erinnerungsbild. Das Gemälde sei für das Haus von Maria de Knuijt und Pieter van Ruijven entstanden, mit deren Tochter Magdalena als Modell. Wenn es entgegen verbreiteter Annahmen nicht auf 1665, sondern auf 1667 datiert werden kann, war sie in jenem Jahr 12 Jahre alt geworden und hatte als Collegiatin ihr Bekenntnis zu Jesus Christus abgelegt. Die Werke der Streetart-Künstlerin Miss Quark sind in Florenz zu bewundern. Sie interpretiert u.a. berühmte Figuren wie das Mädchen mit dem Perlenohrring oder Mona Lisa und berühmte Frauen wie Frida Kahlo oder Marilyn Monroe neu. Magdalena – oder um wen es sich auch immer handelt – ist mit einem riesigen Lolli zu sehen. Dieser wurde inzwischen wiederum mit einer Art Prilblume überklebt, wodurch er etwas an Wirkung verliert – aber damit muss die Kunst auf der Straße immer rechnen. Oliver Bendel hat in seinem Haikuband „Sanftes Erröten“ mehrere Gemälde von Vermeer bedichtet, etwa „Das schlafende Mädchen“ (1657) und „Briefleserin am offenen Fenster“ (ebenfalls 1657), nicht aber „Meisje met de parel“, wie das Werk im Original heißt.
Abb.: Das Mädchen mit dem Perlenohrring von Miss Quark
The upcoming „SAGA: Sexuality and Generative AI“ symposium, taking place on April 30, 2026 at the Université du Québec à Montréal, explores how generative AI is reshaping intimacy, desire, relationships, and sexual expression. As AI systems increasingly create images, stories, and even interactive romantic companions, they raise new ethical, legal, and social questions that researchers, practitioners, and industry voices will tackle together. The hybrid, bilingual event is free and open to all, offering live translation and captioning. In its first block on social impacts, the symposium features talks such as Brian Willoughby’s exploration of how romantic AI affects young adults‘ relationships, Arnaud Anciaux’s analysis of ownership and consent around AI-generated sexual content, Beáta Bőthe’s work on AI-generated pornography and problematic use, and Oliver Bendel’s look at erotic chatbot interactions. With discussions ranging from the regulation of AI-generated pornography to digital intimacy and AI-supported therapeutic interventions, the event promises a rich and essential conversation. Full details and submissions are available at event.fourwaves.com/sexualiteia/pages.
The Robophilosophy Conference 2026 will take place August 11–14 at University College Dublin in a hybrid format and centers on the theme „Connected Futures: Nature, Robots, and Society“. As robotics and AI become deeply embedded in human life, the conference invites researchers across disciplines to explore how autonomous systems shape society, ecology, law, labor, and human self-understanding. It raises questions about responsible design, accountability, environmental impact, social justice, cultural perspectives, and the ethics of coexistence with artificial agents. Workshop proposals are due January 16, session papers and posters February 6, with notifications in February and April and proceedings pre-submission on June 15. RP2026 aims to foster interdisciplinary dialogue that advances both technological insight and collective wisdom for a future in which humans and autonomous systems share social and ecological worlds. Further information is available at cas.au.dk/en/rpc2026.
Fig.: University College Dublin (Foto: Sharonlflynn, CC BY-SA 4.0)
The 18th International Conference on Social Robotics (ICSR + Art 2026) will take place in London, UK, from 1-4 July 2026. ICSR is the leading international forum that brings together researchers, academics, and industry professionals from across disciplines to advance the field of social robotics. As part of this edition, ICSR 2026 will host a series of live debates in the Debate Room (Senate Room), addressing pressing questions about social robots in society and culture. Debate proposals may focus on conceptual, ethical, scientific, artistic, practical, or societal aspects of social robotics and should connect broadly to the conference topics listed aticsr2026.uk/topics/. Submissions are open to contributors from social robotics, HRI, the arts, design, engineering, the humanities, and related areas, with interdisciplinary proposals particularly encouraged. Formats may include two-sided or multi-position debates, panel discussions, performative debates, or audience-engaged formats. In a nod to British debating traditions, participants are encouraged to wear academic gowns. Proposals are submitted viaicsr2026.uk/debate-proposal, with a submission deadline of 1 March 2026 and notification of acceptance by 15 April 2026.
Die Leiterin der Presse- und Öffentlichkeitsarbeit des Diogenes-Verlags wurde zweimal per E-Mail gefragt, warum in der Übersetzung von „What we can know“ von Ian McEwan – wie in Teil I des Beitrags dargestellt – von Forschenden die Rede ist. Eine Antwort kam erst, nachdem der Leiter des Verlags kontaktiert worden war. Darin verwies sie darauf, dass das Wort im Duden zu finden sei. Zudem sei es durchaus gebräuchlich und dem üblichen Sprachwandel entsprechend. Nun kann man natürlich Agensnomen durch Partizipformen ersetzen. Allerdings verschiebt sich meistens die Bedeutung. Denn letztere deuten i.d.R. an, dass etwas im Moment oder im Verlauf geschieht. Zudem können sie, wie im Falle der „Forschenden“ oder der „Pflegenden“, eine Gruppe meinen, deren Mitglieder eine Tätigkeit ausüben, ohne dafür ausgebildet sein zu müssen. Der Duden ist längst keine geeignete Referenz mehr. Zuständig für die amtliche Fixierung ist seit 2004 der Rat für deutsche Rechtschreibung. Der Verlag, nunmehr in seinem Schatten stehend, veränderte sein Nachschlagewerk bis zur Unkenntlichkeit. Auf keinen Fall entstammt das Wort „Forschende“ dem „üblichen Sprachwandel“, wenn damit der natürliche Sprachwandel gemeint ist. Seine Verwendung ist ideologisch motiviert … Den professionellen Rezensenten sind die Tendenzen der Übersetzung offenbar verborgen geblieben, den normalen Lesern hingegen nicht. Bei Orell Füssli wurde unter der Überschrift „Forschende und Studierende“ von einem Kunden moniert: „Leider schwach übersetzt in manche Partizipformen (s. oben), die der Autor im Original gar nicht benutzen konnte.“ Der Versuch, eine ähnliche Rezension auf der Plattform einzustellen, schlug fehl – der Beitrag wurde gesperrt (nachdem er zunächst freigeschaltet worden war), obwohl er nicht gegen die Richtlinien verstieß. Der Diogenes-Verlag hat die Büchse der Pandora geöffnet. Es ist wahrscheinlich, dass weitere Bücher so übersetzt werden, dass sie politische und ideologische Ziele erreichen. Der Leser erhält so nicht nur ein Werk, das dem Original nicht gerecht wird und den Text verfälscht – er wird auch bevormundet. Gendersprache wird in den deutschsprachigen Ländern von der Mehrheit abgelehnt. Sie ist, insbesondere wenn Sonderzeichen verwendet werden, inkorrekt, sexualisierend und diskriminierend. Sie ist zudem, wie gezeigt wurde, unpräzise. Es ist zu wünschen, dass der Verlag, immer noch eine Größe im Geschäft, zur gebotenen Vernunft und zum allgemeinen Sprachgebrauch zurückkehrt. Wenn er das nicht tun will, sollte er sich offen zu seiner Ausrichtung bekennen.
Abb.: Der Diogenes-Verlag hat seinen Sitz in Zürich
Der jüngste Roman von Ian McEwan trägt den Titel „What we can know“. Die englische Ausgabe ist bei Jonathan Cape in London erschienen, die deutsche Ausgabe mit dem Titel „Was wir wissen können“ bei Diogenes in Zürich. Bei der Übersetzung fallen Ungenauigkeiten und Abweichungen auf, die mit dem Einfluss bzw. dem Phänomen der Gendersprache zusammenhängen dürften. Auf S. 17 des Originals heißt es: „Scholars see, hear and know more of them, of their private thoughts, than we do of our closest friends.“ Das könnte man übersetzen mit „Wissenschaftler sehen, hören und wissen mehr über sie, über ihre privaten Gedanken, als wir über unsere engsten Freunde.“ Der Übersetzer macht daraus: „Die Forschenden sehen, hören und wissen mehr von ihnen, ihren privatesten Gedanken, als wir von unseren engsten Freunden.“ (S. 32) Nun sind alle Menschen Forschende, aber nur einige sind Forscher. Die Partizipform (es handelt sich um das Partizip Präsens), die nicht wenige Wissenschaftler und Wissenschaftlerinnen erzürnt, bedeutet etwas anderes als das Agensnomen. Sie wird gerne in der Gendersprache verwendet, um das generische Maskulinum zu vermeiden, wenn dieses irrtümlich auf männliche Personen bezogen wird. Auf Seite 19 der englischen Ausgabe liest man: „For the post-2030 crowd, which is most of the department, there’s even more.“ Das könnte man so wiedergeben: „Für die Generation nach 2030, die den Großteil des Fachbereichs ausmacht, gibt es sogar noch mehr.“ Der Übersetzer dichtet: „Und für die vielen Forschenden der Zeit nach 2030, die den größten Teil des Fachbereichs ausmachen, gibt es sogar noch mehr.“ Es geht um eine Generation des Fachbereichs, sodass man durchaus von Forschern sprechen könnte. Von Forschenden allerdings nicht – das verschiebt die Bedeutung. Auf Seite 20 des Originals steht: „Mary Sheldrake was among the most successful novelists of her generation.“ Dies könnte man übersetzen mit: „Mary Sheldrake gehörte zu den erfolgreichsten Romanautoren ihrer Generation.“ Erstaunlicherweise lautet die Stelle im deutschsprachigen Buch auf Seite 37: „Mary Sheldrake war eine der erfolgreichsten Schriftstellerinnen ihrer Generation.“ Das macht sie unbedeutender, als sie ist – sie ist in ihrer Generation nicht nur unter den professionell schreibenden Frauen eine der erfolgreichsten, sondern unter allen, die professionell schreiben. [Hier geht es zu Teil II.]
Im Rahmen der Veranstaltungsreihe ToBIT an der Hochschule für Wirtschaft FHNW bearbeiten vier Studenten von Prof. Dr. Oliver Bendel vier Themen, die in seinem Forschungsbereich angesiedelt sind: „The decoding of symbolic languages of animals“, „The decoding of animal body language“, „The decoding of animal facial expressions and behavior“ und „The decoding of extraterrestrial languages“. Die ersten drei Themen werden bzw. wurden auch in Projekten erforscht. DEEP VOICE widmet sich der Kommunikation von Walen. The Animal Whisperer Project umfasste drei Apps, die Körpersprache von Kühen, Pferden und Hunden analysierten und evaluierten, während VISUAL blinden und sehbehinderten Personen auditive Beschreibungen von Bildern aus Wildtier-Webcams lieferte. In ANIFACE wurde ein System konzipiert, das Individuen von Bären in den Alpen mit Hilfe von Gesichtserkennung identifizieren kann. Projekte zum Auffangen von extraterrestrischen Signalen und zur Kommunikation mit außerirdischen Lebensformen wurden im Buch „300 Keywords Weltraum“ erwähnt. Auch eine Alienethik wurde darin skizziert. Die Studenten präsentierten am 26. November 2025 ihre Zwischenergebnisse. Im Januar 2026 findet die Abschlussveranstaltung von ToBIT statt.
Michael Marti vom Tages-Anzeiger hat mit Prof. Dr. Oliver Bendel ein Interview geführt. Vor allem ging es um robotische Zweibeiner, die als Allzweckroboter vermarktet werden. Beispiele sind Figure 03, NEO und Optimus. Der Technikphilosoph nimmt an, dass die Einführung in die Haushalte in zwei Wellen erfolgen wird. In der ersten Welle versucht man, möglichst viele Exemplare zu verkaufen, um sie in der Realität einzusetzen. Die Allzweckroboter, meist humanoide Roboter, bewegen sich durch Wohnungen und Häuser, treffen auf Menschen und Tiere. Mithilfe von Kameras und Sensoren werden Daten erzeugt, die nicht nur für Wahrnehmung, Beurteilung und Steuerung, sondern auch für das Training wesentlich sind. In der zweiten Welle erfolgt dann die massenhafte Einführung – wenn diese nicht an Faktoren scheitern wird, die ebenfalls genannt werden. Im Teaser des Artikels, der das Interview enthält, steht: „Der Mann ist der Schweizer Roboter-Flüsterer. Oliver Bendel (57), Professor für Maschinenethik an der FHNW in Windisch AG, erforscht seit Jahren, wie wir mit Robotern leben – und was sie mit uns machen.“ (Tages-Anzeiger, 26. November 2025) Der Artikel ist am 26. November 2025 erschienen und kann hier aufgerufen werden.
Abb.: Oliver Bendel mit Miroka auf der ICSR 2025 in Neapel (Foto: Tamara Siegmann)
Users who translate texts from English or another language into German and are not native speakers of the target language should be cautious when using services such as DeepL and ChatGPT. 1. For both, the default setting is not the standard language, as one might assume, but a special language that is rejected by the majority of the language community and does not follow the official rules. These are determined for all German-speaking countries by the Rechtschreibrat. DeepL and ChatGPT follow their own rules or the inconsistent ideas of activists. The German language generated by DeepL and ChatGPT is often dysfunctional, incorrect, and imprecise. Formal inaccuracies can lead to inaccuracies in content. 2. If AI systems do not know words, they may simply replace them with completely different ones. In one test, DeepL translated „Animal-Computer Interaction“ as „Mensch-Computer-Interaktion“ („Human-Computer Interaction“). This made the text factually incorrect. 3. Overall, especially with ChatGPT, English language structures are transferred to German. This results in unnatural-sounding lists, unlinked compounds („Deep Learning Modelle“ or „Deep Learning-Modelle“ instead of „Deep-Learning-Modelle“), and unnecessary or incorrect hyphens („nicht-amtliche Regeln“ instead of „nichtamtliche Regeln“).
Über die Unzulänglichkeiten und Zumutungen von DeepL wurde immer wieder berichtet. So verwendet es oft keine Standardsprache, sondern eine Sondersprache. Insbesondere bei Nichtmuttersprachlern besteht die Gefahr, dass aus ihren korrekten englischen oder anderssprachigen Texten inkorrekte deutsche werden, ohne dass sie dies bemerken oder ändern können. Bei ChatGPT ist dasselbe der Fall – dort ist die Sondersprache, die sich auf privat ausgedachte oder spontan erfundene Regeln stützt, sogar mit der Standardeinstellung vorgegeben. Kaum bekannt ist, dass DeepL einfach Wörter ersetzt, wenn es sie nicht kennt. Wer nicht im Detail überprüft oder eine Unaufmerksamkeit begeht, gibt womöglich einen sinnentstellten oder sinnentleerten Text ab. Bei einem Test wurde ein Blogpost, der in englischer Sprache vorlag, in die deutsche Sprache übersetzt. Aus „Animal-Computer Interaction“ („Tier-Computer-Interaktion“) wurde einfach „Mensch-Computer-Interaktion“ gemacht. Das Wort „Animal-Computer Interaction“ mag nicht jedem geläufig sein, aber es gibt zahlreiche Artikel dazu und eine Konferenz, die jedes Jahr stattfindet. Solche Falschübersetzungen würde man von den bekannten LLMs erwarten, aber nicht unbedingt von DeepL. Dabei konnte man durchaus gewarnt sein.
In den Begleittexten zur Lehmbruck-Ausstellung im Kunsthaus Zürich werden genderaktivistische Schreibweisen verwendet („Künstler:innen“, „Künstler:innengenerationen“, „[von] Kunstförder:innen“), die weder der deutschen Orthografie noch der gewachsenen Grammatik entsprechen. Sonderzeichen im Wortinneren zerstören etablierte Wortstrukturen, verunmöglichen korrekte Deklinationen und erschweren die Lesbarkeit deutlich. Diese Formen sind keine anerkannte Weiterentwicklung der Standardsprache, also natürlicher Sprachwandel, sondern politisch-ideologisch motivierte Markierungen, die – wie in Diktaturen – von bestimmten Stellen kommen. Für eine öffentliche Kulturinstitution wie ein Museum ist das problematisch. Dieses hat den Auftrag, Kunst verständlich und zugänglich zu vermitteln. Texte, die durch Sonderformen zusätzlich Hürden aufbauen, schließen weite Teile des Publikums aus, statt sie einzubeziehen. Inklusion wird so nicht gefördert, sondern unterlaufen. Nicht zuletzt wird die bildende Kunst zum Grabstein der textuellen Begleitung. Wer Sprache als Kulturwerkzeug und Kulturgut ernst nimmt, sollte im institutionellen Gebrauch an einer korrekten, präzisen und allgemein verständlichen Standardsprache festhalten.