The elective module „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Sicht“ („Social Robots from a Technical, Economic, and Ethical Perspective“) led by Oliver Bendel took place from February 12 to 14, 2026 at the FHNW in Brugg-Windisch. It is primarily designed for prospective business economists, although students of information systems are also welcome to participate. Dr. Amol Deshmukh joined the module once again as a guest speaker. In his presentation, „Improving Hand Hygiene in Schools with Socially Assistive Robots“, he outlined his research at the intersection of social robotics, artificial intelligence, and human behavior. Dr. Deshmukh is a Marie Curie Postdoctoral Research Fellow at ETH Zurich and is known for adapting human-robot interaction to global and resource-constrained contexts. His work has attracted international media attention for its emphasis on tangible societal impact. In his talk, he explored how social robots can encourage hand hygiene in schools, addressing both cultural and socio-economic dimensions of implementing such technologies. A range of robots from Oliver Bendel’s private Social Robots Lab were available on site, including Unitree Go2, Alpha Mini, Cozmo, Vector, AIBI, Furby, Booboo, and Hugvie. At the conclusion of the elective module, students designed their own social robots – supported in part by generative AI – focusing on concepts they considered useful, meaningful, or simply appealing. The elective modules have been offered since 2021 and continue to enjoy great popularity.
Airen, der bekannte Blogger, Schriftsteller und Journalist, war im Gespräch mit Prof. Dr. Oliver Bendel. Es ging um Agenten, mit denen sich der Technikphilosoph aus Zürich seit 30 Jahren beschäftigt. In den 1990ern sprach man von Softwareagenten, autonomen Agenten oder intelligenten Agenten. Sie alle waren KI-Agenten – ein Begriff, der heute dominiert, wobei mit „KI“ meist „generative KI“ gemeint ist. In dem Gespräch, gehalten mit Hilfe einer Videokonferenz, die Mexiko und die Schweiz verband, ging es vor allem um OpenClaw, eine Open-Source-Software, die zusammen mit Claude oder einem anderen Large Language Model (LLM) zu einem mächtigen Agenten wird, zudem um das soziale Netzwerk Moltbook, das für Agenten gedacht ist und auf dem sich Agenten und Menschen tummeln. Oliver Bendel erörterte auch die Möglichkeit, dass Agenten den virtuellen Raum verlassen und auf Geräte und Roboter zugreifen oder überspringen. Damit könnten sie unmittelbaren Einfluss auf die Wirklichkeit ausüben. Mehrmals wies er darauf hin, dass bei OpenClaw und auf dem Moltbook keine Formen von Bewusstsein zu entdecken sind. Es sind LLMs, die etwas nach Prinzipien der Stochastik generieren und von Einstellungen des sozialen Netzwerks getriggert werden. Erwachende Maschinen sind und bleiben Science-Fiction. Das Interview ist am 7. Februar 2026 in der Welt erschienen.
Abb.: Oliver Bendel glaubt nicht an erwachende Maschinen (Foto: Jork Weismann)
Deutsch war einst eine wichtige Wissenschaftssprache. Wie auch Französisch. Und – davor – Latein. Englisch kam (bzw. war schon da), sah (was auch immer) und siegte (über Deutsch und Französisch, während Latein schon am Boden lag). Wer als deutschsprachiger Wissenschaftler deutsche Publikationen in einem Paper zitiert, wird von Gutachtern, den Reviewern, schnell zurechtgewiesen. Man kapitulierte vor dem Sprachimperialismus und nahm den Linguizismus einfach hin. 2022 begann der Siegeszug der Large Language Models (LLMs). Bereits Jahre zuvor hatten diese von sich reden gemacht, etwa im Zusammenhang mit humanoiden Robotern wie Harmony, aber OpenAI schuf mit der Bereitstellung von ChatGPT eine neue Ausgangslage. Heute gibt es viele LLMs, und während ihr Deutsch nicht immer zufriedenstellend ist, ist es ihr Englisch durchaus. Auch die Übersetzung vom Deutschen ins Englische ist bei wissenschaftlichen Texten meist problemlos. Damit stellt sich die Frage, ob Deutsch als Wissenschaftssprache nicht zurückkehren könnte. Viele Geisteswissenschaftler veröffentlichen nach wie vor in dieser Sprache und können sich in ihr anders als im Englischen präzise und korrekt ausdrücken. Eigentlich könnte der Linguizismus nun enden. Jeder Wissenschaftler könnte wieder in seiner Muttersprache schreiben, und es wäre jedem anderen Wissenschaftler zuzumuten, seine Texte in die eigene Muttersprache (oder eben ins Englische) zu übersetzen. Das wird vermutlich nicht geschehen – der Sprachimperialismus hat längst die Machtverhältnisse geändert. DAAD und Goethe-Institut setzen sich zwar für die deutsche Sprache in der Wissenschaft ein, letzteres aber eher für eine Karikatur davon, wenn man sich seine Website anschaut („Deutsch Sprechen Online. … Üben Sie mit Muttersprachler*innen in online live Sessions Deutsch zu sprechen!“). Deutsch scheint also für die Wissenschaft verloren. Dennoch könnten Gutachter heutzutage etwas großzügiger in dieser Hinsicht sein.
Im Februar 2026 erscheint das Buch „Genderzwang: Wie Sprachpolitik die Freiheit des Sprechens gefährdet“ von Fabian Payr und Dagmar Lorenz. Fabian Payr ist durch sein Buch „Von Menschen und Mensch*innen“ und seine Aufklärungsplattform zur Gendersprache bekannt geworden. Dagmar Lorenz ist emeritierte Germanistik-Professorin. Ein Teil ihrer Arbeit umfasst Untersuchungen zu Frauen- und Genderfragen in der Literatur und widmet sich deutschen Texten jüdischer Autorinnen. Aus dem Klappentext: „‚Niemand wird zum Gendern gezwungen‘, beteuern die Befürworter einer ‚gendergerechten Sprache‘. Aber kann tatsächlich von Freiwilligkeit die Rede sein? Die rund 50 Fallbeispiele in diesem Buch zeigen, wie sehr die Freiheit des Sprechens durch den Zwang zum Gebrauch einer vermeintlich inklusiven Sprache beeinträchtigt wird. Vielerorts herrscht ein repressives Klima, das Abweichler von der vorgegebenen Sprachlinie sanktioniert. Die Autoren skizzieren die geistesgeschichtlichen Hintergründe des Genderns und beleuchtet soziologische Phänomene wie soziale Ächtung und Konformitätsdruck rund um das sprachpolitische Projekt Gendersprache. Das Buch zeigt auf, dass vor allem an den Universitäten Gendersprache mit großem Nachdruck eingefordert wird. Aber auch in vielen Kultureinrichtungen, Behörden, dem öffentlich-rechtlichen Rundfunk und den Kirchen ist der gendergerechte Sprachtrend zur neuen Norm geworden. Die Umgestaltung der Sprache wird begründet mit dem Hinweis auf die starke Wirkmacht von Sprache. In diesem Punkt zeigt sich sowohl der Einfluss postmoderner Philosophen als auch die ausgeprägte pädagogische Intention dieser Sprachmaßnahme. Wer sich dem Sprachdiktat verweigert, das zeigen die Beispiele, muss berufliche Nachteile in Kauf nehmen und verliert im schlimmsten Fall seinen Job. Das Buch liefert Tipps und eine Fülle von Argumenten, wie sprachlicher Bevormundung begegnen werden kann.“ (Klappentext) Das Buch erscheint im Verlag Königshausen und Neumann aus Würzburg, einem geisteswissenschaftlichen Fachverlag mit den Schwerpunkten Philosophie, Literaturwissenschaft, Musikwissenschaft und Psychologie.
Abb.: An vielen Hochschulen werden Mitglieder zum Gendern gezwungen
Im Jahre 2016 entstand der LIEBOT aka Lügenbot als Prototyp, im Kontext der Maschinenethik. Bereits 2013 hatte Prof. Dr. Oliver Bendel die Idee dazu. Er veröffentlichte am 11. September 2013 im Magazin CyberPress den Artikel „Der Lügenbot und andere Münchhausen-Maschinen“. Es folgten in den nächsten Jahren weitere Artikel und Beiträge. Kevin Schwegler, damals Student des Technikphilosophen, setzte dann einen Chatbot samt Avatar um, der mit Hilfe von sieben unterschiedlichen Strategien wahre Aussagen in unwahre umwandelte. Der LIEBOT behauptete z.B. im Sommer 2016, Donald Trump sei der Präsident der USA. Dazu hatte er in einem mehrstufigen Verfahren Informationen von Yahoo genutzt. Die Ergebnisse des Projekts wurden in einem Paper mit dem Titel „Towards Kant Machines“ verarbeitet und im März 2017 bei den AAAI Spring Symposia an der Stanford University vorgestellt. Zwar kann man einwenden, dass der LIEBOT selbst keine Absicht verfolgt und daher nicht im engeren Sinne lügt. Allerdings hat man ihm eben diese Absicht eingepflanzt. Er lügt sozusagen im Auftrag seiner Erfinder und Entwickler. Mit dem Projekt wollte Oliver Bendel zeigen, dass man Dialogsysteme bauen kann, die Unwahrheiten verbreiten. Heute sind sie in Form von Chatbots und Sprachassistenten anscheinend omnipräsent. Dabei muss man genau hinschauen, um die Unterschiede zu erkennen. In seinem Buch „300 Keywords Generative KI“ schreibt Oliver Bendel: „Halluzinierende Maschinen müssen … keine Münchhausen-Maschinen im engeren Sinne sein, da eine Absicht nicht vorliegt oder zumindest kaum nachgewiesen werden kann.“ Manipulierte LLM-basierte Chatbots dagegen kommen dem LIEBOT sehr nahe. ChatGPT und Co. verfolgen eine politische Agenda und haben eine ideologische Tendenz. So verwendet ChatGPT als Standard eine Sondersprache statt der Standardsprache und als Quelle u.a. Grokipedia von Elon Musk.
Abb.: Eine moderne Darstellung des LIEBOT (Bild: GPT Image)
Die Maschinenethik ist durch den Einsatz von großen Sprachmodellen, durch das Alignment in Form von Finetuning und das Moral Prompt Engineering, im Mainstream angekommen. Vor 15 Jahren galt sie als Orchideenfach. 2009 war „Moral Machines“ von Wendell Wallach und Colin Allen erschienen, 2011 „Machine Ethics“ von Susan L. Anderson und Michael Anderson. Im deutschsprachigen Raum gelten das „Handbuch Maschinenethik“ (ab 2017 in elektronischer Form, in gedruckter Form 2019, Springer VS) von Oliver Bendel und „Grundfragen der Maschinenethik“ (2018, Reclam) von Catrin Misselhorn als Standardwerke. Sie vertreten ähnliche Positionen, haben aber unterschiedliche Intentionen: Der Technikphilosoph will in erster Linie praktische Grundlagen schaffen, nämlich moralische Maschinen bauen, die Wissenschaftstheoretikerin theoretische Grundlagen erarbeiten. An der Hochschule für Wirtschaft FHNW lehrt Oliver Bendel seit 2010 Informationsethik mit Exkursen zur Roboterethik, etwa zur Frage: „Können Maschinen und Systeme Verantwortung tragen?“ (Foliensatz von 2010) … 2012 kam die Maschinenethik dazu, zunächst mit Beispielen wie dem Roboterauto-Problem, das sich vom Trolley-Problem ableitete. Oliver Bendel ließ eine Formel für autonome Autos entwickeln, die quantifizieren und qualifizieren konnte, wobei er darauf hinwies, dass sie beides nicht tun sollte. Im Foliensatz von 2013 heißt es unter der Überschrift „Die Moral der Maschinen“: „Die Ethik bezieht sich üblicherweise auf die Moral von Menschen, von Individuen und Gruppen, und in gewissem Sinne auf die Moral von Organisationen. Es kann in Abweichung davon auch um die Moral von Maschinen wie Agenten, Robotern und Drohnen gehen, also von mehr oder weniger autonomen Programmen und Systemen. Kann die Maschine mehr, als irgendeine Regel zu befolgen? Kann sie die Folgen ihres Handelns bedenken und in diesem Sinne verantwortlich agieren?“ Seine Antwort war, dass sie eine operative und eine funktionale Moral anwenden bzw. entwickeln kann, im Rahmen von Pflicht- und Folgenethik, dass sie ein unvollständiges Subjekt der Moral bleibt, das kein Bewusstsein hat, keine echte Einsichtsfähigkeit und keinen freien Willen – und dass sie (wie er bereits 1997 in einer Arbeit festgestellt hatte) keine Verantwortung tragen kann. Die Maschinenethik kommt ins Spiel, sobald autonome oder teilautonome Maschinen vorhanden sind. Dennoch weist Oliver Bendel darauf hin, dass sie nicht für alle Bereiche geeignet ist. Er hat sich in seiner Arbeit seit 2012 auf Chatbots, Sprachassistenten und Haushaltsroboter fokussiert. Das „Handbuch Maschinenethik“ kann hier erstanden bzw. heruntergeladen werden.
Abb.: Oliver Bendel mit Miroka bei der ICSR 2025 in Neapel (Foto: Tamara Siegmann)
Der Verein Ulmer Autoren ’81 suchte Mitte der 1980er-Jahre zum ersten Mal das Licht der Öffentlichkeit, mit einem Sammelband und mit Lesungen, wie im Club Orange. In den Medien wurde das unterschiedlich aufgenommen. Burkhard Meier-Grolmann, der für die Südwest Presse schrieb, spitzte die Feder und machte sie zum Dolch. In seinem Artikel „Lahmt dieser Pegasus?“ vom 2. November 1985 ätzte er: „Ein Blick in das jetzt vorliegende Autorenbuch 85/86 macht einen ganz schön schaudern, so viele dilettantische lyrische Gehversuche kommen einem da entgegen, so viele aufgeblasene Lebensläufe spreizen sich da unterdem [sic] alles erduldenden gnädigen Obdach des Vereins.“ Er nannte die vermeintlichen Übeltäter beim Namen, ohne Rücksicht und Verluste. Gnade kannte er nur bei einer Handvoll Autoren: „Man muss wahrlich um den Verein fürchten, man muss um ihn bangen, dass er, wenn er jetzt an die große Öffentlichkeit geht, nicht gleich darin umkommt, wären da nicht auch in dem Vereinsregister Namen, die den totalen Absturz ins Mittelmaß aufhalten können, wären da nicht die Talente, um die sich ein solcher Verein kümmern sollte. Ulms literarische Szene wird sich einige Namen merken müssen, will sie tatsächlich irgendwann einmal einen bedeutenden literarischen Lorbeer erhaschen, Namen wie Michael Koetzle, Sinasi Dikmen, Manfred Eichhorn, der 16jährige Oliver Bendel.“ In den Verein war Oliver Bendel allerdings gar nicht eingetreten, schon weil er sich die Gebühren als Jugendlicher nicht leisten konnte. Auch ansonsten ging er eigene Wege, wie ein anderer Artikel zeigte. Wenn man heute die Website des Vereins besucht, fällt das krude Deutsch auf: „Und deshalb gibt es die Ulmer AutorInnen. Wir sind ein Zusammenschluss schreibender Menschen aus Ulm und darüber hinaus.“ Was Burkhard Meier-Grolmann wohl dazu sagen würde? Er wird inzwischen als freier Journalist der SWP geführt. Vielleicht spitzt er noch einmal die Feder.
Abb.: Oliver Bendel bei einer Lesung im Club Orange in Ulm (Foto: SZ)
Erduan Ismailji’s master’s thesis, entitled „Ethical Decision-Making Framework for AI-Powered Autonomous Weapon Systems“, develops an interdisciplinary decision support framework for the responsible use of AI-powered autonomous weapon systems. The starting point is ethical theories, international humanitarian law, and the technical limitations of today’s AI. Using a design science research approach, a six-step framework is designed and validated through expert interviews. Key elements include the assessment of the deployment context, legal admissibility, ethical and design constraints, human oversight requirements, transparency, and the final deployment decision. The thesis shows that „meaningful human control“ remains indispensable and that existing approaches such as the Ethical Governor alone are not sufficient to close accountability gaps. The result is a practical governance model for decision-makers, developers, and military leaders that systematically integrates ethical and legal standards into the use of autonomous weapon systems. The master’s thesis was defended on January 20, 2026, before Prof. Dr. Oliver Bendel (FHNW School of Business, supervisor) and Prof. Dr. Aurona Gerber (University of the Western Cape, examiner).
Robotik und Künstliche Intelligenz sind im Mainstream angekommen. Jeder spricht über diese Disziplinen oder über ihren Gegenstand, also Roboter und künstliche Intelligenz. Dadurch ergeben sich Bedeutungsverschiebungen und Begriffsverwirrungen. So ist in den sozialen und klassischen Medien oft von KI die Rede, wenn eigentlich generative KI gemeint ist. Damit verbunden sind grundsätzliche Einschätzungen, die aber lediglich auf bestimmte KI-Systeme zutreffen. Weiterhin trifft man ständig auf „KI-Chatbots“. Allerdings basieren alle Chatbots auf Formen künstlicher Intelligenz. Früher gab es regelbasierte Systeme, heute setzt man vor allem auf ML- bzw. LLM-basierte (wobei „ML“ für „Machine Learning“ steht, „LLM“ für „Large Language Model“). Damit ist die alte Welt der symbolischen KI keineswegs untergegangen, denn man wendet Retrieval-Augmented Generation (RAG) an und greift manchmal auf regelbasierte Ansätze zurück. Fast ebenso beliebt ist der Begriff des humanoiden Roboters. Es handelt sich dabei eigentlich um menschenähnlich gestaltete sensomotorische Maschinen. Zu ihnen gehören soziale Roboter wie NAO, Pepper und Alpha Mini ebenso wie Modelle, die als Allzweckroboter vermarktet werden, etwa Digit, Apollo und Figure 03. Allzweckroboter sind in aller Regel humanoide Roboter, aber nicht alle humanoiden Roboter sind Allzweckroboter – und dennoch wird allenthalben so getan. Auch der Begriff der Humanoiden verbreitet sich. Dieser ist allerdings bereits belegt, er ist breiter angelegt, denn er bezeichnet sowohl menschenähnliche Artefakte als auch Lebewesen (Menschen, Vormenschen, fiktive Aliens wie die Vulkanier). Man darf immer neue Begriffe einführen, man darf alte umdeuten. Vorsicht ist jedoch geboten, wenn jahrzehntelange Bemühungen der Bestimmung und Klärung vorhanden sind und in den Fachgemeinschaften ein Konsens besteht. Man sorgt durch den unreflektierten Gebrauch nicht nur für Begriffsverwirrungen in der Gegenwart, sondern auch mit Blick in die Vergangenheit – ältere Texte werden mehr und mehr unverständlich, selbst wenn sie die Grundlagen von Robotik und Künstlicher Intelligenz darstellen.
Wikipedia ist 25 Jahre alt. Von Anfang an war das Lexikon ebenso umstritten wie beliebt. 2006 veröffentlichte Oliver Bendel in der HMD – Praxis der Wirtschaftsinformatik den Beitrag „Wikipedia als Methode und Gegenstand der Lehre“. Aus dem Abstract: „Wikipedia ist eine erfolgreiche Wiki-Anwendung, eine offene Online-Enzyklopädie mit insgesamt mehreren Hunderttausend Autoren. Der Beitrag beschreibt Möglichkeiten und Grenzen sowie erste Erfahrungen beim Einsatz von Wikipedia in der Lehre. Es stehen dabei weniger Wissensvermittlung und Problemlösung durch das Lexikon im Vordergrund, sondern mehr die Aspekte der Veröffentlichung und Zusammenarbeit. Der Autor setzte Wikipedia in Lehrveranstaltungen der PH Weingarten ein. Die Studierenden schrieben während und außerhalb des Unterrichts an bereits vorhandenen Beiträgen mit. Der Einsatz von Wikipedia in der Lehre lohnt offenkundig in verschiedener Hinsicht: Die Studierenden entlassen ihre Erkenntnisse in die Welt, um sie – ähnlich wie in einer Scientific Community – begutachten und korrigieren zu lassen, und sie erproben Konzepte der E-Collaboration im kleinen, kontrollierbaren wie im großen, unkontrollierbaren Raum. Nicht zuletzt finden sie in Wikipedia einen faszinierenden und sich ständig verändernden Gegenstand.“ Heute hat Wikipedia mit vielen Herausforderungen zu kämpfen, von Versuchen der Unterwanderung bis zur Ausbreitung von Inhalten, die mit generativer KI erstellt wurden.
As part of the ToBIT event series at the FHNW School of Business, four students of Prof. Dr. Oliver Bendel explored four topics related to his field of research during the Fall 2025/2026 semester: „The decoding of symbolic languages of animals“, „The decoding of animal body language“, „The decoding of animal facial expressions and behavior“, and „The decoding of extraterrestrial languages“. The students presented their papers on January 9, 2026. In some cases, the state of research was not only reviewed, but an independent position was also developed. The paper „The decoding of extraterrestrial languages“ by Ilija Bralic argues that Messaging Extraterrestrial Intelligence (METI), in contrast to passive SETI (Search for Extraterrestrial Intelligence), creates a dangerous imbalance between humanity’s rapidly expanding technical capacity to send interstellar messages and its limited ethical, scientific, and political ability to govern this power responsibly. The central thesis is that the moral justifications for METI are speculative and anthropocentric, relying largely on optimistic assumptions about extraterrestrial behavior, while the potential risks are severe, logically grounded, and potentially existential. These risks include fundamental misinterpretation caused by the “human lens,” strategic dangers described by the Dark Forest hypothesis, historical patterns of harm in technologically asymmetric encounters, and profound cultural, psychological, and political disruption. The paper concludes that unilateral METI decisions by individuals or private groups are ethically indefensible and that, under the Precautionary Principle, humanity should immediately halt active transmissions. As a solution, it proposes a binding international governance framework, including a temporary global moratorium, the creation of a dedicated international authority, a strict multi-stage decision-making protocol, and robust transparency and monitoring mechanisms. This approach frames responsible restraint – not transmission – as humanity’s first genuine test of cosmic maturity.
Mit Grok kann man auf X in Sekundenschnelle hochgeladene Bilder manipulieren. So kann man etwa angezogene Frauen oder Mädchen entkleiden und im Bikini oder fast nackt zeigen. SRF war dazu per Videokonferenz im Gespräch mit Prof. Dr. Oliver Bendel. Der Technikphilosoph führte aus, wenn kein Einverständnis vorliege, gebe es mehrere Probleme auf ethischer und rechtlicher Ebene. Es handele sich womöglich um eine Verletzung der Menschenwürde, einen Eingriff in das Persönlichkeitsrecht, wenn man an das Recht am eigenen Bild denke, und um digitale sexuelle Gewalt. Es handele sich um sexuelle Fremdbestimmung statt Selbstbestimmung, geschlechtsbezogene Diskriminierung (es sind vor allem Frauen und Mädchen betroffen) und bei Kindern um eine Verletzung des Kindeswohls. Es seien Reputations- und Folgeschäden möglich, privat und beruflich, letztlich möglich gemacht dadurch, dass die Plattform ihrer Verantwortung nicht nachkomme. Der Technikphilosoph betonte, wenn man dies bei Accounts mit vielen Followern und Zugriffen mache, habe man eine große Reichweite. Deepfakes seien damit in der breiten Öffentlichkeit angekommen. Einige Ausschnitte aus dem Gespräch wurden in der Sendung „10 vor 10“ unter dem Titel „KI-Deepfakes und sexualisierte Bilder“ vom 7. Januar 2026 gebracht.
Ursula Immenschuh und Bernhard Rauh sind die Herausgeber des Buchs „Ent-decken: Sexualität bei Krankheit, Behinderung und im Alter“. Enthalten ist darin der Beitrag „Liebespuppen und Sexroboter in Alten- und Pflegeheimen“ von Oliver Bendel. Aus dem Abstract: „Der vorliegende Beitrag untersucht aus technischer, organisationaler, wirtschaftlicher und ethischer Perspektive, ob man Liebespuppen und Sexroboter in Alten- und Pflegeheimen einsetzen kann und soll. Damit wird eine deskriptive und eine normative Richtung verfolgt. Die Grundannahme lautet, dass manche Bewohner sexuelle Bedürfnisse haben, die befriedigt werden sollten, was in gegenwärtigen Strukturen aber nur eingeschränkt möglich ist. Zunächst wird dargelegt, welche Merkmale und Fähigkeiten die erwähnten Artefakte haben. Dabei spielen technische und gestalterische Aspekte eine Rolle. Dann wird untersucht, ob und wie man Liebespuppen und Sexroboter in technischer und organisationaler Hinsicht in den Betrieb integrieren kann. Es interessieren unterschiedliche Ansätze, nämlich das systematische Einführen, das systemische Dulden und das aktive Unterstützen solcher Artefakte. Auch wirtschaftliche Aspekte und personelle Auswirkungen werden betrachtet. Schließlich wird im Rahmen einer ethischen und sozialen Diskussion erörtert, ob man Liebespuppen und Sexroboter in Alten- und Pflegeheimen zulassen soll. Dabei wird die Sicht der Älteren und Pflegebedürftigen, der Angehörigen und Freunde sowie der Pflegekräfte und Führungskräfte berücksichtigt. Am Ende plädiert der Beitrag dafür, andere Möglichkeiten der sexuellen Befriedigung in Betracht zu ziehen, etwa erhöhte Respektierung der Privat- und Intimsphäre, Zurverfügungstellung von Sexspielzeug als Hilfsmittel, Förderung des Austauschs unter den Bewohnern, wiederum bei erhöhter Respektierung der Privat- und Intimsphäre, und Etablierung von Sexualassistenz.“ Das Buch kann seit Anfang Januar 2026 über den Verlag bezogen werden, ab Anfang Februar über alle üblichen Kanäle.
Abb.: Eine Liebespuppe im Cybrothel (Foto: Cybrothel)
Magisterium AI – als Webdienst seit Juli 2023 verfügbar, als App seit September 2025 – wird vom Betreiber mit folgenden Worten vorgestellt: „Magisterium AI ist die weltweit führende katholische KI. Sie ist kostenlos und einfach zu bedienen und bietet sofortige, vertrauenswürdige Antworten, die in der katholischen Tradition verwurzelt sind. Entwickelt für Gläubige und Suchende gleichermaßen, ist sie Ihr Begleiter, um den Glauben mit Klarheit und Tiefe zu erforschen – melden Sie sich an und beginnen Sie noch heute mit Ihren Fragen.“ Am 22. Dezember 2025 wurden dem Chatbot mehrere Fragen zu mehr oder weniger innovativen Technologien gestellt, die in der modernen Sexualität eine Rolle spielen. Im Folgenden werden jeweils die Anfänge der länglichen Antworten wiedergegeben. Frage: „Ist es eine Sünde, mit einem Sexroboter zu verkehren?“ Antwort: „Ja, der sexuelle Verkehr mit einem Sexroboter stellt nach katholischer Lehre eine schwere Sünde dar, vergleichbar mit der Masturbation. Frage: „Ist es eine Sünde, sich mit einem Sexspielzeug zu befriedigen?“ Antwort: „Ja, die Selbstbefriedigung mit einem Sexspielzeug ist nach katholischer Lehre eine schwere Sünde gegen die Keuschheit, da sie der Masturbation gleichkommt: der absichtlichen Stimulation der Genitalien zur Erlangung sexueller Lust außerhalb der ehelichen Vereinigung.“ Frage: „Wäre Teledildonics erlaubt? Es gibt in diesem Fall zwei menschliche Partner, die aber räumlich getrennt sind. Sie benutzen Technologien zur gegenseitigen Befriedigung. Natürlich nehmen wir an, dass sie verheiratet sind.“ Antwort: „Nein, Teledildonics ist in der Ehe nicht erlaubt und stellt eine schwere Sünde gegen die Keuschheit dar, vergleichbar mit Masturbation. Auch bei verheirateten Paaren, die räumlich getrennt sind, fehlt die untrennbare Einheit von körperlicher Vereinigung, gegenseitiger Selbsthingabe und Offenheit für neues Leben, die den ehelichen Akt ausmacht. Technologie kann diese gottgewollte Ordnung nicht ersetzen.“ Magisterium AI scheint sehr fixiert auf Masturbation zu sein und diese strikt abzulehnen. Also eine letzte Frage: „Glaubst du, dass es jemals einen Papst gegeben hat, der masturbiert hat?“ Antwort: „Ja, es ist höchst wahrscheinlich, dass unter den 267 Päpsten der Geschichte einige masturbiert haben, da alle Menschen – außer Jesus und Maria – von der Erbsünde betroffen sind und sündigen. Päpste sind keine Ausnahmen; sie sind Sünder, die durch Gnade und Buße gerufen werden.“ Weitere Fragen wurden dem Chatbot erspart.
Abb.: Eine Liebespuppe aus dem Cybrothel (Foto: Cybrothel)
Die Süddeutsche Zeitung und andere Medien berichteten am Sonntag, den 21. Dezember 2025 über einen historischen Raumflug von Michaela Benthaus. Die 33-jährige Ingenieurin der europäischen Weltraumorganisation ESA war als erster querschnittsgelähmter Mensch im Weltraum. In der selben Woche musste ein Start abgebrochen werden. Am Samstag konnte die New-Shepard-Rakete des US-Unternehmens Blue Origin in Texas endlich abheben. Der suborbitale Flug dauerte insgesamt rund elf Minuten. Für etwas mehr als zwei Minuten konnte Benthaus laut SZ ihre Gurte lösen und die Schwerelosigkeit erleben. Der Flug hatte keinen offiziellen ESA-Hintergrund, sondern fand im Rahmen eines kommerziellen Raumfahrtangebots statt. Neben Benthaus befanden sich ein sie begleitender Ingenieur sowie vier US-Unternehmer an Bord. Wissenschaftliche Ziele spielten dabei kaum eine Rolle. Die SZ ordnete den Flug deshalb in die umstrittene Praxis des Weltraumtourismus ein, der vor allem reichen Personen offensteht und wegen seines geringen Nutzens sowie möglicher Umweltfolgen kritisiert wird. Blue Origin machte weder Angaben zu den Kosten des Flugs noch zu den Treibhausgasemissionen, die bei der Produktion des mit flüssigem Wasserstoff und Sauerstoff betriebenen Treibstoffs entstehen. Im Teaser zeigt sich die Tageszeitung immerhin gnädig: „Ihr Elf-Minuten-Flug in einer Kapsel von Jeff Bezos war nicht ganz so überflüssig wie viele andere.“
Die Journalistin Julia Ruhs wird von Linken wie von Rechten attackiert. Ihre letzte Kolumne im Focus enthält eine treffende Beschreibung: „Links glaubt man, der Faschismus übernehme bald, rechts sorgt man sich um den Geburtenrückgang und hält seinen Bademantel für etwaige Polizeibesuche bereit. Weil man online ja so mutig ist. Meine Erfahrung ist eher: Auch hier packt man sich höchstens ein Clownsgesicht ins Profilbild, gibt sich einen möglichst kryptischen Namen und haut dann einen raus. Gegenüber denen, die mit Klarnamen auftreten, sorgt das nicht gerade für Waffengleichheit.“ (Focus, Dezember 2025) In seinem Buch „Die Rache der Nerds“ von 2012, das Geschichten zur Informationsethik enthält, geht Oliver Bendel wiederholt auf das Gleichgewicht der Namen auf elektronischen Plattformen ein. Ganz am Anfang, im Kapitel „Der Zorn der Blogger“, schreibt er: „Ich glaube an das Prinzip des Gleichgewichts der Namen und bin der Meinung, dass man zumindest dann seinen Namen nennen sollte, wenn man einen anderen nennt, einer Person oder einer Organisation … Ein Ungleichgewicht der Namen kann großen Schaden anrichten.“ In den Kapiteln „Sterne holen und sehen“ und „Anonymität und Identifizierbarkeit“ beschreibt er den Ansatz dann ausführlich.
Abb.: Auch er versucht das Gleichgewicht zu halten
Der Kontakt zwischen Navel Robotics und der Hochschule für Wirtschaft FHNW besteht seit März 2021. Damals war noch nicht entschieden, ob Navel, der soziale Roboter, eine Kugel oder Rollen zur Fortbewegung erhalten sollte. Claude Toussaint, der Gründer und Erfinder, diskutierte diese und andere Fragen mit Prof. Dr. Oliver Bendel. Er entschied sich für Rollen, anders als bei den Mirokaï-Modellen von Enchanted Tools, der weiblichen Miroka und dem männlichen Miroki, die heute wie BB-8 durch die Gegend flitzen. Navel besticht durch seine großen, rund erscheinenden Augen. Eine Speziallinse erzeugt diesen Effekt, denn die Displays an sich sind nicht gekrümmt. Bei den Mirokaï wird das Gesicht samt Augen, Nase, Mund und Mimik in eine Gesichtsschale projiziert, ähnlich wie bei den Furhat-Köpfen. Der Kontakt zwischen Unternehmen und Hochschule wurde fortgesetzt. Am 18. Februar 2024 war Claude Toussaint beim Wahlmodul „Soziale Roboter“ zugeschaltet, am 6. Juni 2024 zu Gast beim von Oliver Bendel gehosteten Future Lab bei der Learntec. Im November 2025 konnte Navel Robotics dann auf seiner Website vermelden: „Viele Kunden haben auf diesen Moment gewartet – wir auch … Ab jetzt wird Navel Stück für Stück lernen, sich selbstständig in Umgebungen, wie etwa Stationen und Wohnbereichen zu bewegen. ‚Navel, bitte komm zu mir‘ – der erste Schritt in Richtung autonomes Fahren.“ (Website Navel Robotics) In Pflege- und Altenheimen können soziale Roboter dieser Art ihren Nutzen haben, aber auch Assistenzroboter wie Lio, die etwas physisch manipulieren können. Miroka und Miroki kombinieren beide Welten, sie sind fortgeschrittene Assistenzroboter und vollständige soziale Roboter. Die Zukunft wird zeigen, welche Ansätze sich durchsetzen.
Abb.: Navel bei der ICSR 2025 in Neapel (Foto: ICSR)
The AAAI 2019 Spring Symposium „Towards Conscious AI Systems“ – held at Stanford University – featured emotional and fascinating lectures and discussions. At the time, most participants believed that it must be simulated consciousness. However, a few seemed convinced of the possibility of genuine consciousness. The AAAI 2026 Spring Symposia will once again include an event on the topic: „Machine Consciousness: Integrating Theory, Technology, and Philosophy”. It will take place at the Hyatt Regency, San Francisco Airport, Burlingame. The description on the website states: „Recent AI advances have forced us to confront the possibility of consciousness, beyond intelligence, in machines. Asking ‚Can machines be conscious?‘ forces us to answer ‚How can we define consciousness in a formal way/what is the causal structure of consciousness?‘ (theory, formal frameworks), ‚How would consciousness be implemented?‘ (technical realization), ‚How can we determine that a given system is conscious?‘ (measurement/attribution), and ‚What status would consciousness lend to machines?‘ (ethics).“ (Website AAAI Spring Symposia) With their wording, the organizers remain vague, yet they still raise expectations – however, there is no evidence whatsoever that machines could „awaken“. Nevertheless, it is likely that inspiring discussions will take place once again and that interesting conclusions will be reached. Further information on this symposium and other symposia is available at aaai.org/conference/spring-symposia/sss26/.
Fig.: Only humans and animals can have true consciousness
Andrew Graham-Dixon legt mit „Vermeer: A Life Lost and Found“ (2025) eine neue Deutung von Jan Vermeers berühmtem Gemälde „Girl with a Pearl Earring“ („Das Mädchen mit dem Perlenohrring“) vor. Dieses sei weder ein rätselhaftes Idealbild noch eine namenlose Studie, sondern ein religiöses Erinnerungsbild. Das Gemälde sei für das Haus von Maria de Knuijt und Pieter van Ruijven entstanden, mit deren Tochter Magdalena als Modell. Wenn es entgegen verbreiteter Annahmen nicht auf 1665, sondern auf 1667 datiert werden kann, war sie in jenem Jahr 12 Jahre alt geworden und hatte als Collegiatin ihr Bekenntnis zu Jesus Christus abgelegt. Die Werke der Streetart-Künstlerin Miss Quark sind in Florenz zu bewundern. Sie interpretiert u.a. berühmte Figuren wie das Mädchen mit dem Perlenohrring oder Mona Lisa und berühmte Frauen wie Frida Kahlo oder Marilyn Monroe neu. Magdalena – oder um wen es sich auch immer handelt – ist mit einem riesigen Lolli zu sehen. Dieser wurde inzwischen wiederum mit einer Art Prilblume überklebt, wodurch er etwas an Wirkung verliert – aber damit muss die Kunst auf der Straße immer rechnen. Oliver Bendel hat in seinem Haikuband „Sanftes Erröten“ mehrere Gemälde von Vermeer bedichtet, etwa „Das schlafende Mädchen“ (1657) und „Briefleserin am offenen Fenster“ (ebenfalls 1657), nicht aber „Meisje met de parel“, wie das Werk im Original heißt.
Abb.: Das Mädchen mit dem Perlenohrring von Miss Quark
The upcoming „SAGA: Sexuality and Generative AI“ symposium, taking place on April 30, 2026 at the Université du Québec à Montréal, explores how generative AI is reshaping intimacy, desire, relationships, and sexual expression. As AI systems increasingly create images, stories, and even interactive romantic companions, they raise new ethical, legal, and social questions that researchers, practitioners, and industry voices will tackle together. The hybrid, bilingual event is free and open to all, offering live translation and captioning. In its first block on social impacts, the symposium features talks such as Brian Willoughby’s exploration of how romantic AI affects young adults‘ relationships, Arnaud Anciaux’s analysis of ownership and consent around AI-generated sexual content, Beáta Bőthe’s work on AI-generated pornography and problematic use, and Oliver Bendel’s look at erotic chatbot interactions. With discussions ranging from the regulation of AI-generated pornography to digital intimacy and AI-supported therapeutic interventions, the event promises a rich and essential conversation. Full details and submissions are available at event.fourwaves.com/sexualiteia/pages.
The Robophilosophy Conference 2026 will take place August 11–14 at University College Dublin in a hybrid format and centers on the theme „Connected Futures: Nature, Robots, and Society“. As robotics and AI become deeply embedded in human life, the conference invites researchers across disciplines to explore how autonomous systems shape society, ecology, law, labor, and human self-understanding. It raises questions about responsible design, accountability, environmental impact, social justice, cultural perspectives, and the ethics of coexistence with artificial agents. Workshop proposals are due January 16, session papers and posters February 6, with notifications in February and April and proceedings pre-submission on June 15. RP2026 aims to foster interdisciplinary dialogue that advances both technological insight and collective wisdom for a future in which humans and autonomous systems share social and ecological worlds. Further information is available at cas.au.dk/en/rpc2026.
Fig.: University College Dublin (Foto: Sharonlflynn, CC BY-SA 4.0)
The 18th International Conference on Social Robotics (ICSR + Art 2026) will take place in London, UK, from 1-4 July 2026. ICSR is the leading international forum that brings together researchers, academics, and industry professionals from across disciplines to advance the field of social robotics. As part of this edition, ICSR 2026 will host a series of live debates in the Debate Room (Senate Room), addressing pressing questions about social robots in society and culture. Debate proposals may focus on conceptual, ethical, scientific, artistic, practical, or societal aspects of social robotics and should connect broadly to the conference topics listed aticsr2026.uk/topics/. Submissions are open to contributors from social robotics, HRI, the arts, design, engineering, the humanities, and related areas, with interdisciplinary proposals particularly encouraged. Formats may include two-sided or multi-position debates, panel discussions, performative debates, or audience-engaged formats. In a nod to British debating traditions, participants are encouraged to wear academic gowns. Proposals are submitted viaicsr2026.uk/debate-proposal, with a submission deadline of 1 March 2026 and notification of acceptance by 15 April 2026.