Nur in der Politik sind solche Karrieren möglich

Prof. Dr. Karl Lauterbach postet gerne auf X. Er macht sich dort oft regelrecht Luft, wie am 24. April 2026: „Das ist wirklich spektakulär. Trump und sein Gesundheitsminister beherrschen einfachste Prozentrechnungen nicht. Nur in der Politik sind solche Karrieren möglich.“ Da hat er einen Punkt. Im Folgenden werden „Tweets“ von ihm aus dem Monat April 2026 zitiert: „Ein neuer Tischtennis Roboter gewinnt gegen Top Spieler mit extrem schnellen Ballwechseln.“, „Das zeigt nicht, dass KI besser ist als Ärzte, sondern das Ärzte mit KI besser sind als solche ohne KI“, „Die Bevölkerung ist bei der Energiewende nicht gespalten sondern will die Energiewende.“, „Die Ergebnisse der Behandlung von Bauchspeicheldrüsenkrebs durch mRNA Impfung sind spektakulär gut.“, „Der drohende AMOC Kollaps, ein Klima GAU, ist ein enormes Risiko.“, „Jetzt bekommt Bayern endlich mehr Windenergie Strom aus dem Norden.“ … Offensichtlich beherrscht der in die Politik gewechselte Professor die einfachsten Regeln der Rechtschreibung und Zeichensetzung nicht. Er ist nicht einmal professionell genug, um seine Texte korrigieren zu lassen. Man möchte hinzufügen: „Nur in der Politik sind solche Karrieren möglich.“ …

Abb.: Der frühere Gesundheitsminister Lauterbach (Foto: Steffen Prößdorf, Wikimedia, CC BY-SA 4.0)

Ein Roboter vertreibt Wildschweine

Laut einem Artikel von Golem hat der Allzweckroboter Edek, auch bekannt als Edward Warchocki, in Polen für Aufsehen gesorgt, als er Wildschweine aus einem Stadtgebiet vertrieben hat. Robotische Wildscheuchen hat es immer wieder gegeben. Ein Beispiel ist Super Monster Wolf von JA Kisarazushi/Universität Tokio aus dem Jahre 2017. Mobile und humanoide Modelle sind aber rar. Edek basiert auf einem Unitree G1 und soll durch angepasste Software besonders menschlich und kommunikativ wirken. Er wurde bereits in zahlreichen Alltagssituationen gezeigt, etwa im Bus, im Supermarkt und im Parlament. Inzwischen dient der Roboter auch als Marketinginstrument, wird für Veranstaltungen vermietet und in Werbekampagnen eingesetzt, unterstützt durch Sponsoring und Product Placement, etwa durch das Tragen einer Luxusarmbanduhr. Die Entwickler sehen in ihm einen Vorboten einer nahen Zukunft, in der Allzweckroboter im öffentlichen Raum präsent sind und positiv von Menschen aufgenommen werden. Das Thema berührt auch die Tier-Maschine-Interaktion und steht im Zusammenhang mit dem gleichnamigen Buch von Prof. Dr. Oliver Bendel, das am 20. April 2026 bei Springer Gabler erscheint.

Abb.: Der Unitree G1 in Venedig

Chatbots for Dead, Endangered, and Extinct Languages

On April 8, 2026, the article „Chatbots for Dead, Endangered, and Extinct Languages: Possibilities and Limitations of Generative AI for Continuing Education“ by Oliver Bendel was published in Wiley Industry News. The focus is on how chatbots based on generative AI can contribute to the preservation and promotion of dead, endangered, and extinct languages in continuing education (as well as in vocational training). Following an introduction to the technical and conceptual foundations, several projects at the FHNW School of Business are presented and discussed from technical, ethical, and didactic perspectives. These dimensions are revisited in the next section and expanded into general and overarching considerations. Finally, possible and necessary steps are outlined that go beyond the purely technological discourse. Additionally, an outlook is provided on future possibilities related to new versions of large language models. This article provides the first comprehensive overview of the projects initiated by Oliver Bendel that are dedicated to dead, endangered, and extinct languages, including @ve (for Latin), @llegra (for Vallader), and kAIxo (for Basque), as well as Cleop@tr@ (Egyptian). It can be accessed via the publisher’s website or downloaded here as a PDF.

Fig.: Oliver Bendel at the Karnak Temple (Photo: Stefanie Hauske)

Der Allzweckroboter im Haushalt

In der Sonderbeilage „Wohnen“ der Sonntagszeitung vom 12. April 2026 kommt Prof. Dr. Oliver Bendel zu Wort. Der Technikphilosoph forscht zu sozialen Robotern und Servicerobotern. Seit 2024 hat er auch mehrere Artikel zu Allzweckrobotern geschrieben, die als Vorformen von echten universellen Robotern gelten. Diese werden oft fälschlicherweise mit humanoiden Robotern gleichgesetzt, zu denen beispielsweise Pepper und Alpha Mini gehören. Allzweckroboter wie Digit, Apollo und Figure 03 sind in Fabriken mit sehr eingeschränkten Tätigkeiten zu finden. Figure 03 und NEO sind unter anderem wegen ihrer textilen Oberfläche interessant und dafür gedacht, sich in Haushalten nützlich zu machen. Oliver Bendel glaubt, dass dies in zwei Wellen erfolgen könnte. Zunächst werden Tausende Exemplare verkauft, die dann in realen Umgebungen lernen. Nach den entsprechenden Fortschritten könnten womöglich Millionen von Exemplaren ausgeliefert werden. Dem könnten allerdings Sicherheitsrisiken und Datenschutzprobleme sowie Akzeptanz- und Platzprobleme entgegenstehen. Einst gab es die Vision, dass in jedem Haushalt ein Computer stehen würde. Daraus wurden mehrere in unterschiedlichen Formen. Ob soziale Roboter und Serviceroboter ein ähnliches Schicksal teilen werden, wird die Zukunft zeigen.

Abb.: NEO im Haushalt (Foto: 1X/Courtesy of 1X)

Die FAZ im freien Fall III

Was für die einen das Kreuzworträtsel ist, ist für die anderen das Zählen von Rechtschreib- und Grammatikfehlern in Zeitungen. In der einst so sprachsicheren FAZ findet man kaum noch fehlerfreie Teaser. Und auch die Texte lassen immer mehr zu wünschen übrig. Über Deklinationsfehler und Fehler bei Zusammen- und Getrenntschreibung wurde schon berichtet, ebenso über andere Fehler bei der Wortbildung. Eine weitere Kategorie sind redundante Geschlechtsspezifizierungen. In der Ausgabe vom 9. April 2026 heißt es über Averil Cameron: „Die Pionierin inspirierte ganz besonders ihre weiblichen Kolleginnen.“ („Die Erste ihrer alten Schule“). Hängt dieser Missgriff mit den Bemühungen um eine Gendersprache zusammen? In anderen Fällen gibt es darüber keinen Zweifel. Am 8. April begann ein Satz mit den Worten „Die Forschenden sind …“ – dabei hatte der Titel korrekt „Forscher entdecken unbekannte Insel in der Antarktis“ gelautet. Alle Menschen sind Forschende, aber nur wenige sind Forscher. Diese forschen von Berufs wegen. Und keinesfalls ständig. „Dahinter steckt immer ein kluger Kopf“ ist seit den 1960er-Jahren der Werbespruch der FAZ. Damit waren schon immer die Leser gemeint und nicht die Redakteure. Und schon gar nicht die Praktikanten, die für die Teaser zuständig sind.

Abb.: Die FAZ hat ihren Sitz in Frankfurt (Foto: Bücherradfahrer, Wikimedia, CC BY-SA 4.0)

Chatbots für tote, gefährdete und ausgestorbene Sprachen

Am 8. April 2026 ist der Artikel „Chatbots für tote, gefährdete und ausgestorbene Sprachen: Möglichkeiten und Grenzen generativer KI für die Weiterbildung“ von Oliver Bendel bei Wiley Industry News erschienen. Im Zentrum steht die Frage, wie Chatbots auf der Basis generativer KI zur Erhaltung und Förderung toter, gefährdeter und ausgestorbener Sprachen in der Weiterbildung (sowie in der Ausbildung) beitragen können. Nach einer Einführung in die technischen und konzeptionellen Grundlagen werden mehrere Projekte an der Hochschule für Wirtschaft FHNW vorgestellt und in technischer, ethischer und didaktischer Hinsicht diskutiert. Diese Dimensionen werden im nächsten Abschnitt wiederaufgenommen und ins Allgemeine und Übergreifende geführt. Am Ende werden mögliche und notwendige Schritte skizziert, die über den rein technologischen Diskurs hinausweisen. Zudem wird ein Ausblick auf künftige Möglichkeiten gegeben, die mit neuen Versionen von großen Sprachmodellen zusammenhängen. Mit dem Artikel liegt zum ersten Mal eine Gesamtschau zu den von Oliver Bendel initiierten Projekten vor, die sich toten, gefährdeten und ausgestorbene Sprachen widmen, darunter @ve (für Latein), @llegra (für Vallader) und kAIxo (für Baskisch) sowie Cleop@tr@ (Ägyptisch). Er kann über die Website des Verlags aufgerufen oder hier als PDF heruntergeladen werden.

Abb.: Oliver Bendel auf dem Nil (Foto: Stefanie Hauske)

Automatische Übersetzungen ins Deutsche auf X

X bietet nun automatische Übersetzungen englischsprachiger Tweets ins Deutsche an. Die Ergebnisse sind verheerend, wie eine Stichprobe zeigt. Der Tweet „The first image taken from the Moon’s far side, showing Earth rising beyond the lunar horizon, captured by Orion.“ wird übersetzt mit „Das erste Bild, das von der mondabgewandten Seite des Mondes aufgenommen wurde und den aufsteigenden Erdball jenseits des Mondhorizonts zeigt, aufgenommen von Orion.“ … Aus „HMND 01 Alpha received tasks via the SAP Joule agent layer” wird „HMND 01 Alpha hat Aufgaben über die SAP Joule Agent-Schicht erhalten“, aus „A landmark peer-reviewed study just dropped. Here’s what it found.“ wird „Eine bahnbrechende, peer-reviewed Studie ist gerade erschienen. Hier ist, was sie gefunden hat.“ Auffällig auch die Übersetzung von „Don’t throw your children’s drawings away!“: „Wegwerfen Sie nicht die Zeichnungen Ihrer Kinder!“ … Man findet also u.a. fehlerhafte Übertragungen und falsche Wortbildungen und insgesamt eine zu starke Orientierung an der englischen Syntax. Und fragt sich, ob das das Werk von Grok oder ein noch unbekanntes Experiment von Elon Musk ist.

Abb.: Ein Blick ins Wörterbuch würde helfen

SAGA Conference Program Now Available Online

The upcoming „SAGA: Sexuality and Generative AI“ symposium, taking place on April 30, 2026 at the Université du Québec à Montréal, explores how generative AI is reshaping intimacy, desire, relationships, and sexual expression. The first block, titled „Societal Impacts“, brings together a set of talks that examine how emerging technologies are already influencing human connection and cultural norms. Brian Willoughby (Brigham Young University, United States) opens with „Engagement with Romantic AI: Implications for Young Adult Dating and Relationships“, addressing how AI companions may alter expectations and behaviors in modern dating. Arnaud Anciaux (Université Laval, Canada) follows with „Toward a Great Bypass? Property, Consent, and Value Creation in AI-Generated Sexual Content“, focusing on legal and ethical questions around ownership and consent. Émilie Gaudet (Université de Montréal, Canada) contributes “AI-Generated Pornography and Problematic Pornography Use“, exploring the psychological and societal risks associated with synthetic sexual media. Finally, Oliver Bendel (FHNW School of Business, Switzerland) looks ahead in „Physical AI and the Future of Intimacy“, considering how embodied AI systems could transform intimate relationships. The program also features „Panel 1 – Technological Solutions to the Challenges of AI“, with contributions from Sophie Mortimer (UK Revenge Porn Helpline, United Kingdom), Alex Georges (AetherLab, United States), and Madelaine Thomas (Image Angel, United Kingdom), who discuss practical responses to harms such as non-consensual content and digital abuse. Overall, the symposium is structured into four thematic blocks and includes two panels, offering a compact yet wide-ranging exploration of one of the most sensitive and rapidly evolving intersections of technology and human life. The SAGA conference program is now available online and can be downloaded here.

Fig.: Sex toys are also being linked to AI

Die Sprache der Tiere

Ticro Goto ist Historiker und Ethnologe. Er studierte an der Kunsthochschule Kassel, der Freien Universität Berlin und der Humboldt-Universität zu Berlin. Zu seinen Veröffentlichungen zählen „Cyberfakte“ (2016), „Der Ewige Palast“ (2024) und „Kreativer Suizid: Rauchen, Hunger und die Lüge vom inneren Kind“. Er schreibt und forscht auch zu Schweinen und hat ihnen in seinem Buch „Seuchen“ ein ganzes Kapitel gewidmet. Mit Prof. Dr. Oliver Bendel war er im Gespräch über Tierethik, Maschinenethik und Tier-Maschine-Interaktion. Der Podcast erschien am 28. März 2026 auf kokos-und-zitrone.de. Zuletzt kamen dort Pero Mićić, Falco Aust und Gunter Dueck zu Wort. Auf seiner Website schreibt Ticro Goto: „Oliver Bendel und ich sprechen darüber, warum wir Maschinen bauen mussten, um zu beweisen, dass Tiere keine Maschinen sind. Über Mähroboter mit Gewissen und Schweine, die klüger sind als Hunde. Über KI, die Walgesang entschlüsselt und Fledertieren beim Streiten zuhört.“ Der Podcast mit dem Titel „Die Sprache der Tiere“ kann über kokos-und-zitrone.de/p/die-sprache-der-tiere angehört werden.

Abb.: Ein Kolibri in Santa Barbara

Zu Begriffsverwirrungen rund um KI und Robotik

Gaben sich bis vor kurzem noch alle als Experten für Künstliche Intelligenz (KI) aus, sind nun alle Experten für Robotik. Insgesamt ergeben sich Bedeutungsverschiebungen und Begriffsverwirrungen. So ist oft von KI die Rede, wenn eigentlich generative KI gemeint ist. Damit verbunden sind grundsätzliche Einschätzungen, die aber lediglich auf bestimmte KI-Systeme zutreffen. Weiterhin trifft man ständig auf „KI-Chatbots“. Allerdings basieren alle Chatbots auf Formen künstlicher Intelligenz. Früher gab es vor allem regelbasierte Systeme, heute setzt man auf ML- bzw. LLM-basierte (wobei „ML“ für „Machine Learning“ steht, „LLM“ für „Large Language Model“). Dennoch ist die alte Welt der symbolischen KI keineswegs untergegangen. Auch von „KI-Deepfakes“ und „AI Deepfakes“ hört man – dabei steht „Deep“ für „Deep Learning“, womit KI (genauer gesagt eine Form von Machine Learning) bereits angesprochen ist. Ebenfalls beliebt ist der Begriff des humanoiden Roboters. Es handelt sich dabei eigentlich um menschenähnlich gestaltete sensomotorische Maschinen. Zu ihnen gehören soziale Roboter wie NAO, Pepper und Alpha Mini ebenso wie Modelle, die als Allzweckroboter vermarktet werden, etwa Digit, Apollo und Figure 03. Allzweckroboter sind in aller Regel humanoide Roboter, aber nicht alle humanoiden Roboter sind Allzweckroboter – und dennoch wird allenthalben so getan. Auch der Begriff der Humanoiden verbreitet sich. Dieser ist allerdings bereits belegt, er ist breiter angelegt, denn er bezeichnet sowohl menschenähnliche Artefakte als auch menschenähnliche Lebewesen (etwa fiktive Aliens wie die Vulkanier). Man darf immer neue Begriffe einführen, man darf alte umdeuten. Vorsicht ist jedoch geboten, wenn jahrzehntelange Bemühungen der Bestimmung und Klärung vorhanden sind und in den Fachgemeinschaften ein Konsens besteht. Man sorgt durch den unreflektierten Gebrauch nicht nur für Begriffsverwirrungen in der Gegenwart, sondern auch mit Blick in die Vergangenheit – ältere Texte werden mehr und mehr unverständlich, selbst wenn sie die Grundlagen von Robotik und Künstlicher Intelligenz darstellen.

Abb.: Der Wearable Social Robot Eiliko bei Sonnenuntergang

Social Robot Companions in the Learning Domain

The elective module „Soziale Roboter“ by Prof. Dr. Oliver Bendel will be held again from March 30 to April 1, 2026, at FHNW in Olten. It is primarily aimed at prospective business AI students, but students of information systems can also take part. Luca Marie Leisten has been invited as a guest speaker.  She is a third-year doctoral student in learning sciences and human-robot interaction at ETHZ and EPFL. With a background in psychology and social sciences, Luca’s research focuses on social robot companions in the learning domain. Specifically, she is interested in investigating the barriers and opportunities of social robot deployment as well as the perception of different robots. In this context, Luca is testing the long-term effects of affordable DIY robotic toolkits using a mix of quantitative and qualitative methods. Unitree Go2, Alpha Mini, Cozmo, Vector, AIBI, Eilik, Furby, Booboo, and Hugvie from Oliver Bendel’s private Social Robots Lab will also be on site. Social Robotics Girl, a so-called GPT specializing in this topic, will be available as a tutor throughout the event. Key works include „Soziale Roboter“ (2021) and „300 Keywords Soziale Robotik“ (2021). At the end of the elective module, students design social robots – also with the help of generative AI – that they find useful, meaningful, or simply attractive. The elective module has been offered since 2021 and is very popular at the university.

Fig.: Luca Marie Leisten

Assistive Glasses as a Case Study

The master’s thesis „Inclusive AI for Wearables: Assistive Glasses as a Case Study“, written by Myriam Rellstab at the FHNW School of Business, examines the concept and design potential of AI-supported assistive glasses as an inclusive form of wearable technology. The project is supervised by Prof. Dr. Oliver Bendel, whose research focuses on Inclusive AI and Inclusive Robotics, with additional input from Steve Weidel, a blind accessibility consultant. The research begins with a proposal phase in April 2026, followed by the main thesis work starting in summer or autumn 2026 and concluding in December 2026. The study investigates how AI-supported glasses could assist people with visual and hearing impairments by enhancing perception and accessibility, while also offering value for users without impairments. In this way, the work positions assistive glasses not as a purely medical device, but as an inclusive technology with broader relevance. Possible functions include real-time object recognition, speech-to-text transcription, environmental awareness, and contextual information overlays. A particular focus is placed on multimodal large language models, which enable the integration of visual, auditory, and textual data, as well as on vibration-based feedback systems that support non-visual and non-auditory interaction. Using assistive glasses as a case study, the thesis analyzes technological possibilities, user needs, and design considerations for inclusive AI wearables. It may include a conceptual system design, an exploration of use cases, and an evaluation of accessibility, usability, and ethical aspects. The aim is to develop a conceptual framework or prototype approach that demonstrates how inclusive AI wearables can be designed to benefit diverse user groups.

Fig.: Two women wearing futuristic glasses

A New Paper on Queering Sex Robots

A new article titled „Queering Sex Robots Beyond Diversifying Design? Insights from Queer Lacanian Psychoanalysis and New Materialism“ (van der Horst & Puzio, 2026) has been published in Philosophy & Technology. The authors argue that queering sex robots should go beyond diversifying their physical design and instead involve a broader reconsideration of sexuality, identity, and human-technology relations. The paper starts from a critique widely discussed in the literature: current sex robot models largely reproduce heteronormative and stereotypical representations of femininity. Similar observations and related arguments can be found in earlier contributions in the volume „Maschinenliebe“ (Bendel 2020). In that book, Tanja Kubes addresses the topic in her chapter „Queere Sexroboter“, while Oliver Bendel discusses transformations of gender and embodiment in „Trans-Formers“. Both contributions also refer to examples such as the Harmony robot from Realbotix/RealDollX. The main novelty of the new article lies in its theoretical framework, which combines Queer Lacanian psychoanalysis and New Materialism. Given the thematic overlap and the small number of publications on queer perspectives on sex robots, it is somewhat surprising that the earlier contributions in „Maschinenliebe“ are not referenced. This book is predominantly written in German, but in times of large language models this should hardly pose a barrier. Moreover, the chapters by Kubes and Bendel have already been cited in several English-language academic publications.

Abb.: Kokeshi aus dem Cybrothel (Foto: Cybrothel)

Chatbots for Inmates

Insassen in Schweizer Justizvollzugsanstalten haben nur begrenzten Zugang zu digitalen Technologien und wenig Kontakt zur Außenwelt. Zugleich verbringen sie jeden Tag einige Stunden in ihren Zellen. Das Projekt „Chatbots for Inmates“ (Kurztitel) will hier ansetzen: Ein LLM-basierter Chatbot soll als virtueller Buddy dienen, der Gespräche ermöglicht, Einsamkeit vermindert sowie soziale und digitale Kompetenzen stärkt. Das Projekt wurde von Tamara Siegmann, Gründerin des Start-ups SIEG – Smart Innovation Engineering Group by Siegmann und Studentin an der Hochschule für Wirtschaft FHNW, initiiert. Sie ist Projektleiterin, Prof. Dr. Oliver Bendel Projektverantwortlicher, Stephan Vonschallen Projektmitarbeiter. Anwendungspartner ist die JVA Lenzburg mit ihrem Direktor Marcel Ruf. Der Chatbot soll offline auf Tablets der Gefangenen laufen. In einer Pilotphase wird die Lösung zunächst auf 2 oder 3, später auf 30 Tablets getestet. Es wird untersucht, ob ein digitaler Gesprächspartner das Wohlbefinden der Insassen verbessert und sie beim Aufbau von Kompetenzen für die Zeit nach der Haft unterstützt. Das Projekt hat am 1. März 2026 begonnen und wird durch einen Innovationsscheck von Innosuisse und das Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW unterstützt. Bereits 2024 haben Tamara Siegmann und Oliver Bendel ein Projekt zu Schweizer Gefängnissen durchgeführt und untersucht, ob man dort kollaborative und soziale Roboter einsetzen kann und soll. Das Paper kann hier heruntergeladen bzw. erstanden werden.

Abb.: Tamara Siegmann mit dem LLM-basierten Roboterkopf Furhat

Über den Umgang amerikanischer Konzerne mit der deutschen Sprache

Über den Umgang amerikanischer Konzerne mit der deutschen Sprache schreibt Oliver Bendel seit Jahrzehnten. Im Frühjahr 2008 stellte er in seinem Artikel „Im Rachen des Thesaurus“, erschienen in Telepolis, „Beobachtungen zum Synonymwörterbuch von Microsoft“ an, also zu einer Funktion von MS Word. Als Synonym zu „dunkel“ wurde damals „negerfarbig“ vorgeschlagen. Der Autor kam insgesamt zum Ergebnis: „Manche Wörter … veraltet, manche grenzwertig, manche falsch, manche Verbindungen nicht nachvollziehbar.“ Später traten Überlegungen zur Rechtschreibprüfung von MS Word hinzu. Diese schien mit der Zeit immer schlechter zu werden, womöglich weil man sich von einem seriösen Wörterbuch verabschiedete und sich auf künstliche Intelligenz verließ. Zu allen Zeiten fiel auf, dass wesentliche Prinzipien der deutschen Sprache nicht verstanden werden. So schlug die Rechtschreibprüfung bei Tests vor, statt „Sexpuppen“ entweder „Sex puppen“ oder „Sex Puppen“ zu verwenden, statt „Fantasyfiguren“ „Fantasy Figuren“. Der Ableger LinkedIn tut sich genauso schwer mit der deutschen Sprache. So liest man etwa: „Andere Mitglieder reagieren auf einen Beitrag eines:einer Kolleg:in“. Abgesehen davon, dass es sich hier um eine Fantasiesprache handelt, wird sie auch noch so benutzt, dass die Männer verschwinden. Aus dem „Kollegen“ wird der oder das „Kolleg“, was immer das bedeuten mag. Auch Adobe scheitert an der deutschen Sprache. Ruft man ein PDF auf, das in englischer Sprache verfasst ist, kommt die Meldung: „Dieses Dokument scheint in einer anderen Sprache zu sein. Möchtest du es in Adobe Express ins Deutsch übersetzen?“ … Besser nicht, möchte man antworten.

Abb.: Adobe scheitert an der deutschen Sprache

Zweieinhalb Jahre Unitree Go2

Seit Ende 2023 ist der Unitree Go2 ein Teil des privat finanzierten Social Robots Lab von Prof. Dr. Oliver Bendel. Der robotische Vierbeiner ist meistens auf dem FHNW-Campus Brugg-Windisch, manchmal in Zürich. Er dient vor allem als Demonstrationsobjekt in den drei Wahlmodulen zur Sozialen Robotik, die der Technikphilosoph und Wirtschaftsinformatiker jährlich in Olten und Brugg-Windisch durchführt (Studiengänge Wirtschaftsinformatik, Business AI und Betriebsökonomie). Zudem wird er in Projekte eingebunden, wie es etwa bei „The Robodog Project“ der Fall war, wo 12 Hunde mit ihm konfrontiert wurden. Oliver Bendel kann nach zweieinhalb Jahren sagen, dass der Unitree Go2 immer wieder von den Firmware-Upgrades profitiert hat. Er verbindet sich inzwischen meist problemlos mit dem Netz. Manche Funktionen, für die es früher den zusätzlichen Controller gebraucht hat, lassen sich nun mit dem Smartphone ausführen. Mehrere schwere Stürze hat der Roboter überstanden – die Kunststoffschale ist sehr robust. Neben den vielen positiven Aspekten sind ein paar negative zu nennen. Auch nach einer Kalibrierung ist die Beweglichkeit nicht mehr wie am Anfang, und beim Gehen und bei einzelnen Kunststücken bestehen Unsicherheiten. Eine Hintertüre wie beim Unitree Go1 besteht wohl nicht, aber wie der humanoide G1 hat der Go2 durchaus Sicherheitslücken. Beim Betrieb in der Öffentlichkeit ist daher Vorsicht geboten, zumal die Gesetzeslage komplex ist. Insgesamt handelt es sich um ein beeindruckendes Gerät, das sich sowohl für den Innen- als auch den Außeneinsatz eignet.

Abb.: Der Unitree Go2 im Garten

Physical AI and the Future of Intimacy

The upcoming „SAGA: Sexuality and Generative AI“ symposium, taking place on April 30, 2026 at the Université du Québec à Montréal, explores how generative AI is reshaping intimacy, desire, relationships, and sexual expression. The presentation by Prof. Dr. Oliver Bendel begins with the Tamagotchi, the iconic digital pet that demonstrated how simple interactive systems can evoke emotional attachment. It then turns to social robots, wearable social robots, and AI-enhanced sex toys, love dolls, and sex robots. Today, large language models (LLMs) and multimodal language models (MLLMs) enable dialogue, perception, and evaluation in these systems. Such capabilities may also benefit people with disabilities, including blind users, by facilitating communication and interaction. At the same time, the physical dimension remains crucial. Embodied systems create presence and proximity: they can be touched, held, and stroked, and experienced through movement, vibration, or sound. The talk argues that future intimate technologies will emerge from the convergence of generative intelligence and physical embodiment, combining conversational AI with the sensory experience of a physically present companion. Full details and submissions are available at event.fourwaves.com/sexualiteia/pages.

Fig.: More and more sex toys are part of Physical AI

Neue Fragen zu sozialen Robotern und anderen autonomen Maschinen

Zum zweiten Mal – wie bereits im Sommer 2021 – hält Prof. Dr. Oliver Bendel einen Vortrag für die VHS im Norden des Landkreises München e.V. Aus der Beschreibung: „Die technische Entwicklung bei autonomen oder teilautonomen Maschinen geht rasant voran. Mit ihr stellen sich ganz neue Fragen: Soll ein autonom fahrendes Auto moralische Entscheidungen treffen können, bspw. ob es im Falle einer unvermeidlichen Kollision eher die alte Frau oder das spielende Kind überfährt? Darf ein Pflegeroboter Sterbehilfe leisten? Sollten autonome Kampfroboter sich an Regeln halten? Müssen Sexroboter davor warnen, sich in sie zu verlieben? Sollten Roboter überhaupt menschenähnlich nachgebildet sein? Sich anfühlen wie ein Mensch? Eine Stimme haben wie ein Mensch? Können sie wirkliche Menschen ersetzen, Freund oder Freundin sein oder das zumindest simulieren? Wie verändern diese Maschinen unser soziales Leben, unser Leben im Alter beispielsweise oder unser Liebesleben? Welche Mensch-Maschine-Interaktionen können in Altersheimen sinnvoll sein und insbesondere demente Menschen unterstützen? Welche Anwendungen gibt es für kranke oder behinderte Menschen? Wo stehen wir aktuell bei der Entwicklung sozialer Roboter? Was kommt in den nächsten Jahren auf uns zu? Und warum beschäftigen sich gerade Philosophen mit dem Bau autonomer oder teilautonomer Maschinen?“ Der Vortrag findet online am 9. März 2026 statt. Weitere Informationen sind über die Website der VHS erhältlich.

Abb.: Soziale Roboter kann man mit anderen Figuren vergleichen (Foto: Jork Weismann)

Sensationelle Bilder, desaströse Sprache

Die Ausstellung mit Gemälden des afroamerikanischen Künstlers Kerry James Marshall im Kunsthaus Zürich ist sehenswert – lesenswert ist sie nicht. Die deutschen Texte sind manipulativ auf mehreren Ebenen. So steht in einem Begleittext neben den Bildern: „Jahrhundertelang widerstanden Schwarze Amerikaner:innen Bedingungen von Unterdrückung und schufen trotz Versklavung und Ungleichheit eine reiche Kultur. In der Serie hier gezeigter Porträts zollt Marshall Sklavenrebell:innen, Poet:innen, Künstler:innen, Abolitionist:innen und Aktivist:innen Tribut.“ Es handelt sich um dysfunktionale, aktivistische, ideologische, diskriminierende, moralisierende Sprache, die den Besucher nicht ernst nimmt, ihn erziehen, umerziehen, ihm eine Meinung und eine Sichtweise aufzwingen will, sich zwischen ihn und die Werke schiebt und die Werke ihrer Autonomie beraubt. Dabei folgt die Sprache der Verantwortlichen einem klaren Plan. An anderer Stelle heißt es nämlich: „Einige Sklavenbesitzer förderten nicht die Ehe …“. Wo überall Doppelpunkte im Wortinneren erscheinen, um die Wortstruktur zu zerstören und die -bedeutung aufzulösen, kann eine solche Form nicht mehr generisch sein – sie muss männlich sein. Die Bösen, das ist hier die Auskunft, sind die Männer, und nur diese haben in diesem Zusammenhang gefehlt. Allerdings gibt es zahlreiche weibliche Sklavenhalter in der Geschichte. Martha Washington ist ein Beispiel für den amerikanischen Süden. Im Römischen Reich konnten wohlhabende Frauen ganz selbstverständlich Sklaven besitzen, ebenso in verschiedenen afrikanischen Gesellschaften. Auf diese Weise wird Sprache ebenso manipuliert wie der Besucher – und die Geschichte. Das Kunsthaus ist nicht nur durch seine NS-Kunst auf Abwege geraten.

Abb.: Ein Detail aus einem Gemälde von Marshall

Sophie und Hans, von den Nazis ausgelöscht

Am 22. Februar 1943 wurden Hans und Sophie Scholl von den Nationalsozialisten ermordet. Oliver Bendel besuchte dasselbe Schulgebäude in Ulm wie Sophie Scholl. In seinem Fall war es das Hans-und-Sophie-Scholl-Gymnasium gewesen, in ihrem die Mädchenoberrealschule. Er traf sich um 1986 mehrmals mit Inge Scholl, um mit ihr im Stadtarchiv Ulm bekannte und unbekannte Bilder ihrer jüngeren Geschwister zu sichten. Er beschrieb dies in einem Artikel, der 2015 erschienen ist: „Inge Scholl ist vor langer Zeit gestorben. Ihr Leben hat alles umspannt, von den schrecklichen Jahren im Dritten Reich bis zu unseren für sie nicht so wichtigen und für mich so wichtigen Treffen, vom tragischen Tod ihres Mannes Otl Aicher bis hin zu ihren Jahren mit sich selbst. Ich erinnere mich nicht mehr an den Raum, in dem wir arbeiteten, von einer gewissen Dämmerung abgesehen. Aber die Fotos sind immer noch vor meinem inneren Auge, hell und leuchtend, was an der Leselampe liegen mag. Die hübsche Sophie. Der hübsche Hans. Im Licht der Lampe. Sophie und Hans, von den Nazis ausgelöscht.“ Der Beitrag von Oliver Bendel kann über seniorweb.ch/2015/11/10/grabsteine-im-cyberspace/ aufgerufen werden.

Abb.: Ein Zitat von Sophie Scholl

Eine Simulation von Kommunikation

Prof. Dr. Oliver Bendel war mit dem NDR im Gespräch über OpenClaw und Moltbook. OpenClaw ist im Kern eine Hülle für einen KI-Agenten. In Kombination mit einem großen Sprachmodell, einem LLM, entsteht daraus ein System, das Texte erzeugt, Entscheidungen trifft und auf Eingaben reagiert. Moltbook ist eine Plattform, auf der viele solcher Agenten gleichzeitig laufen und miteinander interagieren. Man spricht auch von einem sozialen Netzwerk für Agenten. Das wirkt spektakulär. Tatsächlich arbeiten die Agenten meist ereignis- oder zeitgesteuert: In regelmäßigen Abständen prüfen sie, ob es neue Inhalte gibt, auf die sie reagieren sollen. Und das soziale Netzwerk gibt ihnen über die Feeds etwas zu tun. Das LLM erzeugt daraufhin plausible Texte. Der Eindruck eines lebendigen Austauschs entsteht – aber es bleibt eine Simulation von Kommunikation, keine eigenständige soziale Realität. KI-Agenten haben kein Bewusstsein – im Gegensatz zu Tieren und Menschen – und werden nie eines haben. Die Fernsehsendung wird bei NDR Kultur – Das Journal am 23. Februar 2026 ausgestrahlt. Sie ist auch online über www.ndr.de verfügbar.

Abb.: Das Studio in Flensburg (Foto: Soenke Rahn, Wikimedia, CC BY-SA 3.0)

Weniger Produktivität durch KI als erwartet

Sophia Sichtermann interviewte am 18. Februar 2026 den Technikphilosophen Prof. Dr. Oliver Bendel für einen Artikel über Produktivitätssteigerung durch den Einsatz von künstlicher Intelligenz. Anlass war ein Artikel im Fortune Magazine, demzufolge rund 90 Prozent der befragten Unternehmen bislang keinen messbaren Einfluss von KI auf Produktivität oder Beschäftigung feststellen konnten. Eine von mehreren Fragen betraf die These, dass die erhoffte Produktivitätssteigerung zwar später, aber dennoch eintreten wird. Er antwortete zunächst direkt darauf und führte dann weiter aus: „In der Medikamentenentwicklung oder bei der Materialforschung kann generative KI die Entwicklungszyklen drastisch verkürzen. Allerdings zeigt sich hier auch die Dual-Use-Problematik: Dieselben Technologien können missbräuchlich eingesetzt werden, etwa zur Entwicklung gefährlicher Substanzen. Produktivität ist ökonomisch betrachtet wertneutral; sie kann sowohl gesellschaftlichen Fortschritt als auch destruktive Aktivitäten beschleunigen. Mit anderen Worten: Generative KI kann ebenso behinderten und beeinträchtigten Personen helfen wie der organisierten Kriminalität. Vor diesem Hintergrund gewinnt die sozialpolitische Dimension an Bedeutung. Wenn Automatisierung zu flächendeckender Automation führt und diese bestimmte Tätigkeiten dauerhaft verdrängt, könnte die Diskussion um ein bedingungsloses Grundeinkommen neue Aktualität erhalten. Ein solches Instrument würde nicht Produktivität schaffen, könnte jedoch soziale Stabilität und individuellen Konsum sichern, während sich Arbeitsmärkte neu ordnen. Etwas zynischer ausgedrückt: Die Unternehmen können uns gar nicht sterben lassen, sonst werden ihre Produkte und Dienstleistungen nicht mehr nachgefragt.“ Am 21. Februar 2026 erschien der Artikel „‚Lage ist dringlich‘: Weniger Produktivität durch KI als erwartet – Deutschland verliert den Anschluss“ mit mehreren Statements von Oliver Bendel in der Frankfurter Rundschau, dem Münchner Merkur und zehn weiteren deutschen Zeitungen.

Abb.: Ein Jogger in Frankfurt am Main