Wenn Hunde auf einen Roboterhund treffen

Das Projekt „The Robodog Project: Bao Meets Pluto“ untersuchte, wie Haushunde auf den vierbeinigen Roboter Unitree Go2 – von Projektinitiator Prof. Dr. Oliver Bendel Bao genannt – reagieren und wie ihre Halter solche Roboter in gemeinsam genutzten öffentlichen Räumen wahrnehmen. Das Projekt begann Ende März 2025 und wurde Anfang August 2025 abgeschlossen. Die Studie befasste sich mit drei Fragen: 1. Wie reagieren Hunde verhaltensmäßig auf einen vierbeinigen Roboter in sechs definierten Durchläufen, nämlich stationär, gehend und springend im Originalzustand sowie stationär, gehend und springend mit einem zusätzlichen 3D-gedruckten Hundekopf? 2. Welche Erwartungen und Bedenken haben die Halter? 3. Welche regulatorischen Rahmenbedingungen könnten eine sichere Integration unterstützen? Zwölf Hunde wurden in sechs strukturierten Interaktionsphasen beobachtet; ihr Verhalten wurde mithilfe von BORIS videokodiert. Vorgespräche mit acht Haltern sowie ein Experteninterview mit der Biologin und Hundetrainerin Dr. Sabrina Karl lieferten zusätzliche Erkenntnisse. Die Studie unter der Leitung von Selina Rohr ergab, dass die meisten Hunde vorsichtig, aber nicht aggressiv waren. Das Interesse nahm zu, sobald sich der Roboter bewegte, während visuelle Modifikationen kaum Wirkung zeigten. Ein 3D-gedruckter Hundekopf hingegen schien die Hunde im Standmodus zu faszinieren. Hergestellt und zur Verfügung gestellt wurde er von Norman Eskera. Häufig suchten die Tiere die Orientierung bei ihren Haltern, was die Bedeutung menschlicher Vermittlung unterstreicht. Die Halter zeigten sich vorsichtig aufgeschlossen, betonten jedoch Bedenken hinsichtlich Sicherheit, Unberechenbarkeit und Haftung. Die Ergebnisse sprechen für eine an Drohnen orientierte Regulierung beim Einsatz solcher Roboter im öffentlichen Raum.

Abb.: Der Hundekopf aus dem 3D-Drucker

Die Entwicklung der Informationsethik

Joseph Weizenbaum hatte in den 1970er-Jahren den Grundstein für die Informationsethik gelegt, vor allem mit seinem Buch „Die Macht der Computer und die Ohnmacht der Vernunft“ (1977). Bis dahin waren informationsethische (auch KI-ethische), roboterethische und maschinenethische Überlegungen im Kontext der Informatik und der Technikethik bzw. Technikphilosophie angestellt worden – oder in der Science-Fiction. In den 1980er- und 1990er-Jahren prägten Rafael Capurro und Rainer Kuhlen die Szene. Ersterer sprach später auch von Digitaler Ethik, wie Luciano Floridi, ein bekannter Forscher in diesem Bereich. Rainer Kuhlen schrieb unter Mitarbeit von Oliver Bendel das Buch „Die Mondlandung des Internet“ – dieses beschrieb das Engagement der Politik im WWW, genauer gesagt die Bereitstellung von Informationen, Diskussionsforen, Chatrooms und Onlineabstimmungen im Rahmen der Bundestagswahl 1998. Oliver Bendel, studierter Philosoph, verfasste im Rahmen seines zweiten Studiums der Informationswissenschaft ein Jahr zuvor die Arbeit „Ethik und Einsatz von Informationstechnik: Probleme der Computerethik und ethischer Kodizes“. Darin ging er u.a. der Frage nach, ob Computersysteme Verantwortung tragen können, aufbauend auf Diskussionen der 1970er- und 1980er-Jahre. Zudem analysierte er die schon damals fragwürdigen ethischen Leitlinien der Gesellschaft für Informatik (GI). 1998 gründete Rainer Kuhlen NETHICS. Auf der Willkommensseite hieß es: „NETHICS e.V. … nimmt den Auftrag wahr, die UNESCO, in Deutschland die Deutsche UNESCO-Kommission (DUK), bei der Behandlung informationsethischer Fragestellungen zu unterstützen.“ Die Website kam hell und aufgeräumt daher, wie es Google kurz zuvor vorgemacht hatte. Der Verein brauchte zur Gründung sieben Personen – unter ihnen war Oliver Bendel. Er ging Ende 1998 weg von Konstanz, zunächst an das Institut für Telematik in Trier. Ab Ende 1999 widmete er sich an der Universität St. Gallen zuerst Lern- und Wissensportalen und dann pädagogischen Agenten. Die meist anthropomorph umgesetzten Chatbots und Sprachassistenten bzw. mit Kameras ergänzten KI-Systeme warfen schon damals interessante ethische Fragen auf. Sein Interesse galt aber zunächst vor allem ihrer technischen und prozessualen Umsetzung.

Abb.: Die Website von NETHICS im Jahre 1999

Das Webdesign in den 1990er-Jahren

Die späten 1990er-Jahre waren ein Labor für Webdesign. Es gab immer noch die von Frames bestimmten Websites mit strukturierten Hintergründen und Bauarbeitermännchen, die als Animated Gifs den Aufbau anzeigten. Es gab aber auch bereits aufgeräumte, von Weiß dominierte Flächen – die Suchmaschine von Google ab Ende 1997 war ein berühmtes Beispiel dafür. Am Institut für Telematik in Trier wurde 1999 ebenfalls in dieser Richtung experimentiert, etwa im Rahmen des Trierer Symposiums für Elektronisches Publizieren und des Projekts intec. Das Symposium fand vom 25. bis zum 26. März 1999 statt. Die zugehörige Website hatte Oliver Bendel erstellt. Es dominierte Weiß. Die Navigationselemente waren einfach und bunt. Die Überschriften waren grün, wie das Logo des Instituts. Seine Fachführer für die Bibliothek der Universität Konstanz aus dem Jahre 1997 waren noch deutlich von den Anfängen des WWW geprägt gewesen. Ziel von intec war der Aufbau einer fachbezogenen Kompetenz in mittelständischen Bauunternehmen zur effizienten Vorbereitung und Abwicklung von Bauvorhaben durch den Einsatz moderner Informations- und Kommunikationstechnologien. Projektleiter und Webmaster für das Institut war Oliver Bendel. Seine studentische Mitarbeiterin Carmen Leopold schaffte es, der Website ein modernes, leichtes Design zu verleihen, das die Einstiegsseite und alle weiteren Seiten bestimmte. Ein grafisches, hellgraues Element stellte den Zusammenhang zwischen ihnen her. Die einfache Navigation verschob sich, nachdem man die Homepage hinter sich gelassen hatte, nach links, um den Inhalten mehr Raum zu geben. Listen mit den Projektpartnern und den Kontaktadressen waren dort ebenso zu finden wie News. Lediglich die horizontalen Linien erinnerten noch an die Frühzeit des WWW – ansonsten blickte man schon ins neue Jahrtausend.

Abb.: Die intec-Einstiegsseite von 1999

Das Gendern im Schweizer Recht III

Einige privatwirtschaftliche Journals in der Schweiz – etwa Psychotherapie-Wissenschaft, Schweizerische Zeitschrift für Soziologie, Schweizerische Zeitschrift für Heilpädagogik, SUCHT oder das Schweizerische Archiv für Volkskunde – schreiben in ihren Autorenrichtlinien die Verwendung von Gendersprache vor. Wer das Setzen von Sonderzeichen im Wortinneren oder das Verwenden von irreführenden Partizipformen und unnötigen Beidnennungen ablehnt bzw. den üblichen generischen Sprachgebrauch bevorzugt, wird von der Veröffentlichung ausgeschlossen. Nun sind private Verlage nicht direkt an Grundrechte gebunden, wie sie in der Bundesverfassung festgehalten sind. Dennoch greifen solche Vorgaben faktisch in die Wissenschaftsfreiheit (Art. 20 BV) und die Sprachenfreiheit (Art. 18 BV) ein. Denn die sprachliche Gestaltung gehört zur wissenschaftlichen Verantwortung des Autors. Wissenschaft verlangt präzise, prägnante, korrekte und nachvollziehbare Ausdrucksformen – keine ideologisch motivierten Eingriffe. Erzwingt ein Journal Sprachformen, die fachlich umstritten und sprachlich künstlich sind, stellt sich auch die Frage, ob es selbst noch wissenschaftlichen Standards genügt. Man kann sich als Autor einem solchen Journal verweigern und zugleich öffentlich darauf hinweisen, dass es mit seinen Vorgaben der Wissenschaft den Rücken gekehrt hat.

Abb.: In einer Bibliothek

Das Gendern im Schweizer Recht II

An Schweizer Hochschulen werden Verwaltungsangestellte zum Gendern verpflichtet. Oft geschieht dies durch Sprachleitfäden oder Kommunikationsrichtlinien, die als verbindlich erklärt werden. Als Begründung dient meist das Argument, die Hochschule dürfe wie ein Unternehmen eine einheitliche Kommunikation vorschreiben, ähnlich einem Tone of Voice. Doch ein solcher Zwang kollidiert mit der Bundesverfassung. Er stellt einen Eingriff in die Sprachenfreiheit (Art. 18 BV) und die persönliche Freiheit (Art. 10 Abs. 2 BV) dar. Wird jemand gezwungen, Sonderzeichen in der Wortmitte zu setzen oder grammatikalische Strukturen zu verändern, greift dies tief in die gewachsene Sprachform ein. Sprache als Teil der persönlichen Identität zu verändern, kann in bestimmten Fällen sogar die Menschenwürde (Art. 7 BV) verletzen. Handelt es sich bei der betroffenen Einheit um eine Forschungsstelle mit Publikationstätigkeit, gilt zusätzlich die Wissenschaftsfreiheit (Art. 20 BV). Grundsätzlich ist festzuhalten: Es ist nicht Aufgabe einer Hochschule, über Sprache, Sexualität oder Weltanschauung ihrer Mitglieder zu bestimmen. Eine Hochschule darf sich positionieren – aber sie muss stets die persönliche Freiheit achten.

Abb.: An der ETH Zürich

Das Gendern im Schweizer Recht I

In der Schweiz werden Forscher und Studierende immer wieder zum Gendern gezwungen. Rektoren, Studiengangleiter oder Dozenten versuchen mitunter, Vorgaben zu machen oder erzieherisch Einfluss zu nehmen. Grundlage sind oft Sprachleitfäden, die je nach Institution als freiwillig oder verpflichtend ausgegeben werden. Mit Blick auf die Bundesverfassung ist ein solcher Zwang problematisch. Wird von Dozenten oder Forschern verlangt, in Skripten, Vorlesungsfolien oder Artikeln bestimmte Sprachformen zu verwenden, liegt ein Eingriff in die Wissenschaftsfreiheit (Art. 20 BV) und die Sprachenfreiheit (Art. 18 BV) vor. Die Veränderung der Muttersprache durch eine künstliche Sprachform kann zugleich die persönliche Freiheit (Art. 10 Abs. 2 BV) und die Menschenwürde (Art. 7 BV) berühren. Bei Studierenden kann ein Genderzwang in wissenschaftlichen Arbeiten ebenfalls die Wissenschafts-, Meinungs- und Sprachenfreiheit verletzen. Eine Benachteiligung bei Bewertungen oder Prüfungen verstößt u.U. gegen den Gleichbehandlungsgrundsatz. Hochschulen erfüllen ihren Bildungsauftrag nicht, wenn sie geltende Rechtschreib- und Grammatikregeln ignorieren und fehlerhafte Schreibweisen vermitteln. Ein solcher Zwang hält ihre Mitglieder nicht zur Mündigkeit an, sondern zur Anpassung.

Abb.: Die Universität Zürich

Bilder einer Ausstellung

Weil generische, vom Geschlecht absehende Formen in Verdacht geraten sind, werden andere generische erfunden, etwa als substantiviertes Partizip Präsens, und zwar neben bereits existierenden generischen Formen mit demselben Wortstamm. Damit macht man, so die Vorstellung, mit Hilfe von Worten die Welt gerechter. Es lohnt sich in diesem Zusammenhang, ins Museum zu gehen, um den Blick zu schulen. Bilder einer Ausstellung, aber nicht aus musikalischen, sondern aus sprachlichen Gründen. „Die Lesende“ ist der Titel vieler Gemälde, die eine junge Frau zeigen, die in ihr Buch versunken ist – man denke an Jean-Honoré Fragonard oder Lovis Corinth. Sie ist auch eine Leserin, aber es geht hier darum, dass sie in diesen Minuten oder Stunden neben dem Lesen nichts tut, vom Atmen oder Trinken einmal abgesehen. „Der Trinker“ ist ein Gemälde von Albert Anker. Warum es kein „Trinkender“ ist? Weil der Dargestellte mehr Alkohol als Wasser trinkt und daher ein Alkoholiker ist. „Zeitungsleser im Garten“ ist ein Gemälde von Carl Spitzweg. Obwohl es auch ein Lesender ist, würde man ihn kaum einen Zeitungslesenden nennen – dieses Wort hat sich nicht durchgesetzt. „Zeitungslesender Mann“ ist hingegen eine mögliche Bezeichnung und wiederum ein Bild von Albert Anker. Die „Badende“ – etwa von Jean Auguste Dominique Ingres („Die große Badende“) oder Félix Vallotton – ist immer korrekt. Ein Bader war früher jemand, der ein Bad betrieb. Man sagt nicht: Er ist eher ein Bader als ein Schwimmer. Sondern: „Er badet lieber, als dass er schwimmt.“ „Die Forscher“ ist ein Gemälde von Edvard Munch, „Der Naturforscher“ eines von Carl Spitzweg. An Hochschulen und in den Medien ist oft von Forschenden die Rede. Dies ist eine unpassende und abwertende Bezeichnung. Denn alle Menschen sind Forschende, aber nur wenige sind Forscher. Diese forschen von Berufs wegen. Und keinesfalls ständig. Wer nun denkt, die Museen hätten noch ein Gefühl für die Sprache bewahrt, wird im ganzen deutschsprachigen Raum schnell eines Besseren belehrt, und man steht fassungslos vor den Beschreibungen und Einordnungen mit ihrer verunglückten Wortbildung und Rechtschreibung. Und selbst die Titel von Bildern werden hier und dort umbenannt. Vielleicht erwischt es eines Tages auch den „Trinker“, der zum „Trinkenden“ wird. Dann hätte man ihn, denn so funktioniert die Sprachmagie, zugleich von seiner Sucht befreit.

Abb.: Eine Ausstellung im Reinhart am Stadtgarten in Winterthur

Completion of „The Robodog Project“

„The Robodog Project: Bao Meets Pluto“ examined how domestic dogs respond to the Unitree Go2 quadruped robot – nicknamed Bao by project initiator Prof. Dr. Oliver Bendel – and how their owners perceive such robots in shared public spaces. The project began in late March 2025 and was completed in early August 2025. The study addressed three questions: (1) How do dogs behaviorally respond to a quadruped robot across six conditions: stationary, walking, and jumping without an additional dog head, and stationary, walking, and jumping with an additional 3D-printed dog head? (2) What are owners‘ expectations and concerns? (3) What regulatory frameworks could support safe integration? Twelve dogs were observed in six structured interaction phases; their behavior was video-coded using BORIS. Another dog participated in a preliminary test but not in the actual study. Pre-exposure interviews with eight owners, as well as an expert interview with a biologist and dog trainer, provided additional insights. Led by Selina Rohr, the study found most dogs were cautious but not aggressive. Curiosity increased during robot movement, while visual modifications had little impact. However, a 3D-printed dog head seemed to interest the dogs quite a bit when the robot was in standing mode. Dogs often sought guidance from their owners, underlining the role of human mediation. Owners were cautiously open but emphasized concerns around safety, unpredictability, and liability. The findings support drone-like regulation for robot use in public spaces.

Fig.: Bao with a dog (Photo: Selina Rohr)

Auch GPT-5 bevorzugt eine Sondersprache

Auch bei GPT-5 ist die Default-Einstellung so, dass im Deutschen nicht die Standardsprache bevorzugt wird, sondern eine Sondersprache, auch als Gendersprache bekannt. Damit findet weiterhin eine gezielte Manipulation statt, die erhebliche Auswirkungen auf den Sprachgebrauch haben dürfte. Gendersprache wird von der Mehrheit der Sprachgemeinschaft abgelehnt. Man könnte sogar sagen, dass sie von der Gesamtheit der Sprachgemeinschaft abgelehnt wird, wenn man annimmt, dass die Vertreter der Gendersprache diese verlassen haben. Sie gilt als sexualisierend, diskriminierend und dysfunktional. Unterstützt wird sie von zahlreichen Medien, Verlagen und Hochschulen, oft im Konflikt mit geltendem Recht. Auch der Staat hat versucht, sie durchzusetzen, zieht sich allmählich aber auf eine neutrale Position zurück und verweist auf die Rechtschreibregeln, die der Rat für deutsche Rechtschreibung festlegt. Zur gezielten Manipulation kommt hinzu, dass ChatGPT mit GPT-5 sich (wie schon GPT-4 bzw. GPT-4o) in erster Linie auf den Duden bezieht, der seine wissenschaftliche Basis längst verlassen hat und gegen das generische Maskulinum ankämpft, das für das Deutsche unverzichtbar ist. Eine offizielle Referenz ist er seit vielen Jahren nicht mehr, und Wörterbücher wie das DWDS sind ihm in vielen Aspekten überlegen. Plus-Benutzer können Gendersprache in den Einstellungen ausschließen – GPT-5 ignoriert dies aber immer wieder, genau wie seine Vorgänger. Sam Altman wird mit den Worten zitiert, GPT-5 sei ein „Experte für jedes Thema mit einem Doktortitel“ (Manager Magazin, 8. August 2025). Allerdings dürfte dies nicht für die Linguistik gelten.

Abb.: Auch GPT-5 bevorzugt eine Sondersprache

Fehler und Abweichungen in Texten von ChatGPT

Die überkorrekte oder unidiomatische Sprache von ChatGPT fällt vielen Benutzern auf. Die Ursache dürfte sein, dass das zugrunde liegende Sprachmodell sich beim Generieren an mehrsprachigen Strukturen orientiert und dabei manchmal englischsprachige Muster unkritisch auf das Deutsche überträgt. Sie lässt sich bei einigen anderen Fehlern und Abweichungen finden. Oliver Bendel hat eine Übersicht über diese erstellt. Es handelt sich um einen ersten Entwurf, der nach und nach überarbeitet und erweitert werden soll. Für besonders bedenklich hält er die absichtlichen Eingriffe, die OpenAI vornimmt. So rührt der Gebrauch der Gendersprache, die eine Sondersprache ist, von den Prinzipien her, die auf verschiedenen Ebenen umgesetzt werden. Die Default-Einstellung kann zwar theoretisch über Prompts abgestellt werden, aber tatsächlich ignoriert ChatGPT diese häufig, selbst bei Plus-Benutzern, die Gendersprache grundsätzlich ausgeschlossen haben. Damit stellt sich das amerikanische Unternehmen auf die Seite derjenigen, die Menschen zum Gebrauch der Sondersprache zwingen – auf die Seite von zahlreichen Medien, Verlagen und Hochschulen.

Abb.: Eine Übersicht über Fehler und Abweichungen in Texten von ChatGPT

Romance With a Robot – Fantasy or Reality?

Some thinkers – including Weber-Guskar (2021) – have introduced the idea of „Emotionalized Artificial Intelligence“, describing AI systems designed to elicit emotions in humans, detect and simulate emotional responses, and form affective ties with their users. That concept opens the door to understanding how people might form romantic or erotic relationships with AI agents and robots. Recent studies show these (probably one-sided) relationships are no longer speculative. In a thorough 2024 paper, Bertoni, Klaes & Pilacinski (2024) review the emerging field of „intimate companion robots“, encouraging more research into the field while exploring possibilities from combatting loneliness to replacing vulnerable sex workers. The radical scope of suggested uses makes it obvious how important ethics of human-robot interaction will become. Research by Ebner & Szczuka (2025) explores the romantic and sexual aspects of chatbot communication, and how romantic fantasies shared with them can elicit feelings of closeness that mimic the effects of human partners. There are dangers to these parallels, however, since undesirable aspects of human-human intimate interaction can be replicated as well. Chu et al. (2025) reveal that conversational AI (e.g., Replika) can evoke emotional synchrony, but also patterns resembling toxic relationships or self harm in vulnerable users. The breadth of these studies shows that emotionalized AI, robots, and other human-oriented machines and programs are already a reality, and romantic and sexual engagement with artificial agents is a pressing issue to debate on within ethics of human-robot interaction (authors: Grzegorz Roguszczak, Phan Thanh Phuong Le, Karahan Senzümrüt, Nesa Baruti Zajmi, and Zuzanna Bakuniak).

Fig.: Romance with a robot?

Unitree stellt humanoiden Roboter R1 vor

Der chinesische Hersteller Unitree hat – wie er am 25. Juli 2025 auf LinkedIn meldete – mit dem R1 einen neuen zweibeinigen, humanoiden Roboter vorgestellt. Mit einem Gewicht von rund 25 Kilogramm ist dieser leichter als das Vorgängermodell G1 (35 Kilogramm) und deutlich günstiger. Der Einstiegspreis liegt bei 39.900 Yuan (ca. 5566 US-Dollar), im Vergleich zu 99.000 Yuan für den G1. Der R1 nutzt ein multimodales großes Sprachmodell (Multimodal Large Language Model, MLLM), das Sprach- und Bildverarbeitung kombiniert. Ausgestattet mit hochflexiblen Gliedmaßen – darunter sechs zweifach bewegliche Beinachsen, eine bewegliche Taille, zwei Arme und ein beweglicher Kopf – bietet er ein breites Spektrum an Bewegungsmöglichkeiten. Unitree positioniert den R1 als offene Plattform für Entwickler und Forscher. Ziel ist es, humanoide Roboter durch niedrigere Kosten und modulare Technik einem breiteren Markt zugänglich zu machen. Neben robotischen Zweibeinern hat das Unternehmen seit Jahren auch robotische Vierbeiner im Angebot, etwa Unitree Go1 und Unitree Go2.

Abb.: Der R1 kommt auf den Markt (Bild: ChatGPT/4o Image)

Zur Zukunft der United Robotics Group

Die United Robotics Group hatte zuletzt mit Schwierigkeiten zu kämpfen. Nun meldet sie eine Aufteilung in zwei Unternehmen mit unterschiedlicher Fokussierung. „Mit einem klaren Fokus auf anwendungsorientierte Robotik für den Life-Science- und Health-Care-Markt“ wird die Marke künftig von der United Robotics Group Health & Food unter der Leitung von CEO Wassim Saeidi „weiterentwickelt“ (LinkedIn-Post, 23. Juli 2025). MOBILE ROBOTS | advanced intralogistics hingegen vertreibt und integriert „mobile Robotiklösungen, die gezielt auf die Optimierung des Waren- und Materialflusses sowie die Reinigung in Produktionsumgebungen ausgerichtet sind“ (LinkedIn-Post, 23. Juli 2025). Die United Robotics Group war mit großen Ambitionen gestartet. Mit Geldern der RAG-Stiftung ausgestattet, klopfte man an vielen Türen in der ganzen Welt an, übernahm Unternehmen wie Aldebaran, holte Roboter zurück nach Europa und schuf Alternativen zu etablierten asiatischen Produkten. So gesellte sich zu BellaBot mit ihren Katzenöhrchen der etwas sachlichere Plato. Aldebaran, das französische Unternehmen, zu dem Pepper und NAO gehörten, musste 2025 den Betrieb einstellen. Die beiden Flaggschiffe der Sozialen Robotik gerieten im Sommer 2025 in chinesische Hände. Ohne eine gründliche Neugestaltung und technische Aufrüstung dürften sie indes kaum eine Chance haben, auf dem Markt zu bestehen.

Abb.: Pepper während des Wahlmoduls von Oliver Bendel mit einer Studentin

KI in der Medizin

Prof. Dr. Oliver Bendel wurde im Juli 2025 für die Berliner Zeitung von Adrian Lobe zum Einsatz von KI-Systemen in der Medizin befragt. Dabei ging es u.a. um die Unterstützung oder Ersetzung von Ärzten. KI-Systeme können, so der Technikphilosoph, Vorschläge zu Therapien machen, die die Mediziner nicht kennen oder auf die sie nicht gekommen wären. Von daher sollten sie auf jeden Fall einbezogen werden. Letztlich müsse der Mensch entscheiden. Häufig steht man, so die Argumentation, nicht oder nicht stark unter Zeitdruck und kann entsprechende Standards und Prozesse einhalten – man spricht auch vom Human in the Loop. Bei einer Ersteinschätzung in der Notaufnahme ist Oliver Bendel skeptischer. Hier stehe man meist unter Zeitdruck. Das scheine zwar für KI-Systeme zu sprechen, aber es bräuchte auch Zeit, ihre Vorschläge zu prüfen. Er wünscht sich hier eher Fachkräfte, die den Fall aufgrund ihrer Erfahrung beurteilen. Die Informationsethik kann, so der Technikphilosoph, mit Blick auf Datenschutz, informationelle Autonomie (Zugang zu Daten, Anpassung und Weitergabe der Daten) und persönliche Autonomie (Respektieren der Patientenentscheidungen) helfen. Sie beschäftigt sich zudem mit dem Problem, dass KI-Systeme keine Verantwortung tragen können. Die Maschinenethik und Ansätze wie Ethics by Design sind gefragt, wenn es um die Gestaltung der Systeme geht. Diese könnten ihre Aussagen und Empfehlungen z.B. immer unter einen Vorbehalt stellen und eine Prüfung durch Experten verlangen. Der Artikel, in den einzelne Statements von Oliver Bendel aus dem umfassenden Interview eingeflossen sind, kann über www.berliner-zeitung.de aufgerufen werden.

Abb.: Ob die plastische Chirurgie auch ein Anwendungsbereich ist?

Eine winzige Drohne als mächtiger Spion

Ein Robotiklabor an der National University of Defence Technology (NUDT) in der zentralchinesischen Provinz Hunan hat eine winzige Drohne für verdeckte Militäroperationen entwickelt. Dies berichteten am 24. Juni 2025 mehrere Medien, etwa The Defense Post. Auf manchen Fotos ähnelt sie einer Mücke, auf anderen einer Fliege. Damit wurde eine Idee umgesetzt, die in der Vergangenheit bereits in der Literatur zu finden war. 2009 erschien der Roman „Verlorene Schwestern“ von Oliver Bendel. Aus dem Klappentext: „Maik, ein 16-jähriger Junge, hat eine Drohne entwickelt, die einer Fliege gleicht und mit deren Hilfe er alles sehen kann, was er sehen will. Sein Plan ist, Prominente und Reiche auszuspionieren und, wenn er das ultimative Bild gefunden hat, zu erpressen. Nur seinem Tagebuch vertraut er sich an, einem digitalen Rekorder. Nancy, die früher als Mundmodell und für die Stasi gearbeitet hat, surft mit ihrer kleinen Maschine auf elektromagnetischen Wellen, bis sie auf Schallwellen trifft. Wie früher belauscht sie andere, aber ohne an verwanzte Räume gebunden zu sein – und nicht, um Böses zu schaffen, sondern um Böses zu verhindern. Maik und Nancy kommen über die ahnungslose Stadt. Sie wissen nichts voneinander, bis die Frau ein merkwürdiges Brummen hört. Fast eine Fliege. Aber eben nur fast.“ Der Roman kann als Teil einer Trilogie angesehen werden – der erste Roman ist „Nachrückende Generationen“ von 2007, der zweite „Künstliche Kreaturen“ von 2008. Wie „la mouche“, wie die Fliege im Roman auch heißt, ist auch die chinesische Drohne ein mächtiger Spion. Ob sie auf eine ehemalige Spionin wie Nancy – auch „la bouche“ genannt – trifft, wird die Zukunft zeigen.

Abb.: So stellt ChatGPT die winzige Drohne dar (Bild: ChatGPT/4o Image)

Small Talk With a Robot

The paper „Small Talk with a Robot Reduces Stress and Improves Mood“ by Katharina Kühne, Antonia L. Z. Klöffel, Oliver Bendel, and Martin H. Fischer has been accepted for presentation at the ICSR 2025, which will take place in Naples from September 10 to 12, 2025. Previous research has shown that social support reduces stress and improves mood. This study tested whether small talk with a social robot could be helpful. After performing a stressful task, 98 participants either chatted with a NAO robot, listened to the robot tell a neutral story, or did not interact with the robot. Both robot interactions reduced stress, particularly small talk, which also boosted positive mood. The effects were stronger in those with high acute stress. Positive affect played a key role in stress reduction, suggesting that robot-mediated small talk may be a useful tool for providing emotional support. Dr. Katharina Kühne and Prof. Dr. Martin H. Fischer are researchers at the University of Potsdam. Antonia L. Z. Klöffel assists Katharina Kühne as a junior scientist. Martin Fischer is the head of the Potsdam Embodied Cognition Group (PECoG). Prof. Dr. Oliver Bendel is a PECoG associated researcher. Further information about the conference is available at icsr2025.eu.

Fig.: Small talk with a robot

Wie wird KI die Welt verändern?

„Algorithmus und Alltag – Wie wird KI die Welt verändern?“ So lautet der Titel einer Sendung, die am 18. Juni 2025 ab 17.05 Uhr bei SWR Kultur (Forum) ausgestrahlt wird. Bernd Lechler diskutiert mit Prof. Dr. Oliver Bendel, Technikphilosoph (Hochschule für Wirtschaft FHNW), Lena-Sophie Müller (Digitalexpertin, Initiative D21) und Dr. Manuela Lenzen (Wissenschaftsjournalistin). Auf der Website wird die Sendung mit folgenden Worten angekündigt: „Krankheiten besiegen und den Klimawandel stoppen, Arbeitsplätze vernichten und die Demokratie gefährden: Künstlicher Intelligenz wird schon lange vieles zugetraut, aber immer noch spüren wir davon wenig. Ist alles nur ein Hype, oder unterschätzen wir vielmehr fahrlässig, was auf uns zukommt? Welche Chancen tun sich auf, welche Risiken zeichnen sich ab, und wie können wir klug damit umgehen?“ Deutlich wird, dass KI bereits die Welt verändert hat, im Guten wie im Schlechten. Die Robotik ebenfalls – auch von ihr wird die Rede sein. Weitere Informationen sind über die Website des Kanals verfügbar.

Abb.: Oliver Bendel bei einem Vortrag in Stuttgart (Foto: Next Frontiers)

Will NAO Survive?

Following the recent news that French robotics company Aldebaran has entered judicial liquidation, RobotLAB has issued a press release to reassure customers and partners of continued support for NAO and Pepper robots. A new company, NAO Robotics SA, is being formed to acquire Aldebaran’s intellectual property and engineering team. Development on the next-generation NAO V7 has already resumed. RobotLAB, a long-time NAO partner since 2009, remains fully operational with robots, parts, and support services in stock. With over 6,500 NAO robots deployed, the company continues to provide training, repairs, and educational tools, including the recently launched NAO AI Edition with ChatGPT integration. RobotLAB emphasized there will be no disruption for current customers and views this transition as a new beginning for the NAO platform.

Fig.: Will NAO survive?

Emma Braslavsky und Oliver Bendel im Gespräch

Unter dem Titel „Mensch 2.0: Die Vision des universellen Roboters“ hielt Prof. Dr. Oliver Bendel am 4. Juni 2025 ab 19 Uhr in der Stadtbibliothek Stuttgart den Eröffnungsvortrag zur Tagung „Next Frontiers“ … Dabei zeigte er auf, dass alle Elemente einer solchen Maschine vorhanden sind. Man muss sie nur noch zusammenfügen, was freilich keine triviale Aufgabe ist. Robotische Zweibeiner, die als Allzweckroboter vermarktet werden, können als Vorstufen universeller Roboter gelten. Figure, Digit und Apollo arbeiten bereits in Fabriken auf der ganzen Welt … Danach trug auf dem Podium die Autorin Emma Braslavsky („Ich bin dein Mensch“, verfilmt von Maria Schrader) aus einem Dialog mit Claude vor, einem LLM-basierten Chatbot. Dieser beeindruckte durch Beschreibungen seiner eigenen Existenz. Sie sprach mit Oliver Bendel, inzwischen auch auf dem Podium, über die neuesten Entwicklungen und ihre Folgen. Die Moderation oblag Thomas Klingenmaier, Redakteur der Stuttgarter Zeitung. Schließlich wurde das Publikum einbezogen. So groß war das Interesse, dass der Saal auch nach drei Stunden noch vollbesetzt war. Alle Erkenntnisse und Eindrücke hat der Zeichner und Illustrator Heyko Stöber eingefangen, einer der Besten seines Fachs.

Abb.: Auf dem Podium (Foto: Next Frontiers)

Eine Einführung in die Digitale Ethik

In den 1970er- und 1980er-Jahren bildeten sich erste Formen einer Computerethik aus, die dann in den frühen 1990er-Jahren mit der Netzethik verbunden wurden. In der Folge wurde die Informationsethik zur etablierten Bereichsethik. Rainer Kuhlen und Rafael Capurro waren die führenden Vertreter. Kuhlen legte 2004 das Standardwerk „Informationsethik“ vor, das sich stark auf das Internet bzw. das WWW bezog. Oliver Bendel leistete Definitions- und Systematisierungsarbeit und band bis dahin kaum bekannte Bereiche ein, etwa die Implementierung von Chatbots und Sprachassistenten, die Tier-Computer- und Tier-Maschine-Interaktion sowie den Diskurs zu Human und Animal Enhancement, und führte Begrifflichkeiten wie „Münchhausen-Maschinen“, „Robot Enhancement“ und „Moral Prompt Engineering“ ein. Capurro war einer der ersten im deutschsprachigen Raum, die – nach Luciano Floridi im englischsprachigen Raum – von einer Digitalen Ethik zu sprechen begannen. Für manche ist diese identisch mit der Informationsethik, für andere ein Teilbereich davon. Dagmar Fenner legt nun ein neues Werk unter diesem Begriff vor. Aus dem Klappentext: „Die rasch voranschreitende Digitalisierung und der damit verbundene tiefgreifende Kulturwandel erfordern dringend ethische Reflexionen und mehr gesellschaftliche Gestaltung. In dieser Einführung werden wichtige Grundbegriffe und normative Leitideen geklärt. Im ersten Teil Digitale Medienethik geht es um Probleme wie Fake News, Emotionalisierung und Hassrede in Online-Medien. Dies führt zur Frage, ob das Internet die Demokratie eher fördert oder gefährdet. Der zweite Teil KI-Ethik reflektiert die Gefahren von Datafizierung und Big-Data-Analysen, z.B. Diskriminierung oder Verlust von Freiheit. Zudem wird beleuchtet, wie der vermehrte Einsatz von Robotern unser Leben und unser Menschenbild verändert. Gegeben wird ein kritisch abwägender Überblick über das hochkomplexe aktuelle Themenfeld mit klarer Struktur und vielen Übersichten.“ (Flyer Digitale Ethik) Dagmar Fenner ist Titularprofessorin für Philosophie an der Universität Basel sowie Lehrbeauftragte für Ethik an der Universität Tübingen. Das Buch „Digitale Ethik“ ist im Mai 2025 im Narr Francke Attempto Verlag erschienen.

Abb.: Das Cover des Buchs

Max Mustermann und das Zip-Puzzle

„520 Kolleg:innen bei XYZ haben ihren Tag mit einem Erfolg bei einem täglichen Denkspiel Zip begonnen. Machen Sie mit.“ Solche Meldungen erhält man regelmäßig als Benutzer von LinkedIn. Einmal abgesehen vom fehlerhaften Deutsch, für das Microsoft seit Jahrzehnten bekannt ist – je nach Größe des Unternehmens, der Behörde oder der Hochschule darf man verwundert sein, wie viele Kollegen ihren Arbeitstag mit Arbeitsverweigerung beginnen. Natürlich kann man es auch als Spiel verstehen, das einem die Arbeit erst sinnvoll und erträglich erscheinen lässt. Erstaunlicherweise erhält man aber nicht nur solche allgemeinen Meldungen, sondern auch auf einzelne Personen bezogene, die mit ihrem vollen Namen genannt werden. „Max Mustermann“ oder „Martina Musterfrau“ – hier wieder entsprechende Angaben einsetzen – „and others stay sharp with our daily Zip puzzle“. So lautet die englische Version, um auch einmal die Muttersprache des Konzerns zu verwenden. Neben der Information erscheint das Profilbild des Kollegen oder der Kollegin, zudem eine Zeitangabe. Das sind personenbezogene Daten. Sie geben Aufschluss über das Verhalten des Mitarbeiters zu einem bestimmten Zeitpunkt. Sie verraten, dass man die Plattform nicht verwendet, um seine Arbeit darzustellen oder sich zu vernetzen, sondern um Unterhaltung und Ablenkung zu suchen. Natürlich verraten das auch die eigenen Posts. Aber über deren Erscheinen hat man Kontrolle. Über das Erscheinen der Meldung nicht. So sehen also dieser Tage unzählige Vorgesetzte und Kollegen, dass man nicht ausgelastet ist und die Ressourcen des Arbeitgebers für private Zwecke einsetzt.

Abb.: So kann man in den Tag starten (Image: ChatGPT/4o Image)

The End of the Aldebaran Story

On June 2, 2025, Aldebaran announced the end of the „Aldebaran Story“ in a video. The video recounts the history of the company. Founded in 2005 by Bruno Maissonier of France, NAO, one of the best-known social robots to date, was launched the following year. The company has sold 20,000 units, primarily to universities and research institutes. These institutions then developed applications for children and the elderly. In 2012, SoftBank invested in the company so that Pepper could be built. Seventeen thousand units were produced. They sold out in 2024. Once again, researchers and developers created numerous applications for Pepper. In 2021, the United Robotics Group, backed by the RAG Foundation, invested in the company and moved production back to Paris. That marked the beginning of the end. Plato was created as a competitor to the Chinese BellaBot. However, Aldebaran’s and the United Robotics Group’s problems were apparent by the beginning of 2025. In March, Aldebaran announced its insolvency. Buyers were sought, but to no avail. At the beginning of June, the company announced the end of its history.

Fig.: Oliver Bendel with Pepper on the fringes of an event