Das Gendern im Schweizer Recht III

Einige privatwirtschaftliche Journals in der Schweiz – etwa Psychotherapie-Wissenschaft, Schweizerische Zeitschrift für Soziologie, Schweizerische Zeitschrift für Heilpädagogik, SUCHT oder das Schweizerische Archiv für Volkskunde – schreiben in ihren Autorenrichtlinien die Verwendung von Gendersprache vor. Wer das Setzen von Sonderzeichen im Wortinneren oder das Verwenden von irreführenden Partizipformen und unnötigen Beidnennungen ablehnt bzw. den üblichen generischen Sprachgebrauch bevorzugt, wird von der Veröffentlichung ausgeschlossen. Nun sind private Verlage nicht direkt an Grundrechte gebunden, wie sie in der Bundesverfassung festgehalten sind. Dennoch greifen solche Vorgaben faktisch in die Wissenschaftsfreiheit (Art. 20 BV) und die Sprachenfreiheit (Art. 18 BV) ein. Denn die sprachliche Gestaltung gehört zur wissenschaftlichen Verantwortung des Autors. Wissenschaft verlangt präzise, prägnante, korrekte und nachvollziehbare Ausdrucksformen – keine ideologisch motivierten Eingriffe. Erzwingt ein Journal Sprachformen, die fachlich umstritten und sprachlich künstlich sind, stellt sich auch die Frage, ob es selbst noch wissenschaftlichen Standards genügt. Man kann sich als Autor einem solchen Journal verweigern und zugleich öffentlich darauf hinweisen, dass es mit seinen Vorgaben der Wissenschaft den Rücken gekehrt hat.

Abb.: In einer Bibliothek

Das Gendern im Schweizer Recht II

An Schweizer Hochschulen werden Verwaltungsangestellte zum Gendern verpflichtet. Oft geschieht dies durch Sprachleitfäden oder Kommunikationsrichtlinien, die als verbindlich erklärt werden. Als Begründung dient meist das Argument, die Hochschule dürfe wie ein Unternehmen eine einheitliche Kommunikation vorschreiben, ähnlich einem Tone of Voice. Doch ein solcher Zwang kollidiert mit der Bundesverfassung. Er stellt einen Eingriff in die Sprachenfreiheit (Art. 18 BV) und die persönliche Freiheit (Art. 10 Abs. 2 BV) dar. Wird jemand gezwungen, Sonderzeichen in der Wortmitte zu setzen oder grammatikalische Strukturen zu verändern, greift dies tief in die gewachsene Sprachform ein. Sprache als Teil der persönlichen Identität zu verändern, kann in bestimmten Fällen sogar die Menschenwürde (Art. 7 BV) verletzen. Handelt es sich bei der betroffenen Einheit um eine Forschungsstelle mit Publikationstätigkeit, gilt zusätzlich die Wissenschaftsfreiheit (Art. 20 BV). Grundsätzlich ist festzuhalten: Es ist nicht Aufgabe einer Hochschule, über Sprache, Sexualität oder Weltanschauung ihrer Mitglieder zu bestimmen. Eine Hochschule darf sich positionieren – aber sie muss stets die persönliche Freiheit achten.

Abb.: An der ETH Zürich

Das Gendern im Schweizer Recht I

In der Schweiz werden Forscher und Studierende immer wieder zum Gendern gezwungen. Rektoren, Studiengangleiter oder Dozenten versuchen mitunter, Vorgaben zu machen oder erzieherisch Einfluss zu nehmen. Grundlage sind oft Sprachleitfäden, die je nach Institution als freiwillig oder verpflichtend ausgegeben werden. Mit Blick auf die Bundesverfassung ist ein solcher Zwang problematisch. Wird von Dozenten oder Forschern verlangt, in Skripten, Vorlesungsfolien oder Artikeln bestimmte Sprachformen zu verwenden, liegt ein Eingriff in die Wissenschaftsfreiheit (Art. 20 BV) und die Sprachenfreiheit (Art. 18 BV) vor. Die Veränderung der Muttersprache durch eine künstliche Sprachform kann zugleich die persönliche Freiheit (Art. 10 Abs. 2 BV) und die Menschenwürde (Art. 7 BV) berühren. Bei Studierenden kann ein Genderzwang in wissenschaftlichen Arbeiten ebenfalls die Wissenschafts-, Meinungs- und Sprachenfreiheit verletzen. Eine Benachteiligung bei Bewertungen oder Prüfungen verstößt u.U. gegen den Gleichbehandlungsgrundsatz. Hochschulen erfüllen ihren Bildungsauftrag nicht, wenn sie geltende Rechtschreib- und Grammatikregeln ignorieren und fehlerhafte Schreibweisen vermitteln. Ein solcher Zwang hält ihre Mitglieder nicht zur Mündigkeit an, sondern zur Anpassung.

Abb.: Die Universität Zürich

Bilder einer Ausstellung

Weil generische, vom Geschlecht absehende Formen in Verdacht geraten sind, werden andere generische erfunden, etwa als substantiviertes Partizip Präsens, und zwar neben bereits existierenden generischen Formen mit demselben Wortstamm. Damit macht man, so die Vorstellung, mit Hilfe von Worten die Welt gerechter. Es lohnt sich in diesem Zusammenhang, ins Museum zu gehen, um den Blick zu schulen. Bilder einer Ausstellung, aber nicht aus musikalischen, sondern aus sprachlichen Gründen. „Die Lesende“ ist der Titel vieler Gemälde, die eine junge Frau zeigen, die in ihr Buch versunken ist – man denke an Jean-Honoré Fragonard oder Lovis Corinth. Sie ist auch eine Leserin, aber es geht hier darum, dass sie in diesen Minuten oder Stunden neben dem Lesen nichts tut, vom Atmen oder Trinken einmal abgesehen. „Der Trinker“ ist ein Gemälde von Albert Anker. Warum es kein „Trinkender“ ist? Weil der Dargestellte mehr Alkohol als Wasser trinkt und daher ein Alkoholiker ist. „Zeitungsleser im Garten“ ist ein Gemälde von Carl Spitzweg. Obwohl es auch ein Lesender ist, würde man ihn kaum einen Zeitungslesenden nennen – dieses Wort hat sich nicht durchgesetzt. „Zeitungslesender Mann“ ist hingegen eine mögliche Bezeichnung und wiederum ein Bild von Albert Anker. Die „Badende“ – etwa von Jean Auguste Dominique Ingres („Die große Badende“) oder Félix Vallotton – ist immer korrekt. Ein Bader war früher jemand, der ein Bad betrieb. Man sagt nicht: Er ist eher ein Bader als ein Schwimmer. Sondern: „Er badet lieber, als dass er schwimmt.“ „Die Forscher“ ist ein Gemälde von Edvard Munch, „Der Naturforscher“ eines von Carl Spitzweg. An Hochschulen und in den Medien ist oft von Forschenden die Rede. Dies ist eine unpassende und abwertende Bezeichnung. Denn alle Menschen sind Forschende, aber nur wenige sind Forscher. Diese forschen von Berufs wegen. Und keinesfalls ständig. Wer nun denkt, die Museen hätten noch ein Gefühl für die Sprache bewahrt, wird im ganzen deutschsprachigen Raum schnell eines Besseren belehrt, und man steht fassungslos vor den Beschreibungen und Einordnungen mit ihrer verunglückten Wortbildung und Rechtschreibung. Und selbst die Titel von Bildern werden hier und dort umbenannt. Vielleicht erwischt es eines Tages auch den „Trinker“, der zum „Trinkenden“ wird. Dann hätte man ihn, denn so funktioniert die Sprachmagie, zugleich von seiner Sucht befreit.

Abb.: Eine Ausstellung im Reinhart am Stadtgarten in Winterthur

Completion of „The Robodog Project“

„The Robodog Project: Bao Meets Pluto“ examined how domestic dogs respond to the Unitree Go2 quadruped robot – nicknamed Bao by project initiator Prof. Dr. Oliver Bendel – and how their owners perceive such robots in shared public spaces. The project began in late March 2025 and was completed in early August 2025. The study addressed three questions: (1) How do dogs behaviorally respond to a quadruped robot across six conditions: stationary, walking, and jumping without an additional dog head, and stationary, walking, and jumping with an additional 3D-printed dog head? (2) What are owners‘ expectations and concerns? (3) What regulatory frameworks could support safe integration? Twelve dogs were observed in six structured interaction phases; their behavior was video-coded using BORIS. Another dog participated in a preliminary test but not in the actual study. Pre-exposure interviews with eight owners, as well as an expert interview with a biologist and dog trainer, provided additional insights. Led by Selina Rohr, the study found most dogs were cautious but not aggressive. Curiosity increased during robot movement, while visual modifications had little impact. However, a 3D-printed dog head seemed to interest the dogs quite a bit when the robot was in standing mode. Dogs often sought guidance from their owners, underlining the role of human mediation. Owners were cautiously open but emphasized concerns around safety, unpredictability, and liability. The findings support drone-like regulation for robot use in public spaces.

Fig.: Bao with a dog (Photo: Selina Rohr)

Auch GPT-5 bevorzugt eine Sondersprache

Auch bei GPT-5 ist die Default-Einstellung so, dass im Deutschen nicht die Standardsprache bevorzugt wird, sondern eine Sondersprache, auch als Gendersprache bekannt. Damit findet weiterhin eine gezielte Manipulation statt, die erhebliche Auswirkungen auf den Sprachgebrauch haben dürfte. Gendersprache wird von der Mehrheit der Sprachgemeinschaft abgelehnt. Man könnte sogar sagen, dass sie von der Gesamtheit der Sprachgemeinschaft abgelehnt wird, wenn man annimmt, dass die Vertreter der Gendersprache diese verlassen haben. Sie gilt als sexualisierend, diskriminierend und dysfunktional. Unterstützt wird sie von zahlreichen Medien, Verlagen und Hochschulen, oft im Konflikt mit geltendem Recht. Auch der Staat hat versucht, sie durchzusetzen, zieht sich allmählich aber auf eine neutrale Position zurück und verweist auf die Rechtschreibregeln, die der Rat für deutsche Rechtschreibung festlegt. Zur gezielten Manipulation kommt hinzu, dass ChatGPT mit GPT-5 sich (wie schon GPT-4 bzw. GPT-4o) in erster Linie auf den Duden bezieht, der seine wissenschaftliche Basis längst verlassen hat und gegen das generische Maskulinum ankämpft, das für das Deutsche unverzichtbar ist. Eine offizielle Referenz ist er seit vielen Jahren nicht mehr, und Wörterbücher wie das DWDS sind ihm in vielen Aspekten überlegen. Plus-Benutzer können Gendersprache in den Einstellungen ausschließen – GPT-5 ignoriert dies aber immer wieder, genau wie seine Vorgänger. Sam Altman wird mit den Worten zitiert, GPT-5 sei ein „Experte für jedes Thema mit einem Doktortitel“ (Manager Magazin, 8. August 2025). Allerdings dürfte dies nicht für die Linguistik gelten.

Abb.: Auch GPT-5 bevorzugt eine Sondersprache

Fehler und Abweichungen in Texten von ChatGPT

Die überkorrekte oder unidiomatische Sprache von ChatGPT fällt vielen Benutzern auf. Die Ursache dürfte sein, dass das zugrunde liegende Sprachmodell sich beim Generieren an mehrsprachigen Strukturen orientiert und dabei manchmal englischsprachige Muster unkritisch auf das Deutsche überträgt. Sie lässt sich bei einigen anderen Fehlern und Abweichungen finden. Oliver Bendel hat eine Übersicht über diese erstellt. Es handelt sich um einen ersten Entwurf, der nach und nach überarbeitet und erweitert werden soll. Für besonders bedenklich hält er die absichtlichen Eingriffe, die OpenAI vornimmt. So rührt der Gebrauch der Gendersprache, die eine Sondersprache ist, von den Prinzipien her, die auf verschiedenen Ebenen umgesetzt werden. Die Default-Einstellung kann zwar theoretisch über Prompts abgestellt werden, aber tatsächlich ignoriert ChatGPT diese häufig, selbst bei Plus-Benutzern, die Gendersprache grundsätzlich ausgeschlossen haben. Damit stellt sich das amerikanische Unternehmen auf die Seite derjenigen, die Menschen zum Gebrauch der Sondersprache zwingen – auf die Seite von zahlreichen Medien, Verlagen und Hochschulen.

Abb.: Eine Übersicht über Fehler und Abweichungen in Texten von ChatGPT

Romance With a Robot – Fantasy or Reality?

Some thinkers – including Weber-Guskar (2021) – have introduced the idea of „Emotionalized Artificial Intelligence“, describing AI systems designed to elicit emotions in humans, detect and simulate emotional responses, and form affective ties with their users. That concept opens the door to understanding how people might form romantic or erotic relationships with AI agents and robots. Recent studies show these (probably one-sided) relationships are no longer speculative. In a thorough 2024 paper, Bertoni, Klaes & Pilacinski (2024) review the emerging field of „intimate companion robots“, encouraging more research into the field while exploring possibilities from combatting loneliness to replacing vulnerable sex workers. The radical scope of suggested uses makes it obvious how important ethics of human-robot interaction will become. Research by Ebner & Szczuka (2025) explores the romantic and sexual aspects of chatbot communication, and how romantic fantasies shared with them can elicit feelings of closeness that mimic the effects of human partners. There are dangers to these parallels, however, since undesirable aspects of human-human intimate interaction can be replicated as well. Chu et al. (2025) reveal that conversational AI (e.g., Replika) can evoke emotional synchrony, but also patterns resembling toxic relationships or self harm in vulnerable users. The breadth of these studies shows that emotionalized AI, robots, and other human-oriented machines and programs are already a reality, and romantic and sexual engagement with artificial agents is a pressing issue to debate on within ethics of human-robot interaction (authors: Grzegorz Roguszczak, Phan Thanh Phuong Le, Karahan Senzümrüt, Nesa Baruti Zajmi, and Zuzanna Bakuniak).

Fig.: Romance with a robot?

Unitree stellt humanoiden Roboter R1 vor

Der chinesische Hersteller Unitree hat – wie er am 25. Juli 2025 auf LinkedIn meldete – mit dem R1 einen neuen zweibeinigen, humanoiden Roboter vorgestellt. Mit einem Gewicht von rund 25 Kilogramm ist dieser leichter als das Vorgängermodell G1 (35 Kilogramm) und deutlich günstiger. Der Einstiegspreis liegt bei 39.900 Yuan (ca. 5566 US-Dollar), im Vergleich zu 99.000 Yuan für den G1. Der R1 nutzt ein multimodales großes Sprachmodell (Multimodal Large Language Model, MLLM), das Sprach- und Bildverarbeitung kombiniert. Ausgestattet mit hochflexiblen Gliedmaßen – darunter sechs zweifach bewegliche Beinachsen, eine bewegliche Taille, zwei Arme und ein beweglicher Kopf – bietet er ein breites Spektrum an Bewegungsmöglichkeiten. Unitree positioniert den R1 als offene Plattform für Entwickler und Forscher. Ziel ist es, humanoide Roboter durch niedrigere Kosten und modulare Technik einem breiteren Markt zugänglich zu machen. Neben robotischen Zweibeinern hat das Unternehmen seit Jahren auch robotische Vierbeiner im Angebot, etwa Unitree Go1 und Unitree Go2.

Abb.: Der R1 kommt auf den Markt (Bild: ChatGPT/4o Image)

Zur Zukunft der United Robotics Group

Die United Robotics Group hatte zuletzt mit Schwierigkeiten zu kämpfen. Nun meldet sie eine Aufteilung in zwei Unternehmen mit unterschiedlicher Fokussierung. „Mit einem klaren Fokus auf anwendungsorientierte Robotik für den Life-Science- und Health-Care-Markt“ wird die Marke künftig von der United Robotics Group Health & Food unter der Leitung von CEO Wassim Saeidi „weiterentwickelt“ (LinkedIn-Post, 23. Juli 2025). MOBILE ROBOTS | advanced intralogistics hingegen vertreibt und integriert „mobile Robotiklösungen, die gezielt auf die Optimierung des Waren- und Materialflusses sowie die Reinigung in Produktionsumgebungen ausgerichtet sind“ (LinkedIn-Post, 23. Juli 2025). Die United Robotics Group war mit großen Ambitionen gestartet. Mit Geldern der RAG-Stiftung ausgestattet, klopfte man an vielen Türen in der ganzen Welt an, übernahm Unternehmen wie Aldebaran, holte Roboter zurück nach Europa und schuf Alternativen zu etablierten asiatischen Produkten. So gesellte sich zu BellaBot mit ihren Katzenöhrchen der etwas sachlichere Plato. Aldebaran, das französische Unternehmen, zu dem Pepper und NAO gehörten, musste 2025 den Betrieb einstellen. Die beiden Flaggschiffe der Sozialen Robotik gerieten im Sommer 2025 in chinesische Hände. Ohne eine gründliche Neugestaltung und technische Aufrüstung dürften sie indes kaum eine Chance haben, auf dem Markt zu bestehen.

Abb.: Pepper während des Wahlmoduls von Oliver Bendel mit einer Studentin

KI in der Medizin

Prof. Dr. Oliver Bendel wurde im Juli 2025 für die Berliner Zeitung von Adrian Lobe zum Einsatz von KI-Systemen in der Medizin befragt. Dabei ging es u.a. um die Unterstützung oder Ersetzung von Ärzten. KI-Systeme können, so der Technikphilosoph, Vorschläge zu Therapien machen, die die Mediziner nicht kennen oder auf die sie nicht gekommen wären. Von daher sollten sie auf jeden Fall einbezogen werden. Letztlich müsse der Mensch entscheiden. Häufig steht man, so die Argumentation, nicht oder nicht stark unter Zeitdruck und kann entsprechende Standards und Prozesse einhalten – man spricht auch vom Human in the Loop. Bei einer Ersteinschätzung in der Notaufnahme ist Oliver Bendel skeptischer. Hier stehe man meist unter Zeitdruck. Das scheine zwar für KI-Systeme zu sprechen, aber es bräuchte auch Zeit, ihre Vorschläge zu prüfen. Er wünscht sich hier eher Fachkräfte, die den Fall aufgrund ihrer Erfahrung beurteilen. Die Informationsethik kann, so der Technikphilosoph, mit Blick auf Datenschutz, informationelle Autonomie (Zugang zu Daten, Anpassung und Weitergabe der Daten) und persönliche Autonomie (Respektieren der Patientenentscheidungen) helfen. Sie beschäftigt sich zudem mit dem Problem, dass KI-Systeme keine Verantwortung tragen können. Die Maschinenethik und Ansätze wie Ethics by Design sind gefragt, wenn es um die Gestaltung der Systeme geht. Diese könnten ihre Aussagen und Empfehlungen z.B. immer unter einen Vorbehalt stellen und eine Prüfung durch Experten verlangen. Der Artikel, in den einzelne Statements von Oliver Bendel aus dem umfassenden Interview eingeflossen sind, kann über www.berliner-zeitung.de aufgerufen werden.

Abb.: Ob die plastische Chirurgie auch ein Anwendungsbereich ist?

Eine winzige Drohne als mächtiger Spion

Ein Robotiklabor an der National University of Defence Technology (NUDT) in der zentralchinesischen Provinz Hunan hat eine winzige Drohne für verdeckte Militäroperationen entwickelt. Dies berichteten am 24. Juni 2025 mehrere Medien, etwa The Defense Post. Auf manchen Fotos ähnelt sie einer Mücke, auf anderen einer Fliege. Damit wurde eine Idee umgesetzt, die in der Vergangenheit bereits in der Literatur zu finden war. 2009 erschien der Roman „Verlorene Schwestern“ von Oliver Bendel. Aus dem Klappentext: „Maik, ein 16-jähriger Junge, hat eine Drohne entwickelt, die einer Fliege gleicht und mit deren Hilfe er alles sehen kann, was er sehen will. Sein Plan ist, Prominente und Reiche auszuspionieren und, wenn er das ultimative Bild gefunden hat, zu erpressen. Nur seinem Tagebuch vertraut er sich an, einem digitalen Rekorder. Nancy, die früher als Mundmodell und für die Stasi gearbeitet hat, surft mit ihrer kleinen Maschine auf elektromagnetischen Wellen, bis sie auf Schallwellen trifft. Wie früher belauscht sie andere, aber ohne an verwanzte Räume gebunden zu sein – und nicht, um Böses zu schaffen, sondern um Böses zu verhindern. Maik und Nancy kommen über die ahnungslose Stadt. Sie wissen nichts voneinander, bis die Frau ein merkwürdiges Brummen hört. Fast eine Fliege. Aber eben nur fast.“ Der Roman kann als Teil einer Trilogie angesehen werden – der erste Roman ist „Nachrückende Generationen“ von 2007, der zweite „Künstliche Kreaturen“ von 2008. Wie „la mouche“, wie die Fliege im Roman auch heißt, ist auch die chinesische Drohne ein mächtiger Spion. Ob sie auf eine ehemalige Spionin wie Nancy – auch „la bouche“ genannt – trifft, wird die Zukunft zeigen.

Abb.: So stellt ChatGPT die winzige Drohne dar (Bild: ChatGPT/4o Image)

Small Talk With a Robot

The paper „Small Talk with a Robot Reduces Stress and Improves Mood“ by Katharina Kühne, Antonia L. Z. Klöffel, Oliver Bendel, and Martin H. Fischer has been accepted for presentation at the ICSR 2025, which will take place in Naples from September 10 to 12, 2025. Previous research has shown that social support reduces stress and improves mood. This study tested whether small talk with a social robot could be helpful. After performing a stressful task, 98 participants either chatted with a NAO robot, listened to the robot tell a neutral story, or did not interact with the robot. Both robot interactions reduced stress, particularly small talk, which also boosted positive mood. The effects were stronger in those with high acute stress. Positive affect played a key role in stress reduction, suggesting that robot-mediated small talk may be a useful tool for providing emotional support. Dr. Katharina Kühne and Prof. Dr. Martin H. Fischer are researchers at the University of Potsdam. Antonia L. Z. Klöffel assists Katharina Kühne as a junior scientist. Martin Fischer is the head of the Potsdam Embodied Cognition Group (PECoG). Prof. Dr. Oliver Bendel is a PECoG associated researcher. Further information about the conference is available at icsr2025.eu.

Fig.: Small talk with a robot

Wie wird KI die Welt verändern?

„Algorithmus und Alltag – Wie wird KI die Welt verändern?“ So lautet der Titel einer Sendung, die am 18. Juni 2025 ab 17.05 Uhr bei SWR Kultur (Forum) ausgestrahlt wird. Bernd Lechler diskutiert mit Prof. Dr. Oliver Bendel, Technikphilosoph (Hochschule für Wirtschaft FHNW), Lena-Sophie Müller (Digitalexpertin, Initiative D21) und Dr. Manuela Lenzen (Wissenschaftsjournalistin). Auf der Website wird die Sendung mit folgenden Worten angekündigt: „Krankheiten besiegen und den Klimawandel stoppen, Arbeitsplätze vernichten und die Demokratie gefährden: Künstlicher Intelligenz wird schon lange vieles zugetraut, aber immer noch spüren wir davon wenig. Ist alles nur ein Hype, oder unterschätzen wir vielmehr fahrlässig, was auf uns zukommt? Welche Chancen tun sich auf, welche Risiken zeichnen sich ab, und wie können wir klug damit umgehen?“ Deutlich wird, dass KI bereits die Welt verändert hat, im Guten wie im Schlechten. Die Robotik ebenfalls – auch von ihr wird die Rede sein. Weitere Informationen sind über die Website des Kanals verfügbar.

Abb.: Oliver Bendel bei einem Vortrag in Stuttgart (Foto: Next Frontiers)

Will NAO Survive?

Following the recent news that French robotics company Aldebaran has entered judicial liquidation, RobotLAB has issued a press release to reassure customers and partners of continued support for NAO and Pepper robots. A new company, NAO Robotics SA, is being formed to acquire Aldebaran’s intellectual property and engineering team. Development on the next-generation NAO V7 has already resumed. RobotLAB, a long-time NAO partner since 2009, remains fully operational with robots, parts, and support services in stock. With over 6,500 NAO robots deployed, the company continues to provide training, repairs, and educational tools, including the recently launched NAO AI Edition with ChatGPT integration. RobotLAB emphasized there will be no disruption for current customers and views this transition as a new beginning for the NAO platform.

Fig.: Will NAO survive?

Emma Braslavsky und Oliver Bendel im Gespräch

Unter dem Titel „Mensch 2.0: Die Vision des universellen Roboters“ hielt Prof. Dr. Oliver Bendel am 4. Juni 2025 ab 19 Uhr in der Stadtbibliothek Stuttgart den Eröffnungsvortrag zur Tagung „Next Frontiers“ … Dabei zeigte er auf, dass alle Elemente einer solchen Maschine vorhanden sind. Man muss sie nur noch zusammenfügen, was freilich keine triviale Aufgabe ist. Robotische Zweibeiner, die als Allzweckroboter vermarktet werden, können als Vorstufen universeller Roboter gelten. Figure, Digit und Apollo arbeiten bereits in Fabriken auf der ganzen Welt … Danach trug auf dem Podium die Autorin Emma Braslavsky („Ich bin dein Mensch“, verfilmt von Maria Schrader) aus einem Dialog mit Claude vor, einem LLM-basierten Chatbot. Dieser beeindruckte durch Beschreibungen seiner eigenen Existenz. Sie sprach mit Oliver Bendel, inzwischen auch auf dem Podium, über die neuesten Entwicklungen und ihre Folgen. Die Moderation oblag Thomas Klingenmaier, Redakteur der Stuttgarter Zeitung. Schließlich wurde das Publikum einbezogen. So groß war das Interesse, dass der Saal auch nach drei Stunden noch vollbesetzt war. Alle Erkenntnisse und Eindrücke hat der Zeichner und Illustrator Heyko Stöber eingefangen, einer der Besten seines Fachs.

Abb.: Auf dem Podium (Foto: Next Frontiers)

Eine Einführung in die Digitale Ethik

In den 1970er- und 1980er-Jahren bildeten sich erste Formen einer Computerethik aus, die dann in den frühen 1990er-Jahren mit der Netzethik verbunden wurden. In der Folge wurde die Informationsethik zur etablierten Bereichsethik. Rainer Kuhlen und Rafael Capurro waren die führenden Vertreter. Kuhlen legte 2004 das Standardwerk „Informationsethik“ vor, das sich stark auf das Internet bzw. das WWW bezog. Oliver Bendel leistete Definitions- und Systematisierungsarbeit und band bis dahin kaum bekannte Bereiche ein, etwa die Implementierung von Chatbots und Sprachassistenten, die Tier-Computer- und Tier-Maschine-Interaktion sowie den Diskurs zu Human und Animal Enhancement, und führte Begrifflichkeiten wie „Münchhausen-Maschinen“, „Robot Enhancement“ und „Moral Prompt Engineering“ ein. Capurro war einer der ersten im deutschsprachigen Raum, die – nach Luciano Floridi im englischsprachigen Raum – von einer Digitalen Ethik zu sprechen begannen. Für manche ist diese identisch mit der Informationsethik, für andere ein Teilbereich davon. Dagmar Fenner legt nun ein neues Werk unter diesem Begriff vor. Aus dem Klappentext: „Die rasch voranschreitende Digitalisierung und der damit verbundene tiefgreifende Kulturwandel erfordern dringend ethische Reflexionen und mehr gesellschaftliche Gestaltung. In dieser Einführung werden wichtige Grundbegriffe und normative Leitideen geklärt. Im ersten Teil Digitale Medienethik geht es um Probleme wie Fake News, Emotionalisierung und Hassrede in Online-Medien. Dies führt zur Frage, ob das Internet die Demokratie eher fördert oder gefährdet. Der zweite Teil KI-Ethik reflektiert die Gefahren von Datafizierung und Big-Data-Analysen, z.B. Diskriminierung oder Verlust von Freiheit. Zudem wird beleuchtet, wie der vermehrte Einsatz von Robotern unser Leben und unser Menschenbild verändert. Gegeben wird ein kritisch abwägender Überblick über das hochkomplexe aktuelle Themenfeld mit klarer Struktur und vielen Übersichten.“ (Flyer Digitale Ethik) Dagmar Fenner ist Titularprofessorin für Philosophie an der Universität Basel sowie Lehrbeauftragte für Ethik an der Universität Tübingen. Das Buch „Digitale Ethik“ ist im Mai 2025 im Narr Francke Attempto Verlag erschienen.

Abb.: Das Cover des Buchs

Max Mustermann und das Zip-Puzzle

„520 Kolleg:innen bei XYZ haben ihren Tag mit einem Erfolg bei einem täglichen Denkspiel Zip begonnen. Machen Sie mit.“ Solche Meldungen erhält man regelmäßig als Benutzer von LinkedIn. Einmal abgesehen vom fehlerhaften Deutsch, für das Microsoft seit Jahrzehnten bekannt ist – je nach Größe des Unternehmens, der Behörde oder der Hochschule darf man verwundert sein, wie viele Kollegen ihren Arbeitstag mit Arbeitsverweigerung beginnen. Natürlich kann man es auch als Spiel verstehen, das einem die Arbeit erst sinnvoll und erträglich erscheinen lässt. Erstaunlicherweise erhält man aber nicht nur solche allgemeinen Meldungen, sondern auch auf einzelne Personen bezogene, die mit ihrem vollen Namen genannt werden. „Max Mustermann“ oder „Martina Musterfrau“ – hier wieder entsprechende Angaben einsetzen – „and others stay sharp with our daily Zip puzzle“. So lautet die englische Version, um auch einmal die Muttersprache des Konzerns zu verwenden. Neben der Information erscheint das Profilbild des Kollegen oder der Kollegin, zudem eine Zeitangabe. Das sind personenbezogene Daten. Sie geben Aufschluss über das Verhalten des Mitarbeiters zu einem bestimmten Zeitpunkt. Sie verraten, dass man die Plattform nicht verwendet, um seine Arbeit darzustellen oder sich zu vernetzen, sondern um Unterhaltung und Ablenkung zu suchen. Natürlich verraten das auch die eigenen Posts. Aber über deren Erscheinen hat man Kontrolle. Über das Erscheinen der Meldung nicht. So sehen also dieser Tage unzählige Vorgesetzte und Kollegen, dass man nicht ausgelastet ist und die Ressourcen des Arbeitgebers für private Zwecke einsetzt.

Abb.: So kann man in den Tag starten (Image: ChatGPT/4o Image)

The End of the Aldebaran Story

On June 2, 2025, Aldebaran announced the end of the „Aldebaran Story“ in a video. The video recounts the history of the company. Founded in 2005 by Bruno Maissonier of France, NAO, one of the best-known social robots to date, was launched the following year. The company has sold 20,000 units, primarily to universities and research institutes. These institutions then developed applications for children and the elderly. In 2012, SoftBank invested in the company so that Pepper could be built. Seventeen thousand units were produced. They sold out in 2024. Once again, researchers and developers created numerous applications for Pepper. In 2021, the United Robotics Group, backed by the RAG Foundation, invested in the company and moved production back to Paris. That marked the beginning of the end. Plato was created as a competitor to the Chinese BellaBot. However, Aldebaran’s and the United Robotics Group’s problems were apparent by the beginning of 2025. In March, Aldebaran announced its insolvency. Buyers were sought, but to no avail. At the beginning of June, the company announced the end of its history.

Fig.: Oliver Bendel with Pepper on the fringes of an event

Robots, Chatbots, and Voice Assistants in the Classroom

The GROUND workshop (advancing GROup UNderstanding and robots‘ aDaptive behavior) is back for its third edition and will take place on June 30, 2025, as part of the IAS 19 Conference in Genoa, Italy. The keynote speeches will be given by Prof. Dr. Oliver Bendel, FHNW School of Business, and Prof. Dr. Silvia Rossi, University of Naples. The talk by the technology philosopher and business information scientist from Zurich entitled „Robots, chatbots, and voice assistants in the classroom“ is summarized as follows on the Ground website: „Chatbots, voice assistants, and robots – both programmable machines and social robots – have been used in learning for decades. Prof. Dr. Oliver Bendel from the FHNW School of Business in Switzerland presents his own projects from 15 years. Some of his chatbots and voice assistants, such as GOODBOT, BESTBOT, and SPACE THEA, recognized user problems and responded appropriately. They showed empathy and emotion. Pepper was used as an educational application for children with diabetes, and Alpha Mini as an educational application for elementary schools. Chatbots for dead, endangered, and extinct languages such as @ve, @llegra, and kAIxo can be integrated into learning environments for all ages. Today, the technology philosopher and information systems expert mainly uses GPTs such as Social Robotics Girl and Digital Ethics Girl in his courses. They can receive and answer questions from several students at the same time, even if they are asked in different languages. They are specialists in their field thanks to prompt engineering and retrieval-augmented generation (RAG). In his talk, Oliver Bendel will ask how chatbots, voice assistants, and social robots will be designed as adaptive systems for multi-user settings in the future. These capabilities are especially important in the classroom.“ Further information is available at ground-hri.github.io/workshop/.

Fig.: Oliver Bendel in Italy in 2025 (Photo: Stefanie Hauske)

Die Schwierigkeiten von ChatGPT mit der deutschen Sprache

ChatGPT mit dem Sprachmodell GPT-4o schreibt zwar auf hohem Niveau, weist in seiner Sprache aber einige Auffälligkeiten und Abweichungen, ja sogar Fehler auf. In den sozialen Medien wird viel über die häufige und ungewöhnliche Verwendung des Spiegelstrichs gesprochen. Dieser findet sich vor einem angehängten Nebensatz oder Hauptsatz – wie in diesem Beispiel. Auch bei Aufzählungen weicht es vom allgemeinen Sprachgebrauch ab. Es hat Probleme mit den Artikeln und verwendet oft ein „oder“, wo ein „und“ passender wäre. Und es stellt „nicht“ häufig mit einem Bindestrich voran, womit es einen verbreiteten Fehler stärkt. Zuweilen wird die englische Wortbildung auf die deutsche übertragen, sodass es zu Fehlern wie „Deep Learning-Modelle“ kommt. Zu Fehlern kommt es auch, weil das Sprachmodell immer wieder Gendersprache einbaut. Dies ist auf die von OpenAI verfassten Prinzipien zurückzuführen, die auf die verschiedenen Ebenen (RLHF, Prompt Engineering, Filtersysteme) heruntergebrochen werden. Der Chatbot verwendet Schreibweisen, die es im Deutschen nicht gibt und die von der (Mehrheit der) Sprachgemeinschaft abgelehnt werden. Insgesamt verfolgt er eine ideologische und wissenschaftsfeindliche Agenda. Durch all diese Abweichungen und Fehler nimmt ChatGPT Einfluss auf die deutsche Sprache. Diese trägt Blessuren davon oder erleidet sogar schwere Beschädigungen. Da das zugrunde liegende Sprachmodell immer wieder angepasst wird, ist es schwierig, allgemeine Aussagen zu treffen. Die beschriebenen Phänomene wurden im Mai 2025 beobachtet.

Abb.: ChatGPT schadet der deutschen Sprache

Die Schüchternheit der HAIKU-LIEBHABERIN

Seit Ende 2023 kann man sogenannte GPTs erstellen, die auf bestimmte Aufgaben spezialisiert sind. Am 21. Januar 2024 kam DIE HAIKU-LIEBHABERIN auf die Welt. Sie trägt seitdem Haikus von Oliver Bendel vor und interpretiert sie auf Wunsch des Benutzers. Gefüttert wurde der Chatbot mit zwei Sammlungen, nämlich „handyhaiku“ und „stöckelnde dinger“ … Der erste Band war 2010 im Hamburger Haiku Verlag erschienen, in gedruckter Form. Neben den Texten waren QR-Codes zu sehen, aus denen die Haikus direkt aufs Handy übernommen werden konnten, ohne dass man online sein musste. Der zweite Band wurde ebenfalls 2010 veröffentlicht, und zwar als Handybuch bei Blackbetty, einem Wiener Verlag. Im Mai 2025 wurde der Bildgenerator bei der HAIKU-LIEBHABERIN aktiviert. Seitdem kann sie die Gedichte auf Wunsch auch visualisieren. Allerdings ist sie als Chatbot von OpenAI – um es freundlich auszudrücken – außerordentlich schüchtern. So werden einem immer wieder Bilder zu Haikus verwehrt. Man kann insgesamt sagen, dass LLMs nur bedingt geeignet sind für Kunstprojekte. An die Stelle der Staaten und Kirchen, die früher Zensur bei der Kunst ausübten, sind nun die Konzerne getreten. Oliver Bendel veröffentlicht seit über 40 Jahren Gedichte und trägt sie zu seltenen Gelegenheiten auch vor.

Abb.: Die Schüchternheit der HAIKU-LIEBHABERIN (Bild: ChatGPT/4o Image)