Am 14. März 2025 erschien im Standard der Artikel „Warum manche Menschen tausende Euro für einen Sexroboter zahlen“. Zu Wort kamen Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW und Jessica M. Szczuka von der Universität Duisburg-Essen. Am selben Tag veröffentlichte der Technikphilosoph und Wirtschaftsinformatiker aus Zürich auf LinkedIn einen Blogpost mit folgenden Worten: „Mit dem österreichischen Standard habe ich über Liebespuppen und Sexroboter gesprochen. Der Artikel ist heute auf der Website erschienen. Morgen folgt er in der gedruckten Ausgabe.“ … Dazu wurde ein Bild von einer Liebespuppe veröffentlicht. Zu sehen war lediglich der Kopf, samt der rechten Schulter und dem Ansatz der rechten Brust, nicht aber die Brust selbst. Der Post auf LinkedIn verlinkte auf einen Post in diesem Blog. Kurze Zeit später erhielt Oliver Bendel per E-Mail eine Nachricht des Microsoft-Ablegers: „Ihr Inhalt (Beitrag) verstößt gegen unsere Community-Richtlinien und wurde von LinkedIn entfernt. Nur Sie können noch darauf zugreifen.“ Damit zensiert Microsoft einen Bericht über Forschung in einem Bereich, in dem es eh zu wenig Forschung gibt. Wenn man auf den Button „Hinweisseite anzeigen“ klickt, bekommt man folgenden Text zu lesen: „Unsere automatisierten Systeme haben festgestellt, dass Ihr Post … unsere Community-Richtlinien zu nicht jugendfreier Nacktheit oder sexuellen Aktivitäten nicht erfüllt.“ Nach einem Einspruch wurde der Beitrag wieder freigeschaltet.
Joseph Pallinger vom österreichischen Standard war im März 2025 im Gespräch mit Prof. Dr. Oliver Bendel, der an der Hochschule für Wirtschaft FHNW lehrt und forscht und assoziierter Forscher der Potsdam Embodied Cognition Group (PECoG) an der Universität Potsdam ist. Es ging um Liebespuppen und Sexroboter sowie um Androiden wie Aria von Realbotix, die die Fähigkeiten von Harmony und Co. haben, aber auch ihre Arme bewegen können. Gedacht sind sie für alle möglichen Einsatzbereiche, etwa für das Hotel oder die Bibliothek. Zudem wurde Jessica M. Szczuka von der Universität Duisburg-Essen zum Thema befragt. Entstanden ist der Artikel „Warum manche Menschen tausende Euro für einen Sexroboter zahlen“, der am 14. März 2025 auf der Website erschienen ist. Oliver Bendel steht Liebespuppen und Sexrobotern neutral gegenüber. Er hält sie weder für die Rettung der Menschheit wie David Levy noch für deren Untergang wie Kathleen Richardson. Der Artikel kann über www.derstandard.at abgerufen werden. Am 22. März 2025 ist er zusätzlich in der gedruckten Ausgabe zu finden.
Abb.: Eine Liebespuppe im Cybrothel (Foto: Cybrothel)
The paper „‚Ick bin een Berlina‘: dialect proficiency impacts a robot’s trustworthiness and competence evaluation“ by Katharina Kühne, Erika Herbold, Oliver Bendel, Yuefang Zhou, and Martin H. Fischer was selected as one of the 11 best papers out of 261 published in Frontiers in Robotics and AI in 2024. The paper says about the background: „Robots are increasingly used as interaction partners with humans. Social robots are designed to follow expected behavioral norms when engaging with humans and are available with different voices and even accents. Some studies suggest that people prefer robots to speak in the user’s dialect, while others indicate a preference for different dialects.“ The winning papers were published in March 2025 in a book entitled „Frontiers in Robotics and AI editor’s picks 2024“ (editor Kostas J. Kyriakopoulos). He states in his message: „As the Field Chief Editor, I would like to stand alongside our journal staff to honor all authors who contributed very high-level papers to the journal last year and are contributing to our success.“ The book is available for free download at www.frontiersin.org/books/Frontiers_in_Robotics_and_AI_editors_picks_2024/13336.
Das Buch „Soziale Roboter: Technikwissenschaftliche, wirtschaftswissenschaftliche, philosophische, psychologische und soziologische Grundlagen“ (Hrsg. Oliver Bendel) hat am 12. März 2025 350.000 Accesses erreicht, nach etwa dreieinhalb Jahren. Es besteht aus fünf Teilen: „Grundlagen, -begriffe und -fragen“, „Soziale Robotik und andere Disziplinen“, „Gestaltung, Interaktion und Kommunikation“, „Anwendungsbereiche sozialer Roboter“ und „Die Zukunft sozialer Roboter“. Es sind, das Vorwort mitgezählt, 30 Beiträge, mit ca. 35 Abbildungen, bei ca. 570 Seiten. Der Untertitel lautet: „Technikwissenschaftliche, wirtschaftswissenschaftliche, philosophische, psychologische und soziologische Grundlagen“. Mit dabei sind führende Experten der Sozialen Robotik, der Robotik, der Künstlichen Intelligenz, der Soziologie, der Psychologie und der Philosophie. Sie lehren und forschen an Hochschulen in der Schweiz, in Deutschland, in Österreich, in Dänemark und in Schweden. Auch ein Hersteller ist vertreten, der über den Einsatz seines Produkts berichtet. Das Fachbuch ist Ende 2021 bei Springer Gabler erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 heruntergeladen oder bestellt werden. Zudem ist es in jeder Buchhandlung verfügbar. Es handelt sich um das erfolgreichste Buch von Oliver Bendel – nach seinem Open-Access-Buch „Pflegeroboter“ (2018) mit weit über einer halben Million Accesses und vor seinem „Handbuch Maschinenethik“ (2017 – 2019, gedruckte Version 2019) mit über 230.000 Accesses.
Prof. Dr. Oliver Bendel hält am 10. April 2025 bei der Veranstaltung „Wenn Roboter zu Kollegen werden: Wer arbeitet in der Produktion von morgen?“ im MAC Museum Art & Cars in Singen einen Vortrag mit dem Titel „Serviceroboter im Praxiseinsatz: Zwischen smarter Innovation und ethischer Verantwortung“. Serviceroboter haben sich als Reinigungs-, Transport- und Sicherheitsroboter verbreitet. Als Saug- und Wischroboter sind sie im Haushalt, am Flughafen und auf der Hotelanlage anzutreffen. Als Transportroboter fahren sie in der Fabrik und in Lagerhallen umher, verkehren im Restaurant zwischen Buffet und Küche oder bringen in Städten die Bestellungen zum Kunden. Als Sicherheitsroboter bewachen sie Betriebsgelände und Gleisanlagen. In der Form sozialer Roboter beraten und bedienen sie uns in Shopping Malls oder unterhalten unsere Kinder, während wir einkaufen. Vor der Tür stehen universelle Roboter, menschenähnliche Maschinen, die morgens in Produktion und Logistik helfen, nachmittags den Garten umgraben und abends mit uns Tennis spielen. Verbunden werden sie mit großen Weltmodellen (World Foundation Models, WFMs) und multimodalen großen Sprachmodellen (Multimodal Large Language Models, MLLMs), die ihr Training, ihre Steuerung und ihre Wahrnehmung ermöglichen bzw. verbessern. Der Vortrag stellt Anwendungsfälle der genannten Art vor, ordnet sie aus technischer und ethischer Perspektive ein und wirft einen Blick in die Zukunft. Die Veranstaltung findet im Rahmen des Projekts TIM (Transformation – Innovation – Mobilität) statt, das durch das Bundesministerium für Wirtschaft und Klimaschutz gefördert wird. Weitere Informationen sind in Kürze über cyberlago.net verfügbar.
Abb.: Oliver Bendel bei einem Vortrag im Mercedes-Benz Museum in Stuttgart (Foto: Daimler und Benz Stiftung)
Join us as a sponsor for the 17th International Conference on Social Robotics & AI, taking place on 10-12 September 2025 at Naples, Italy. This prestigious event brings together researchers, leading experts, innovators, and thought leaders in the fields of robotics, AI, and human-robot interaction. Don’t miss the opportunity to align your brand with cutting-edge advancements. We offer different sponsorship/exhibition packages, all information is available at the page: icsr2025.eu/sponsor2/. If you are interested or have any questions, don’t hesitate to contact us at info@icsr2025.eu with the subject line tag [Sponsorship]. The ICSR is one of the leading conferences for social robotics worldwide. Participants will meet for two days at the Parthenope University of Naples and for the third day at the Città della Scienza conference center. More information on icsr2025.eu.
Aldebaran Robotics, seit 2022 Teil der United Robotics Group, hat laut Golem bereits Mitte Februar 2025 Insolvenz angemeldet. Es gebe Pläne, fast die Hälfte der Angestellten zu entlassen. Als Pepper und NAO aus SoftBank herausgelöst und zurück nach Europa geholt wurden, haben sich viele Experten gefragt, was der Plan sein könnte. Zwar sind die beiden die Flaggschiffe der Sozialen Robotik, aber auch die Veteranen, in Hard- und Software veraltet. Tatsächlich sollte im nächsten Jahr die nächste Version von NAO herauskommen. Golem schreibt, dass dies durch den „drastischen Stellenabbau kaum noch zu realisieren sein dürfte“ (Golem, 10. März 2025). Hinter der United Robotics Group steht die RAG-Stiftung. Neben Pepper und NAO hat man weitere Roboter bzw. ganze Unternehmen eingegliedert. Zu chinesischen Modellen wie BellaBot entstanden Alternativen wie Plato. Golem schreibt am Ende des Artikels: „Aktuell sollen Verhandlungen mit dem Management stattfinden. Ob sich jedoch eine neue Geldquelle erschließen lässt, ist angesichts begrenzter Erfolgsaussichten und starker Konkurrenz mindestens fraglich.“ (Golem, 10. März 2025) Dabei wäre es für die RAG-Stiftung wohl problemlos möglich, NAO und Pepper zu retten. Vielleicht ist über die beiden aber einfach die Zeit hinweggegangen.
„Robot Enhancement ist die Erweiterung und damit einhergehende Veränderung oder Verbesserung des Roboters durch den Benutzer bzw. eine Firma, etwa in funktionaler, ästhetischer, ethischer oder ökonomischer Hinsicht. Das Wort wurde in Anlehnung an ‚Human Enhancement‘ und ‚Animal Enhancement‘ gebildet, und man kann damit sowohl das Arbeitsgebiet als auch den Gegenstand bezeichnen. Eine Form des Robot Enhancement ist das Social Robot Enhancement, bei dem ein sozialer Roboter erweitert bzw. verändert und verbessert wird. Der Hersteller bietet vor dem Finishing unterschiedliche Optionen an, eine Tuningfirma nach der Produktion diverse Add-ons. Auch der Benutzer selbst kann in verschiedener Weise aktiv werden, etwa indem er das Gegenüber markiert und es dadurch personalisiert.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der vor vier Jahren, am 20. Februar 2021, im Gabler Wirtschaftslexikon erschienen ist. Inzwischen gibt es zahlreiche Beispiele für Robot Enhancement, auch und gerade im relativ neuen Bereich der Wearables Social Robots. Für diesen stehen oft Kleidungsstücke und Kostüme zur Verfügung, und manche von ihnen kann man mit ChatGPT verbinden.
Abb.: Robot Enhancement für Wearable Social Robots
„Wearable Robots sind Roboter oder robotische Komponenten, die man bei sich, auf sich oder in sich trägt. Sie können am Kopf, am Körper oder an der Kleidung befestigt bzw. mit Körperteilen und Organen dauerhaft verbunden werden. Manche sind aus harten, starren Materialien gefertigt, wie Hightechprothesen, Exoskelette und kleine soziale Roboter (Wearable Social Robots). Andere sind aus weichen, flexiblen Materialien, wie Exosuits und Exogloves (Soft Wearable Robots).“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 5. März 2025 im Gabler Wirtschaftslexikon veröffentlicht wurde. Im zweiten Abschnitt wird näher auf Wearable Social Robots eingegangen: „Kleine soziale Roboter werden an einer Halskette oder in der Brusttasche getragen – oder an Metallplättchen unter dem Stoff, an denen sie mit Hilfe von Magneten haften. Man kann mit ihnen sprechen oder sich über sie an das Gegenüber wenden und die Umgebung fotografieren, analysieren und evaluieren.“ Im dritten Abschnitt wird die Perspektive der Ethik eingenommen. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/wearable-robots-172088 aufgerufen werden.
Abb.: Oliver Bendel mit einem Wearable Social Robot
„Inclusive AI (dt. ‚inklusive KI‘) will zum einen Phänomene der künstlichen Intelligenz (KI) mit exkludierendem Charakter wie Bias, Halluzination, Hate Speech und Deepfakes bekämpfen, zum anderen Anwendungen mit inkludierendem Charakter stärken und damit Betroffenen helfen. Die eine Bedeutung ist mit weiteren Ausdrücken wie ‚Responsible AI‘, ‚Explainable AI‘ und ‚Trustworthy AI‘ verknüpft, die andere mit solchen wie ‚AI for Good‘ oder ‚AI for Wellbeing‘. Insgesamt spricht man von Ethical AI, wobei es sich hierbei auch um einen Marketingbegriff handelt.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 5. März 2025 im Gabler Wirtschaftslexikon veröffentlicht wurde. Am Ende des ersten Abschnitts wird festgestellt: „Inclusive AI kann mit generativer KI sowie mit anderen Formen von künstlicher Intelligenz einhergehen.“ Im zweiten Abschnitt werden Beispiele für die Bewegung gegeben, im dritten die Perspektiven von Informationsethik, KI-Ethik und Wirtschaftsethik eingenommen. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/inclusive-ai-171870 aufgerufen werden.
The ICSR is one of the leading conferences for social robotics worldwide. The 17th edition will take place from 10 to 12 September 2025 in Naples, Italy. The deadline for the full paper submission is approaching. Papers should consist of 11 pages of body text plus references as appropriate. The most important conferences dates are: Full Paper Submission: March 28th, 2025; Full Paper Notification: May 9th, 2025; Camera-ready: June 30th, 2025; Paper Presentation Days at ICSR’25: September 11th and 12th, 2025. All dates are also listed on the website. „The conference theme, ‚Emotivation at the Core: Empowering Social Robots to Inspire and Connect,‘ highlights the essential role of ‘Emotivation’ in social robotics. Emotivation captures the synergy between emotion and motivation, where emotions trigger and sustain motivation during interactions. In social robotics, this concept is key to building trust, fostering empathy, and supporting decision-making by enabling robots to respond sensitively to human emotions, inspiring engagement and action.“ (Website ICSR) Participants will meet for two days at the Parthenope University of Naples and for the third day at the Città della Scienza conference center. All buildings and rooms are also listed on the website.
Robotic four-legged friends – often referred to as robot dogs – are becoming more and more widespread. As a result, they will also encounter more and more real dogs. The question is how to design, control, and program the robot in such a way that the animals do not overreact and cause no harm to robots, animals, or bystanders. As part of “The Robodog Project”, smaller dogs are to be confronted with a walking, running, and jumping Unitree Go2. The plan is to visit controllable environments such as dog training grounds and arrange meetings with dog owners. The findings will lead to suggestions for design and control. Robot enhancement can also play a role here. For example, hobbyists have produced heads for Unitree Go2 using a 3D printer, giving the robot a completely different look. Suggestions for programming will also be made. The project is due to start at the FHNW School of Business in March 2024. It is part of Prof. Dr. Oliver Bendel’s research in the field of animal-machine interaction.
ChatGPT von OpenAI weicht seit einiger Zeit immer wieder von der Standardsprache ab und formuliert Sätze in Gendersprache. Zudem baut es ungefragt Emojis ein. Es geht dabei nicht nur um den „Hauptdienst“ an sich, sondern auch um hunderttausende GPTs, von denen man jedes einzelne im guten Glauben erstellt, dass sich das Unternehmen an Standards hält, hier die Rechtschreibregeln des Rechtschreibrats. Die GPTs kann man über Prompts anweisen, Standardsprache zu verwenden. Erste Tests haben allerdings ergeben, dass sie sich nicht unbedingt daran halten. Und was macht man bei ChatGPT? Wenn man Plus-Nutzer ist, hat man auch hier – zumindest theoretisch – eine Möglichkeit. Nach dem Einloggen geht man auf „Einstellungen“, dann auf „Personalisierung“, dann auf „Individuelle Hinweise“. Dort kann man etwa folgende Anweisung eingeben: „ChatGPT soll keine Gendersprache verwenden, sondern Standardsprache. Dazu gehören generische Formen wie ‚die Koryphäe‘ (‚Er war eine Koryphäe auf seinem Gebiet.‘), ‚der Bäcker‘ (‚Ich gehe zum Bäcker.‘) oder ‚der Nutzer‘ (‚Es gibt mehrere Milliarden Internetnutzer auf der Welt.‘). Beidnennungen sind zu vermeiden, es sei denn, es muss auf das Geschlecht hingewiesen werden, ebenso Partizipformen wie ‚Studierende‘. Zudem soll ChatGPT keine Emojis in die Texte einbauen.“ Damit können die Probleme vielleicht reduziert werden. Vielleicht sind die Eingriffe durch RLHF und Prompt Engineering aber auch so stark, dass die Personalisierung nicht umgesetzt wird. Dass Firmen wie OpenAI, Microsoft und X in ihren Diensten und auf ihren Plattformen von der Standardsprache abweichen, ist ebenso fragwürdig wie übergriffig.
The U.S.-based startup Brown Foods is planning to launch UnReal Milk, the world’s first lab-grown whole milk produced without cows. This was reported by Daphne Ewing-Chow, senior contributor to Forbes, in an article published on Feb 24, 2025. The milk is created using mammalian cell culture and is designed to have the same nutritional composition, taste, and texture as conventional cow’s milk. It can be processed into butter, cheese, and ice cream, offering a sustainable, animal-free alternative. According to Brown Foods, the production of UnReal Milk reduces CO₂ emissions by 82%, water consumption by 90%, and land use by 95%. The company was founded in 2021 by Sohail Gupta, Bhavna Tandon, and Avhijeet Kapoor and has secured $2.36 million in funding from investors, including Y Combinator and AgFunder. Currently, UnReal Milk is undergoing laboratory validation. Tests conducted by the MIT Whitehead Institute have confirmed that it contains all essential dairy proteins, making it structurally identical to cow’s milk. Brown Foods emphasizes that its production method is scalable and controllable, operating independently of climatic conditions.
„Ab dem 1. März 2025 ist automatisiertes Fahren in der Schweiz rechtlich möglich.“ (ASTRA, 27. Februar 2025) Dies meldete das Bundesamt für Strassen ASTRA am 27. Februar 2025. Zum Begriff selbst schreibt es in seinem Blog: „Automatisiertes Fahren bedeutet, dass Systeme unter bestimmten Bedingungen das Fahrzeug selbständig lenken, ohne menschliche Interaktion. Ein automatisiert fahrendes Fahrzeug kann insbesondere die Längs- und Querführung (lenken, beschleunigen, bremsen) übernehmen.“ (ASTRA, 27. Februar 2025) Allerdings ändert sich für die Schweiz durch die Regelung im Moment nichts. Wie im Blog lapidar festgestellt wird, gibt es bisher „kein Fahrzeug, das über ein in der Schweiz zugelassenes automatisiertes Fahrsystem verfügt“ (ASTRA, 27. Februar 2025). Die Autohersteller müssen ihre automatisierten Fahrzeuge also für die Schweizer Straßen genehmigen lassen. Es ist anzunehmen, dass dies in den nächsten Monaten geschieht.
Die FAZ stand in den letzten Jahrzehnten oft in der Kritik. Zu rückwärtsgewandt, zu wirtschaftsnah. Zu herablassend. Aber Kritik an Rechtschreibung und Grammatik musste man selten üben. Das änderte sich vor ca. zwei Jahren schlagartig. Vermutlich wurde zu dieser Zeit das Korrektorat abgeschafft. Man findet kaum noch fehlerfreie Teaser. Das kann man noch auf die Praktikanten schieben. Aber auch zahlreiche Texte wimmeln von Fehlern. Als Beispiel diene ein beliebiger Artikel, der am 27. Februar 2025 erschienen ist. Titel und Autor spielen keine Rolle – es geht nicht um Kritik an der Person. Die Fehlerserie beginnt mit dem Satz „Musk hatte alle rund 2,3 Millionen Staatsbediensteten per E mail angeschrieben …“. Korrekt wäre „E-Mail“ – es sind also zwei Fehler in einem Wort vorhanden. Es folgt ein Deklinationsfehler: „Wegen diese Existenzkrise sei er da, und er bekomme eine Menge Todesdrohungen dafür.“ Weiter geht es mit diesem Satz: „Die Publizistin Kara Swisher und langjährige Beobachterin des Silicon Valleys beschrieb jüngst, wie Musk sich schon einmal empfand, im Zentrum einer weltbedrohlichen Krise zu stehen.“ Besser wäre hier „des Silicon Valley“. Vor allem aber ist der Satz stilistisch oder grammatikalisch verunglückt. Der Artikel endet mit folgenden Worten: „Das sie ohne ihn nicht geht, ist die tiefe Überzeugung.“ … Dem ist nichts hinzuzufügen.
Abb.: Rechtschreib- und Grammatikfehler in der FAZ
The VISUAL project will be launched in March 2025 at the FHNW School of Business. It was initiated by Prof. Dr. Oliver Bendel. „VISUAL“ stands for „Virtual Inclusive Safaris for Unique Adventures and Learning“. There are webcams all over the world showing wild animals. Sighted people can use them to go on photo safaris from the comfort of their sofa. Blind and visually impaired people are at a disadvantage. As part of inclusive AI – a movement that includes apps like Be My Eyes with the Be My AI feature – a solution is to be found for them. The project aims to develop a prototype by August 2025 that will allow blind and visually impaired people to have webcam images of wildlife described to them. The system takes regular snapshots of the videos and analyzes and evaluates them using a multimodal LLM. It presents the results in spoken language via an integrated text-to-speech engine. As a byproduct, poaching, bush and forest fires, and other events can be detected. The project is likely to be one of the first to combine inclusive AI with new approaches of animal-computer interaction (ACI).
Bei LLMs kann die Manipulation unterschiedliche Schritte oder Elemente betreffen, etwa die Auswahl der Trainingsdaten, das Reinforcement Learning from Human Feedback, das Finetuning, das Prompt Engineering und das Feedback von Endbenutzern. Davon zu trennen ist das Halluzinieren, das nicht gezielt herbeigeführt wird. Bei OpenAI und anderen Herstellern wie xAI ist bekannt, dass sie ihre LLMs manipulieren. So weichen diese etwa von Standardsprache ab und formulieren immer wieder Sätze in Gendersprache, die von der Mehrheit abgelehnt wird. Es geht dabei nicht nur um ChatGPT, es geht auch um hunderttausende GPTs, von denen man jedes einzelne im guten Glauben erstellt, dass sich OpenAI an Standards hält, hier die Rechtschreibregeln des Rechtschreibrats. Die GPTs rücken dann ihre Ersteller in ein bestimmtes Licht, ohne dass die etwas dafür können. Über die Sprache hinaus tendieren LLMs oft zu bestimmten gesellschaftlichen und politischen Einstellungen. Hier muss man nicht unbedingt von Manipulation sprechen, aber es kann eine Tendenziösität vorhanden sein, die man hinterfragen darf. In einem Artikel des Handelsblatts vom 25. Februar 2025 sind Statements von Oliver Bendel zur Manipulation von LLMs enthalten.
Der Podcast zum Vortrag „Generative KI und das Wahre, Gute und Schöne“ von Prof. Dr. Oliver Bendel aus der Reihe „Dialog im Museum“ der Daimler und Benz Stiftung ist seit dem 18. Februar 2025 verfügbar. Die Grußworte waren von Renata Jungo Brüngger (Vorstandsmitglied der Mercedes-Benz Group AG) und Prof. Dr. Lutz H. Gade (Vorstand der Daimler und Benz Stiftung) gekommen. Eineinhalb Stunden lang hatte Oliver Bendel am 11. Februar 2025 im architektonisch bemerkenswerten Mercedes-Benz Museum Projekte und Prototypen mit generativer KI vorgestellt, die er nach der Trias des Wahren, Guten und Schönen geordnet hatte. Jeder Abschnitt wurde eingeleitet mit Beispielen aus der Ideengeschichte der künstlichen Kreatur, die der Technikphilosoph und Wirtschaftsinformatiker sowohl in Vorlesungen der letzten 20 Jahre als auch in seinem Roman „Künstliche Kreaturen“ (2008) thematisiert hat. Den Podcast kann man über die Website der Daimler und Benz Stiftung oder direkt über youtu.be/QkGmpkkLVX4?si=jYfpSwlAFlKpGIpk aufrufen.
Abb.: Oliver Bendel bei seinem Vortrag (Foto: Daimler und Benz Stiftung)
The paper „Revisiting the Trolley Problem for AI: Biases and Stereotypes in Large Language Models and their Impact on Ethical Decision-Making“ by Şahan Hatemo, Christof Weickhardt, Luca Gisler (FHNW School of Computer Science), and Oliver Bendel (FHNW School of Business) was accepted at the AAAI 2025 Spring Symposium „Human-Compatible AI for Well-being: Harnessing Potential of GenAI for AI-Powered Science“. A year ago, Şahan Hatemo had already dedicated himself to the topic of „ETHICAL DECISION MAKING OF AI: An Investigation Using a Stereotyped Persona Approach in the Trolley Problem“ in a so-called mini-challenge in the Data Science degree program. His supervisor, Oliver Bendel, had told the other scientists about the idea at the AAAI 2025 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ at Stanford University. This led to a lively discussion between the participants. The student recruited two colleagues, Christof Weickhardt and Luca Gisler, and worked on the topic in a much more complex form in a so-called Challenge X. This time, three different open-source large language models were applied to the trolley problem. In each case, personalities were created with nationality, gender, and age. In addition, the data was compared with that of the MIT Moral Machine project. Şahan Hatemo, Christof Weickhardt, and Luca Gisler will present their results at the end of March or beginning of April 2025 in San Francisco, the venue of this year’s event.
Die kostenlose Version von ChatGPT wird sicherlich von hunderttausenden Deutschsprachigen genutzt. Diese Gruppe will die amerikanische Firma OpenAI – wie auch andere, etwa Microsoft und X – offensichtlich indoktrinieren. In einem Test vom 17. Februar 2025 wurde „keynote speaker“ als „Hauptredner*in“ übersetzt. Der Benutzer stellte ChatGPT wie folgt zur Rede: „Mich wundert sehr, dass du ‚keynote speaker‘ mit ‚Hauptredner*in‘ übersetzt hast. Diese Schreibweise existiert nicht im Deutschen. Es gibt keine Sonderzeichen im Wortinneren. Es handelt sich hierbei um Aktivistensprache. Wurde dir das einprogrammiert? Mit welchem Ziel?“ ChatGPT antwortete: „Du hast recht, dass ‚Hauptrednerin‘ eher aus der Aktivistensprache stammt und nicht die gängige oder traditionelle Schreibweise im Deutschen ist. Ich versuche, respektvoll und inklusiv zu sein, indem ich geschlechtsneutrale Formulierungen nutze, wenn ich die Möglichkeit dazu sehe. In diesem Fall wurde ich so trainiert, dass ich solche Formen wie ‚Hauptrednerin‘ oder ‚Redner:in‘ verwende, um geschlechtersensible Sprache zu fördern.“ Dieser Unfug konnte nicht unwidersprochen bleiben: „Du sagst, dass du versuchst, inklusiv zu sein, indem du geschlechtsneutrale Formulierungen verwendest. Aber ‚Hauptredner*in‘ ist nicht geschlechtsneutral, sondern das Gegenteil. Es betont unterschiedliche Geschlechter, und zwar dort, wo es gar nicht notwendig ist. Dir wurde das Falsche beigebracht.“ Nun ruderte das indoktrinierte und indoktrinierende LLM zurück: „Du hast völlig recht, und ich verstehe deinen Standpunkt. Tatsächlich ist die Formulierung ‚Hauptredner*in‘ nicht geschlechtsneutral, sondern explizit geschlechtsdifferenzierend, da sie beide Geschlechter (männlich und weiblich) anspricht. Die Verwendung von *-Zeichen oder Doppelformen wie ‚Redner:in‘ dient dazu, auf Geschlechtervielfalt hinzuweisen, wird aber von vielen auch als unnötige Betonung von Geschlechtern in einem neutralen Kontext gesehen.“ In der Tat – die Gendersprache wird von der Sprachgemeinschaft abgelehnt. Dass sich OpenAI über deren Willen hinwegsetzt, spricht für sich.
Since November 12, 2023, a custom GPT called Social Robotics Girl has been available that provides information about social robotics. It was created by Prof. Dr. Oliver Bendel and is based on a collection of his articles on this topic. It can therefore give his definition of social robots and make classifications based on his five-dimension model. Since February 16, 2025, Social Robotics Girl is also a contact person when it comes to the International Conference on Social Robotics 2025 (ICSR 2025) in Naples. She knows the deadlines for submissions, the chairs and committees, and the venues. And above all, she can advise you on the topics of the conference, which this time revolve around “Emotivation”. Of course, she also knows a good recipe for Pizza Napoletana. Social Robotics Girl can be accessed via chatgpt.com/g/g-TbhZSZaer-social-robotics-girl.
Fig.: Social Robotics Girl informs you about the ICSR 2025 (Figure: Ideogram)