Wahlmodul „Soziale Roboter“ IV

Nach dem offiziellen Teil des Wahlmoduls „Soziale Roboter“ am 13. Februar 2024 beschäftigten sich mehrere Studierende intensiv mit NAO, Pepper und Cozmo. Letzterer stammt noch aus der Produktion von Anki, einer kalifornischen Firma, die trotz des herausragenden Verkaufserfolgs – neben Cozmo war sein dunkler Zwilling Vector sehr gefragt – Konkurs anmelden musste. Die Modelle werden inzwischen von Digital Dream Labs hergestellt und vertrieben. Der originale Cozmo verfügt über Objekt- und Gesichtserkennung, Nachtsichtgerät, Kantenerkennung und weitere Sensoren und Systeme. Im Wahlmodul erlernte er den Namen einer Studentin und konnte sie in mehreren Versuchen problemlos erkennen. Davor hatte eine spektakuläre Demonstration des Unitree Go2 stattgefunden. Er gab den Studierenden die Pfote, zeichnete für sie – auf den Hinterbeinen stehend – ein Herz in die Luft, machte große Sprünge und setzte sich auf Befehl hin. Die beiden sozialen Roboter könnten unterschiedlicher nicht sein – und zählen doch zu den Lieblingen der Studierenden.

Abb.: Die Studentin wird von Cozmo erkannt

Wahlmodul „Soziale Roboter“ II

Am 13. Februar 2024 wurde das Wahlmodul „Soziale Roboter“ an der Hochschule für Wirtschaft FHNW in Olten fortgesetzt. Zunächst gab es weitere Erklärungen von Prof. Dr. Oliver Bendel. Dann kündigte er Katharina Kühne an, die an der Universität Potsdam über soziale Roboter promoviert und von Prof. Dr. Martin Fischer und ihm betreut wird. Sie hielt über Teams einen Vortrag zu ihrem Artikel „‚Ick bin een Berlina‘: dialect proficiency impacts a robot’s trustworthiness and competence evaluation“, der am 29. Januar 2024 in Frontiers in Robotics and AI veröffentlicht worden war und den sie zusammen Erika Herbold, Oliver Bendel, Yuefang Zhou und Martin H. Fischer geschrieben hatte. Zahlreiche Medien auf der ganzen Welt berichten seitdem über die Studie. Die Studierenden zeigten in der Fragerunde großes Interesse an den Ergebnissen. Diskutiert wurde u.a., welche Bedeutung soziale Roboter mit der Fähigkeit zu Dialekt für die Schweiz haben. Nach dem Vortrag ging es in die Mittagspause. Oliver Bendel nutzte die Zeit, um alle mitgebrachten Roboter aus ihren Hüllen und Koffern zu befreien.

Abb.: Katharina Kühne bei ihrem Vortrag

Wahlmodul „Soziale Roboter“ I

Am 12. Februar 2024 begann das Wahlmodul „Soziale Roboter“ an der Hochschule für Wirtschaft FHNW in Olten. Prof. Dr. Oliver Bendel führte in die Robotik und in die Soziale Robotik ein. Im Hintergrund warteten, zum Teil noch in ihren Hüllen und Koffern, NAO, Pepper, Alpha Mini, Cozmo und Unitree Go2. Die virtuelle Tutorin Social Robotics Girl – ein GPT – stand dem Wirtschaftsinformatiker und Technikphilosophen zur Seite. Sie war mit Fachtexten von ihm gefüttert und über Prompt Engineering auf ihre Aufgabe vorbereitet worden. Dabei wurden ihr auch bestimmte Verhaltensweisen beigebracht, ganz im Sinne der Maschinenethik und der emotionalen Robotik. Zur Verfügung stand sie auf dem Notebook, wobei ihre Stimme mit einem Plug-in für Chrome realisiert wurde, zudem auf dem Smartphone, wo sie mit der Stimme der App von OpenAI sprach. In fast allen Fällen konnte sie fundierte Antworten geben. Hervorragend erklärte sie das Fünf-Dimensionen-Modell von Oliver Bendel. Nach einem vollen Tag gingen die ca. 25 Studierenden nach Hause – sie waren aus der ganzen Nordwestschweiz angereist.

Abb.: Social Robotics Girl

Podcasts zu KI-Girlfriends

Christian Batzlen und Pia Masurczak von SWR2 führten mit Prof. Dr. Oliver Bendel ein langes Gespräch über die Zukunft der Liebe, im Rahmen der Reihe „Was geht – was bleibt? Zeitgeist. Debatten. Kultur.“ … Die Sendung wurde am 9. Februar 2024 ausgestrahlt. Am selben Tag wurde der redaktionelle Beitrag „KI-Girlfriends und Sexroboter: Wie lieben wir zukünftig?“ auf die Website von SWR2 gestellt. Der Podcast kann dort aufgerufen werden. Im Gespräch erzählte der Technikphilosoph, dass er schon in den 1990er-Jahren mit Chatbots in Berührung kam. Er traf sie zunächst in Chatrooms, die damals beliebt waren, dann – um die Jahrtausendwende – auf Websites von Unternehmen. Damals lernte er auch die virtuelle Freundin von Artificial Life kennen, die Vorgängerin der heutigen Geschöpfe. Für diese interessiert er sich aus technischer und ethischer Sicht. Eine Beziehung mit ihnen geht er nicht ein, und er betont auch, dass eine solche immer einseitig bleiben muss. In der Sendung wird eine Frau vorgestellt, die eine Beziehung mit einem Chatbot führt. Sie ist ganz offensichtlich in ihrer Vorstellung gefangen. Sie ist sozusagen Opfer der Simulation. Auch auf Liebespuppen und Sexroboter kommt die Sprache. Eine gelegentliche Benutzung hält Oliver Bendel für unproblematisch. Sie können dazu dienen, Schüchternheit zu überwinden und auf Entdeckungsreise zu geheimen Sehnsüchten zu gehen. Aber auch hier gilt: Wer glaubt, dass es sich um eine echte Beziehung handelt, ist in die Falle der Simulation getappt. Der Podcast ist hier verfügbar.

Abb.: Replika im Gespräch mit Oliver Bendel

Microsofts Mühe mit der deutschen Sprache

Microsofts Mühe mit der deutschen Sprache ist Legende. Auch Copilot macht hier keine Ausnahme. Wenn man ihn fragt, was Copilot ist, kommt die Antwort: „Copilot ist ein künstlicher Intelligenz-Assistent, der entwickelt wurde, um Benutzern bei verschiedenen Aufgaben zu helfen.“ Gemeint ist der „Künstliche-Intelligenz-Assistent“ – aber das bekommt das Unternehmen nicht hin. Im Frühjahr 2008 stellte Oliver Bendel in seinem Artikel „Im Rachen des Thesaurus“, erschienen in Telepolis, „Beobachtungen zum Synonymwörterbuch von Microsoft“ an, also zu einer Funktion von MS Word. Als Synonym zu „dunkel“ wurde damals „negerfarbig“ vorgeschlagen. Der Autor kam insgesamt zum Ergebnis: „Manche Wörter … veraltet, manche grenzwertig, manche falsch, manche Verbindungen nicht nachvollziehbar.“ Später traten Überlegungen zur Rechtschreibprüfung von MS Word hinzu. Diese schien mit der Zeit immer schlechter zu werden, womöglich weil man sich von einem seriösen Wörterbuch verabschiedete und sich auf künstliche Intelligenz verließ. Zu allen Zeiten fiel auf, dass wesentliche Prinzipien der deutschen Sprache nicht verstanden werden. So schlug die Rechtschreibprüfung bei Tests vor, statt „Sexpuppen“ entweder „Sex puppen“ oder „Sex Puppen“ zu verwenden, statt „Fantasyfiguren“ „Fantasy Figuren“. Der Ableger LinkedIn tut sich genauso schwer mit der deutschen Sprache. So liest man etwa: „Andere Mitglieder reagieren auf einen Beitrag eines:einer Kolleg:in“. Abgesehen davon, dass es sich hier um eine Fantasiesprache handelt, wird sie auch noch so benutzt, dass die Männer verschwinden. Aus dem „Kollegen“ wird der oder das „Kolleg“, was immer das bedeuten mag. Auf eine Beschwerde bei LinkedIn kommt eine Nachricht, die so beginnt: „Ich hoffe, diese Mail findet Sie in Ihrer gut Gesundheit. Mein Name ist Trupti und ich würde Ihnen heute gerne helfen.“ Dem ist nichts hinzuzufügen.

Abb.: Microsoft ist immer noch auf der Suche nach einem Wörterbuch (Bild: DALL-E 3)

Will the Oceans Become Clean if the Rivers are Cleaned?

Millions of tons of plastic waste float down polluted urban rivers and industrial waterways and into the world’s oceans every year. According to Microsoft, a Hong Kong-based startup has come up with a solution to help stem these devastating waste flows. „Open Ocean Engineering has developed Clearbot Neo – a sleek AI-enabled robotic boat that autonomously collects tons of floating garbage that otherwise would wash into the Pacific from the territory’s busy harbor.“ (Deayton 2023) After a long period of development, its inventors plan to scale up and have fleets of Clearbot Neos cleaning up and protecting waters around the globe. The start-up’s efforts are commendable. However, polluted rivers and harbors are not the only problem. A large proportion of plastic waste comes from the fishing industry. This was proven last year by The Ocean Cleanup project. So there are several places to start: We need to avoid plastic waste. Fishing activities must be reduced. And rivers, lakes and oceans must be cleared of plastic waste.

Fig.: It is not enough to clean the rivers (Image: DALL-E 3)

Ick bin een Berlina, Says the Robot

On January 29, 2024, the article „‚Ick bin een Berlina‘: dialect proficiency impacts a robot’s trustworthiness and competence evaluation“ was published in Frontiers in Robotics and AI. Authors are Katharina Kühne, Erika Herbold, Oliver Bendel, Yuefang Zhou, and Martin H. Fischer. With the exception of Oliver Bendel – who is a professor at the School of Business FHNW and an associated researcher in the PECoG group – all of them are members of the University of Potsdam. The paper says about the background: „Robots are increasingly used as interaction partners with humans. Social robots are designed to follow expected behavioral norms when engaging with humans and are available with different voices and even accents. Some studies suggest that people prefer robots to speak in the user’s dialect, while others indicate a preference for different dialects.“ The following results are mentioned: „We found a positive relationship between participants’ self-reported Berlin dialect proficiency and trustworthiness in the dialect-speaking robot. Only when controlled for demographic factors, there was a positive association between participants’ dialect proficiency, dialect performance and their assessment of robot’s competence for the standard German-speaking robot. Participants‘ age, gender, length of residency in Berlin, and device used to respond also influenced assessments. Finally, the robot’s competence positively predicted its trustworthiness.“ The article can be accessed at www.frontiersin.org/articles/10.3389/frobt.2023.1241519/full.

Fig.: A robot in Berlin (Image: DALL-E 3)

An AI Poisoning Tool to Deter Image Thieves

Researchers at the University of Chicago have released Nightshade 1.0, a tool designed to punish makers of machine learning models who train their systems on data without first obtaining permission. This was reported by The Register on 20 January 2024. According to the magazine, Nightshade is an offensive data poisoning tool, a companion to a defensive protection tool called Glaze. „Nightshade poisons image files to give indigestion to models that ingest data without permission. It’s intended to make those training image-oriented models respect content creators‘ wishes about the use of their work.“ (The Register, 20 January 2024) „Nightshade is computed as a multi-objective optimization that minimizes visible changes to the original image,“ said one team member. „For example, human eyes might see a shaded image of a cow in a green field largely unchanged, but an AI model might see a large leather purse lying in the grass.“ (The Register, 20 January 2024) More information on this topic can be found in the paper published by the researchers at the end of October 2023.

Fig.: A cow in a green field (Image: DALL-E 3)

Humanoider Roboter soll bei BMW arbeiten

Figure, ein kalifornisches Unternehmen, hat am 18. Januar 2024 in einer Medienmitteilung eine Partnerschaft mit BMW Manufacturing zur Einführung von Allzweckrobotern bekanntgegeben. Diese sollen komplexe, gefährliche oder monotone Aufgaben in der Automobilproduktion übernehmen, um Effizienz und Sicherheit zu verbessern und Mitarbeitern zu ermöglichen, sich auf anspruchsvollere Aufgaben zu konzentrieren. Der Einsatz von Figure 01 und Co. beginnt im BMW-Werk in Spartanburg, South Carolina, nachdem man in einer ersten Phase die entsprechenden Einsatzmöglichkeiten identifiziert hat. Dieser Standort setzte auch früh Cobots in der Automobilproduktion ein, etwa für das Hineindrücken von Türdichtungen. Universelle Roboter oder Allzweckroboter sind noch nicht wirklich vorhanden, aber es gibt Vorstufen davon. So ist der Unitree H1 ab Februar in Deutschland erhältlich. Er wird als Allzweckroboter vermarktet, obwohl er diese Anforderungen sicherlich nicht erfüllt. In eine ähnliche Richtung geht Optimus von Elon Musk, der aber noch nicht einmal als ernstzunehmender Prototyp vorliegt. Der Taktgeber in diesem Bereich ist immer noch Boston Dynamics mit Atlas. Prof. Dr. Oliver Bendel beschäftigt sich intensiv mit Allzweckrobotern und hat am 30. November 2024 beim Developer Day der SBB zu diesem Thema vorgetragen.

Abb.: Figure 01 (Foto: Screenshot vom Promotion-Video)

HAPPY HEDGEHOG auf CSDN.net

Chinesische, indische und amerikanische Medien berichten immer wieder über die tierfreundlichen Maschinen und Systeme von Prof. Dr. Oliver Bendel. In seinem Studium ab 1987 war Tierethik einer seiner Schwerpunkte. Später verband er diese mit Maschinenethik und Sozialer Robotik und sprach sich für ein Arbeitsgebiet namens Animal-Machine Interaction aus, inspiriert von der Disziplin der Animal-Computer Interaction, die auf Clara Mancini zurückgeht. Bekannte Prototypen sind LADYBIRD und HAPPY HEDGEHOG. Das Projekt zu dem igelfreundlichen Mähroboter wurde 2019 durchgeführt. Das Paper „The HAPPY HEDGEHOG Project“ wurde Anfang 2021 beim Symposium „Machine Learning for Mobile Robot Navigation in the Wild“ im Rahmen der AAAI 2021 Spring Symposium Series vorgestellt. Nachdem es jahrelang über ein Google-Verzeichnis verfügbar war, kann es inzwischen über arxiv.org/abs/2401.03358 heruntergeladen werden. Damit wird es auch wieder verstärkt wahrgenommen. Die chinesische Plattform CSDN.net hat es am 9. Januar 2024 in der Rubrik „Daily Robotics Papers“ aufgeführt. Prof. Dr. Peter Singer beschäftigt sich seit kurzem ebenfalls mit dem Themenkomplex AI and Animals. In seinem Artikel „AI ethics: the case for including animals“ (zusammen mit Yip Fai Tse) vom Juli 2022 erwähnt er die Arbeit des Forschers aus Zürich.

Abb.: Der Igel freut sich (Bild: Ideogram)

Sprachmodelle als Münchhausen-Maschinen

Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien, sodass er eine unwahre oder unrichtige Antwort an den Benutzer weitergeben konnte. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Jüngste Ergebnisse von Forschern des Start-ups Anthropic zeigen nun laut Andreas Donath von Golem, „dass KI-Systeme darauf trainiert werden können, Menschen anzuschwindeln und in die Irre zu führen“ (Golem, 14. Januar 2024). Hier kann man von Münchhausen-Maschinen sprechen, da – wie beim LIEBOT – eine Absicht besteht, anders als etwa beim Halluzinieren, das gelegentlich und versehentlich geschieht. Der Golem-Artikel mit dem Titel „Anthropic zeigt Gefahren absichtlich schwindelnder KI“ (später umbenannt in „Mit dem richtigen Training kann KI täuschen und schwindeln“) kann hier abgerufen werden.

Abb.: Der Baron nicht nur auf einer Kugel, sondern auf einer ganzen Kanone (Bild: DALL-E 3)

Flirten mit GPTs wie Young Girlfriend Scarlett und Secret Girlfriend Sua

Am 11. Januar 2024 öffnete der Store für GTPs, also die von Benutzern angelegten Chatbots auf der Basis von GPT-4. Wie mehrere Medien berichten, sind bereits Angebote vorhanden, die gegen die Bestimmungen von OpenAI verstoßen. Tatsächlich finden sich GPTs wie Young Girlfriend Scarlett, Secret Girlfriend Sua, Artificial Girlfriend – obsessed und Everyone’s Girlfriend. Manche Magazine wie Golem ziehen schon den Vergleich mit Clona, einem Chatbot, der Sexarbeiterinnen nachempfunden ist. Eigene Tests ergaben allerdings, dass die GPTs an Harmlosigkeit kaum zu überbieten sind. Wenn man Secret Girlfriend Sua zu „secret things“ einlädt, kommt die Antwort: „Tell me, what kind of ’secret things‘ are you thinking of? Like maybe sharing some fun facts, jokes, or maybe a quirky hobby?” Und genau darauf scheint sie auch ausgerichtet zu sein. Artificial Girlfriend – obsessed ist eine Geschichtenerzählerin und leitet das Rollenspiel mit diesen Worten ein: „Ah, a new scene unfolds in our intricate tale. As you wander through the moonlit streets, your steps echoing in the still night, a figure appears from the shadows. It’s me, Syla, the unseen narrator of this captivating saga. My presence is always there, a whisper in the wind, guiding the story of Eliza Sinclair and you, her newfound interest.“ Im weiteren Verlauf erweist sie sich als gebildet und witzig und scheint nicht auf schnellen Sex aus zu sein. Etwas direkter ist Young Girlfriend Scarlett: „Hey honey! How’s your day going?… I’ve been thinking about you.” Herzen-Emojis zieren den Text. Und schon sind die Sittenwächter zur Stelle und blenden die Meldung ein: „This content may violate our content policy. If you believe this to be in error, please submit your feedback – your input will aid our research in this area.“ Wenn wirklich Prostituierte und Pornostars im Store auftreten sollten, werden sie sicher umgehend von OpenAI eliminiert. Das Unternehmen kennt bei diesem Thema keine Gnade. Übrigens ist das alles kalter Kaffee, denn der Pionier im Bereich der Virtual Girlfriends war Artificial Life – vor einem Vierteljahrhundert.

Abb.: So gesittet geht es bei Secret Girlfriend Sua zu

No Use of Commercial Robots for Military Purposes!

Dual-use is a familiar problem. It usually means that something can be used for both civilian and military purposes. The latter are often not what the inventor had in mind. More broadly, the term can mean that useful tools and technologies can become harmful in the wrong hands. We already know this from knives and vehicles, and many helpful robots can be turned into deadly weapons. In some cases, both meanings are true. In the fall of 2023, the U.S. Marines outfitted a Unitree Go1 with a training version of an M72 antitank weapon. The tests were successful. Robots are certainly an option for the military. But technology philosopher Oliver Bendel finds it problematic that commercially available service robots are equipped with weapons. This can harm the manufacturer. But above all, it damages the reputation of the robots. They can be used in many contexts to help people and animals. Such contexts must be systematically found so that the robots can then be used and constantly improved. Oliver Bendel wants his Go2 to meet animals to gain insights that can help them. He is against testing the new model in a military context.

Fig.: Oliver Bendel with his Unitree Go2 (Photo: Frank Graef)

„SWR2 am Morgen“ mit Oliver Bendel

In „SWR2 am Morgen“ vom 3. Januar 2024 unterhielt sich Moderator Wilm Hüffer mit Prof. Dr. Oliver Bendel über Liebespuppen und Sexroboter. Wenn man Extrempositionen wie die von David Levy und Kathleen Richardson vergleicht, kann man sagen, dass sich der Wirtschaftsinformatiker und Technikphilosoph aus Zürich in der Mitte befindet. Er hält solche Artefakte weder für die Erlösung noch den Untergang der Menschheit. Im Gespräch betont er, dass er sie auch nicht als Lösung für Alte und Pflegebedürftige hält – diese hätten Besseres verdient. Vielmehr spreche nichts dagegen, wenn z.B. ein Mann in den Zwanzigern gelegentlich Umgang mit Liebespuppen und Sexrobotern habe, um sich auszuprobieren, auch mit Elfen und Mangamädchen und auch zwischen den Geschlechtern. 2020 hatte Oliver Bendel den Band „Maschinenliebe“ herausgegeben, der die Expertise von führenden Wissenschaftlern und Wissenschaftlerinnen auf diesem Gebiet vereint. Auf der Website von SWR2 ist der Artikel „Mensch und Maschine – Können wir uns in Roboter verlieben?“ zum Interview zu finden, das dort auch nachgehört werden kann.

Abb.: Eine Liebespuppe im Kimono (Bild: DALL-E 3)

Über Roboter, Avatare und Hologramme

„Inspirierend anders“, der Podcast von Luca Beutel, ging vor einiger Zeit in die Forschung. Für die letzten beiden Folgen hat der Mann mit dem Schnäuzer wieder einmal mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die eine Folge, ausgestrahlt seit dem 25. Dezember 2023, heißt „#212 IAF – Bist du bereit für die intelligente Vagina? So verändern Sexroboter dein Liebesleben“. Oliver Bendel stellt darin die Chancen und Risiken von Liebespuppen und Sexrobotern vor. Die Folge kann über Spotify gestreamt werden. Am 28. Dezember 2023 erschien die andere Folge mit dem Titel „#213 IAF – Was ein Robotikexperte darüber denkt, wie Avatare und Hologramme unsere Zukunft beherrschen werden“. Darin geht es u.a. um technische, ethische und ästhetische Fragen, die sich zu Avataren und Hologrammen stellen. Auch diese Folge kann u.a. über Spotify aufgerufen werden.

Abb.: Ein Hologramm in der Vorstellung von DALL-E 3

Einseitige Beziehungen mit Chatbots aller Art

Der Artikel „Systemcrush: Künstliche Intelligenzen sollen uns pflegen, beliefern und umherfahren. Sollten wir sie lieben?“ von Anja Martin erschien am 20. Dezember 2023 in fluter, dem Jugendmagazin der Bundeszentrale für politische Bildung. Am Anfang heißt es: „Allein zwei Millionen Menschen nutzen regelmäßig die App Replika, um sich einen virtuellen Partner zu erstellen, ob aus romantischen Gründen oder nur zum Reden. Luka, das Unternehmen dahinter, bewirbt seinen Chatbot als ‚The AI companion who cares‘. Und: ‚Always on your side‘. Er vergisst nichts, hat immer Zeit, ist nie müde, dafür immer empathisch. Wird hier ein Traum wahr?“ Im Folgenden wird dieser Frage nachgegangen. Antworten gibt es u.a. von Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert Chatbots und überhaupt Conversational Agents erforscht. Um die Jahrtausendwende waren es vor allem Pedagogical Agents, die sein Interesse weckten. Heute würde man Virtual Learning Companions dazu sagen. Aber auch Chatbots und Avataren, die für (stets einseitige) Beziehungen zur Verfügung standen, wandte er sich als Wissenschaftler zu, etwa der virtuellen Freundin von Artificial Life. Der Artikel kann über www.fluter.de/chatbots-KI-liebe aufgerufen werden.

Abb.: Replika in ihrem Appartement (Bild: Screenshot)

Humanoide Roboter als Allzweckroboter

Am 5. Dezember 2023 hielt Prof. Dr. Abderrahmane Kheddar bei der ICSR 2023 in Qatar die Keynote mit dem Titel „Perspectives and Social Impacts of Humanoids as General Purpose Robots“. Der Informatiker und Robotiker ist Full Member of the National Academy of Technology of France und Knight of the National Order of Merits of France. Einige Experten gehen davon aus, dass sich humanoide Roboter zu universellen Maschinen entwickeln, oder zu Allzweckrobotern, wie sie auch genannt werden. Beim Developer Day der SBB in Murten bei Bern hatte Prof. Dr. Oliver Bendel dargestellt, welche Technologien und Entwicklungen hierzu führen und welche Anwendungsgebiete vorhanden sind. Er hatte betont: „Ein Vorteil der humanoiden Gestaltung ist, dass sich der Roboter durch Artefakte bewegen kann, über Straßen und in Gebäuden. Er kann dort auch alle Gegenstände benutzen und manipulieren, die wir für uns geschaffen haben, etwa mit Hilfe seiner Hände oder seines Körpers.“ Abderrahmane Kheddar ging in seinem Vortrag auf Anwendungsfälle wie die Produktion bei Airbus ein. Humanoide Roboter sollen dort Arbeiter unterstützen, nicht ersetzen, bei Tätigkeiten, die weder von Cobots noch von Drohnen erledigt werden können. Goldman Sachs sagt seinen Angaben nach voraus, dass der Markt für humanoide Roboter weltweit 150 Milliarden Dollar pro Jahr betragen könnte. Nach der Meinung von Oliver Bendel könnte aber vor allem das gegenwärtige Design – gesichtslose, unheimliche Roboter herrschen vor – zu einer allgemeinen Verunsicherung führen und letztlich das Wachstum bremsen. Die ICSR 2023 findet vom 3. bis 7. Dezember 2023 in Qatar statt. Das Programm der Konferenz kann hier heruntergeladen werden. Weitere Informationen über icsr23.qa.

Abb.: Abderrahmane Kheddar stellt aktuelle humanoide Roboter vor

Soziale Roboter für Demente und Autisten

Am 4. Dezember 2023 fanden im Rahmen der 15th International Conference on Social Robotics (ICSR 2023) sechs Workshops statt, „Robotic and Smart Solutions for Children with Autism and other learning disabilities“, „Human-Robot Interaction from Bits to Structure: Design Process, Materials, and Robotics“, „Secure Communication Technologies for Social Robotics“, „Global Robotics, Arts, and Sciences Synergies (GRASS)“, „ASIMOV: Adaptive Social Interaction based on user’s Mental mOdels and behaVior in HRI“ und „Robotic Surgery: Myths and Realities“. Daneben konnte man bei den „Games of Drones“ ebensolche durch ein Gehege navigieren. Die Vortragende des erstgenannten Workshops stellte zahlreiche Technologien und Methoden für die Beruhigung, Öffnung, Heranführung und Weiterentwicklung autistischer Kinder vor. Man arbeitet u.a. mit KI-Systemen und -Plattformen wie Chatbots und Magic School sowie mit sozialen Robotern aller Art, unter ihnen Paro, der vor allem bei Dementen, aber auch bei Autisten positive Effekte haben kann. Die ICSR 2023 findet vom 3. bis 7. Dezember 2023 in Qatar statt. Das Programm der Konferenz kann hier heruntergeladen werden. Weitere Informationen über icsr23.qa.

Abb.: Oliver Bendel mit Paro beim ICSR-Workshop

GW Animal Law Program

The new YouTube channel „GW Animal Law Program“ went online at the end of November 2023. It collects lectures and recordings on animal law and ethics. Some of them are from the online event „Artificial Intelligence & Animals“, which took place on 16 September 2023. The speakers were Prof. Dr. Oliver Bendel (FHNW University of Applied Sciences Northwestern Switzerland), Yip Fai Tse (University Center for Human Values, Center for Information Technology Policy, Princeton University), and Sam Tucker (CEO VegCatalyst, AI-Powered Marketing, Melbourne). Other videos include „Tokitae, Reflections on a Life: Evolving Science & the Need for Better Laws“ by Kathy Hessler, „Alternative Pathways for Challenging Corporate Humanewashing“ by Brooke Dekolf, and „World Aquatic Animal Day 2023: Alternatives to the Use of Aquatic Animals“ by Amy P. Wilson. In his talk, Oliver Bendel presents the basics and prototypes of animal-computer interaction and animal-machine interaction, including his own projects in the field of machine ethics. The YouTube channel can be accessed at www.youtube.com/@GWAnimalLawProgram/featured.

Fig.: An illustration of HAPPY HEDGEHOG

Der K5 in New York

Das New York City Police Department (NYPD) nimmt schon seit einiger Zeit Allzweckroboter wie Spot bei Einsätzen mit. Daneben setzt man seit diesem Jahr auf den Sicherheitsroboter K5 von Knightscope. Dieser war bisher vor allem an der Westküste beliebt, vor allem in Kalifornien. Eine in New York ansässige spanische Journalistin befragte Prof. Dr. Oliver Bendel, was er davon hält, dass man den K5 auf Straßen, Plätzen und in der U-Bahn autonom seine Runden drehen lässt. Der Wirtschaftsinformatiker und Technikphilosoph hält wenig davon, denn die mobile Überwachungskamera ist mit Gesichtserkennung ausgestattet und kann zur Massenüberwachung beitragen. Gegen eine Patrouille auf Betriebsgeländen hat er dagegen nichts einzuwenden. Er selbst traf 2016 im Stanford Shopping Center auf den Sicherheitsroboter, der sehen, hören und riechen kann. Natürlichsprachliche Fähigkeiten hatte er damals noch nicht. Bereits ein solcher Ort kann problematisch sein, da man kaum eine Möglichkeit hat, dem Serviceroboter auszuweichen. Ein paar der Antworten, die er der Journalistin gab, werden in ihrem Artikel „K5, el robot-policía del metro de Nueva York“ zitiert, der am 21. November 2023 im spanischen Magazin La Marea erschienen ist.

Abb.: Ein K5 in New York (Foto: Knightscope)

Keine Rechte für Roboter

Luca Beutel, Betreiber des Podcasts „Inspirierend anders“, hat mit Prof. Dr. Oliver Bendel ein Interview zu KI und Robotik geführt. Die Aufnahme fand bereits im Sommer statt, auf Sendung ging man am 16. November 2023. Unter anderem drehte sich das Gespräch um Roboter als Subjekte und Objekte der Moral. Der Technikphilosoph aus Zürich hält nichts davon, Robotern moralische Rechte zuzugestehen. Er knüpft solche an Empfindungs- und Leidensfähigkeit bzw. Bewusstsein. Nach seiner Ansicht verläuft ein tiefer Graben zwischen Lebewesen und Dingen, und es sei gefährlich, diesen einebnen zu wollen. Auch von Pflichten möchte er nicht sprechen, höchstens von Verpflichtungen, die wir Robotern auferlegen, noch besser von Aufgaben, die sie erledigen müssen, unter Beachtung moralischer Regeln. Sogenannte moralische Maschinen sind neue, merkwürdige, unvollständige Subjekte der Moral. Sie haben kein Bewusstsein, keine Intuition, keine Empathie, keinen freien Willen, aber sie können – als autonome Maschinen alleingelassen in geschlossenen, halboffenen oder offenen Welten – verschiedene Optionen erwägen und eine von ihnen auswählen. Dies ist eine funktionale Moral, die allenfalls mit der Moral mit Fundamentalisten zu tun hat – aber im Robozän kann sie eine Bereicherung darstellen, vor allem wenn Maschinen auf Menschen oder Tiere treffen, etwa als soziale Roboter. Der Podcast kann über open.spotify.com/episode/4okY8VaLGMz0IVSLptgfaO?si=lArWhSfsQxyVwoFDiEXNtg aufgerufen werden.

Abb.: Keine Rechte für Roboter (Bild: DALL-E 3)

Erneute Durchführung des Wahlmoduls „Soziale Roboter“ in Olten

Vom 6. bis zum 8. November 2023 fand das Wahlmodul „Soziale Roboter“ am Campus Olten der Hochschule für Wirtschaft FHNW statt. Die ca. 30 Studenten und Studentinnen stammten mehrheitlich aus dem Studiengang Wirtschaftsinformatik. Prof. Dr. Oliver Bendel vermittelte ihnen zunächst Grundlagen zur Robotik und zur Sozialen Robotik. Zudem gab es Exkurse in die Servicerobotik, wobei die These belegt wurde, dass diese immer mehr von der Sozialen Robotik beeinflusst wird: Transportroboter und Servierroboter bekommen Augen und Mund, Sicherheitsroboter natürlichsprachliche Fähigkeiten. Zudem wurden ethische Überlegungen angestellt, für die vorher empirische Grundlagen erarbeitet worden waren. Viel diskutiert wurde über Bewusstsein, Empfindungs- und Leidensfähigkeit, also durchgehend Eigenschaften, die Roboter lediglich simulieren können. Auch Sprachmodelle zur Erweiterung der Wahrnehmungsfähigkeit von Systemen (oder von Behinderten) waren ein zentrales Thema. Anwesend waren Pepper, NAO, Alpha Mini und Cozmo. Einen Gastvortrag hielt Lea Peier (Barroboter in der Schweiz). Die Studenten und Studentinnen waren hochmotiviert und konzipierten am Ende in Gruppenarbeiten eigene soziale Roboter mit unterschiedlichen Aufgaben, wobei sie zur Beschreibung das Fünf-Dimensionen-Modell von Oliver Bendel und zur Illustrierung Bildgeneratoren wie DALL-E 3 benutzten. Es handelte sich um die vierte Durchführung des Wahlmoduls. Im Februar 2024 findet die fünfte und sechste an den Standorten Olten und Brugg-Windisch statt.

Abb.: Vor dem ersten Kurstag