Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 12. Mai 2024 wurde – nach Irish Girl und Maori Girl – eine erste Version von Adelina erstellt. Der Name soll an die Lehrerin Adelina Méndez de la Torre erinnern, die sich für einen bilingualen Unterricht und den Erhalt der baskischen Sprache eingesetzt hat. Der Chatbot scheint diese dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Adelina ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.
Abb.: Adelina schreibt und spricht Baskisch (Bild: Ideogram)
Um ihre Züge frei von Graffitis zu halten und Vandalismus vorzubeugen, testete die Deutsche Bahn einen Monat lang in München den vierbeinigen Roboter Spot von Boston Dynamics. Dieser hat laut BR24 „keinen Sprayer erwischt, der sich auf einem Waggon verewigen wollte“. „Es könnte also sein, dass Spot Sprayer abschreckte, neue Graffitis seien nicht entdeckt worden.“ (Heise, 9. Mai 2024) Belege gibt es dafür allerdings nicht. Spot sollte, so die damalige Pressemitteilung vom 15. März 2024, eigenständig über Abstellanlagen patrouillieren und KI-gestützt unbefugte Personen oder andere Unregelmäßigkeiten erkennen. Er kann grundsätzlich schwieriges Gelände bewältigen, und das rund um die Uhr: „Selbst Stufen, Schienen oder Schotter sind für ihn kein Problem. Mit Hilfe seiner Sensoren und Kameras kann er Kollisionen mit Menschen oder Gegenständen vermeiden und behält auch nachts jederzeit den Überblick.“ (Pressemitteilung DB, 15. März 2024) Was die Autonomie anbetreffe, „gebe es Besserungsbedarf“, und „noch vor der Detailauswertung stehe bereits fest, dass die Bahn Spot zum jetzigen Stand nicht dauerhaft Züge überwachen lassen will“ (Heise, 9. Mai 2024). Das ist aber nicht das endgültige Ende von Spot an den Gleisen. Die Bahn will ihn „noch einmal testen, um weitere Erkenntnisse zu sammeln“ (Heise, 9. Mai 2024).
Abb.: Spot an den Gleisen (Foto: Deutsche Bahn AG/Thomas Kiewning)
In ihrer Strategie 2035 hat die FHNW drei Zukunftsfelder definiert, nämlich New Work, Future Health und Zero Emission. Prof. Dr. Oliver Bendel hielt am 6. Mai 2024 in Olten vor dem Fachhochschulrat einen Vortrag zum Thema „Robotik und New Work“. „Der Fachhochschulrat trägt die strategische Führungsverantwortung und übt die Aufsicht über die FHNW aus. Er regelt die Organisation der FHNW und überwacht die Qualität der Leistungen der FHNW.“ (Website FHNW) Prof. Dr. Oliver Bendel erklärte zunächst das Konzept von New Work und ging dann auf neue Entwicklungen in Robotik und Künstlicher Intelligenz ein. Am Ende formulierte er Fragen, die sich mit Blick auf New Work stellen. Kern des Vortrags war die Vorstellung von Vierbeinern wie Spot und Unitree Go2 sowie Zweibeinern wie Unitree H1, Figure 01 und Atlas in seiner elektrischen Version. Vorgestellt wurden die Merkmale und Einsatzbereiche. Die genannten Zweibeiner können als Vorstufen zu universalen Robotern oder Allzweckrobotern gelten. Sie werden von den Firmen als „general-purpose robots“ oder „all-purpose robots“ vermarktet, ohne schon für alle Zwecke geeignet zu sein. Der Vortrag stieß auf reges Interesse und mündete in eine angeregte Diskussion.
Abb.: Der Vortrag fand am Campus Olten statt (Foto: Pati Grabowicz)
Fast die Hälfte der Österreicher sind sexuell nicht erfüllt, sagt eine Doku auf Puls4. „Vor allem junge Erwachsene haben trotz Dating-Plattformen und dem offenen Umgang mit Sexualität immer weniger Sex. Performancedruck durch steigenden Pornografie-Konsum und der schnelllebige Alltag führen immer mehr zu Problemen mit der Sexualität. Der technologische Fortschritt überschwemmt den Sex-Sektor zudem mit neuen Entwicklungen. Doch was braucht man wirklich für ein sexuell erfülltes Leben?“ (Teaser Doku) Zu Wort kommt u.a. Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert zu sozialen Robotern, Chatbots und Sprachassistenten forscht. Seit zehn Jahren sind darunter auch Liebespuppen, Sexroboter sowie Girlfriends und Boyfriends in der Form von Avataren und Hologrammen. Die Doku mit dem Titel „Sexloses Österreich“ wurde am 25. April 2024 zum ersten Mal ausgestrahlt und kann über www.joyn.at/filme/sexloses-oesterreich aufgerufen werden.
„AI Unplugged – Offener Austausch mit KI-Fachpersonen: Fachleute von Google, IKEA, der SRG, Microsoft und Dozierende der FHNW geben Einblicke in ihre Arbeit mit KI und beantworten Fragen zur Zukunft.“ (Newsletter FHNW) Dies meldete die FHNW am 30. April 2024 in ihrem Newsletter. Unter den Experten ist Prof. Dr. Oliver Bendel, der den Titel der Reihe beigesteuert hat. Organisiert wird sie von Tania Welter, der KI-Beauftragten der Hochschule. Der Wirtschaftsinformatiker und Technikphilosoph wird wie die anderen fünf Minuten lang über sein Verständnis von KI sprechen. Seine Definition lautet: „Der Begriff ‚Künstliche Intelligenz‘ … steht für einen eigenen wissenschaftlichen Bereich der Informatik, der sich mit dem menschlichen Denk-, Entscheidungs- und Problemlösungsverhalten beschäftigt, um dieses durch computergestützte Verfahren ab- und nachbilden zu können.“ Er spricht dann zehn Minuten lang darüber, was KI für ihn im Alltag und im Beruf bedeutet. Dabei wird er sicherlich auf moralische Maschinen, Apps mit generativer KI für blinde und sehbeeinträchtigte Personen, Chatbots für gefährdete Sprachen und KI-Kunst zu sprechen kommen. Die Veranstaltungen werden von Mai bis September 2024 mehrmals durchgeführt und stehen Mitgliedern der Hochschule offen.
Prof. Dr. Oliver Bendel introduced the term „robot enhancement“ in 2020 and has since used it in several articles and book chapters. Robot enhancement is the extension and associated modification or improvement of the robot by the user or a company, for example in functional, aesthetic, ethical, or economic terms. The word was coined in reference to „human enhancement“ and „animal enhancement“, and can be used to describe both the field of work and the object. One form of robot enhancement is social robot enhancement, in which a social robot is enhanced or modified and improved. An impressive example of robot enhancement is shown in a video by Boston Dynamics. A „naked“ spot and a spot with a dog costume dance together in the hall where Atlas used to be seen again and again. Such robot enhancement should not necessarily be imitated by the user. There are some robots that cannot stand the costume and will heat up – to the point of becoming defective.
Fig.: The disguised Spot and the „naked“ Spot (Photo: YouTube/Boston Dynamics)
Am 26. April 2024 hält Prof. Dr. Oliver Bendel den Gastvortrag „Ethische Implikationen von ChatGPT und Co.“ beim scil-Modul „KI-Grundlagen“ an der Universität St. Gallen. Er stellt – wie schon vor einem Jahr – aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu ChatGPT und DALL-E an. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen. So kann man GPTs als Virtual Learning Companions schnell und einfach erstellen, aber es ergeben sich dabei u.a. Urheberrechtsfragen. Die Sprachmodelle sind indes nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich haben das Sprachmodell PaLM-E sowie ein mit GPT-4 verbundener Figure 01 Aufmerksamkeit erregt. Mehr als beim letzten Vortrag geht Oliver Bendel im Zusammenhang mit Bildgeneratoren neben ethischen Fragen auf ästhetische ein, die man wiederum mit ethischen zusammenbringen kann, etwa das Phänomen des „american smile“ oder die Dominanz der Schönheit. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen zu sogenannten Pedagogical Agents geforscht, die man heute in ihrer Mehrheit wiederum als Virtual Learning Companions bezeichnen würde. Weitere Informationen zum scil über www.scil.ch.
Abb.: So stellt sich DALL-E 3 männliche Professoren vor – stets mit Bart
Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel wiederholt virtuelle Tutorinnen in seine Lehrveranstaltungen an der FHNW eingebunden. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung stand Social Robotics Girl für die Wahlmodule zur Sozialen Robotik an der Hochschule für Wirtschaft FHNW, entstanden bereits im November 2023, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ bzw. „Recht und Ethik“ sowie „Ethics and Law“ innerhalb mehrerer Hochschulen und Studiengänge. Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Zum Abschluss des Kurses in Geomatik wurde Digital Ethics Girl gefragt: „Ich sitze hier an einer Hochschule mit 26 begabten, motivierten Studierenden. Sie fiebern einer Gruppenarbeit entgegen. Sie sollen ethische Probleme, Herausforderungen und Fragestellungen zur Disziplin der Geomatik identifizieren und darüber referieren. Es wäre total nett, wenn du ihnen acht Themen vorschlagen würdest. Vor allem soll die Informationsethik als Perspektive eine Rolle spielen. Aber auch Roboterethik und Maschinenethik können dabei sein.“ Die virtuelle Tutorin nannte Themen wie „Datenschutz und geografische Informationssysteme (GIS)“, „Autonome Vermessungsroboter“, „Umweltauswirkungen der Geomatik-Technologien“, „KI-gestützte Analyse geografischer Daten“ und „Implikationen der Augmented Reality in der Geomatik“. Gleich zwei Gruppen widmeten sich der „Ethik der Fernerkundung“. Für die Gruppenarbeiten selbst wurden u.a. ChatGPT, Copilot und D-ID genutzt. Social Robotics Girl wird am 6. Juni 2024 im Future Lab der Learntec vorgestellt.
Abb.: Digital Ethics Girl im Unterricht (Bild: DALL-E 3)
The last few years have seen the creation of a large number of quadruped and bipedal robots. Many have been inspired by Spot and Atlas from Boston Dynamics. These, in turn, can be traced back to Sparko and Elektro, which became famous around 1940. Atlas paved the way for the so-called general-purpose or universal robots that are now conquering the market, from H1 to Figure 01. They are not yet truly universal, but they are getting there. Most robotic quadrupeds don’t have a real head. A few talented hobbyists have produced their own with a 3D printer. This can be referred to as robot enhancement. Most robotic bipeds have a head that looks creepy or repulsive. This will be a key design problem in the coming years. It may be that people will quickly get used to ugly heads. But it would probably help with adoption and acceptance if the heads were nice to look at and had convincing facial expressions. After the huge technological advances that have been made in recent years, with new approaches to motor skills and the integration of speech models, what is needed most is a change in design.
Fig.: Robot heads can be designed very differently (Image: DALL-E 3)
Ethische Leitlinien oder Richtlinien sind seit jeher umstritten. Für die einen sind sie zahnlose Tiger. Schon Albert Einstein hat sich gegenüber Max Born in dieser Richtung geäußert: „Mit einem ethical code haben die Mediziner erstaunlich wenig ausgerichtet, und bei den eigentlichen Wissenschaftlern mit ihrem mechanisierten und spezialisierten Denken dürfte noch weniger eine ethische Wirkung zu erwarten sein.“ (Einstein u. Born, Briefwechsel, 203) Für die anderen sind sie wichtige Instrumente der Regulierung und der Reflexion. Wenn man ethische Leitlinien entwickelt, etwa für einen Berufsstand oder -verband, sollte man dies mit Kompetenz und Sensibilität tun. Man sollte den Hintergrund deutlich machen, die Zielsetzung aufzeigen und Begründungen anführen. Und man sollte eine korrekte, präzise und prägnante Sprache verwenden, letztlich die Sprache der Sprachgemeinschaft, um möglichst verständlich zu sein und möglichst viele anzusprechen. Die „Ethikrichtlinien“ der Schweizer Informatik Gesellschaft – die Schreibweise der Organisation ist nicht zu beanstanden, da es sich um einen Eigennamen handelt – wurden durch die Generalversammlung vom 25. November 2005 verabschiedet. Bis 2017 hat man eine neue Version erarbeitet. Nach intensiven Diskussionen wurde 2019 die endgültige Version unter der Bezeichnung „Ethikrichtlinien“ veröffentlicht. Bei „1. Allgemeine ethische Grundsätze“ heißt es: „Eine Informatikerin soll …“. Unter „1.1.“ folgt „sich der gesellschaftlichen Verantwortung bewusst sein“. Diese movierte Form kann einzig und allein auf weibliche Personen zielen. Damit werden männliche Personen ausgeschlossen, also vermutlich die Mehrzahl der SI-Mitglieder. Bei „2. Berufliche Verantwortung“ heißt es: „Ein Informatiker soll …“. Nachdem oben von einer Informatikerin gesprochen wurde, fragt man sich unweigerlich, ob hier nur männliche Personen gemeint sind. Solche „Ethikrichtlinien“ missachten den allgemeinen Sprachgebrauch, beschädigen die Sprache der Sprachgemeinschaft, grenzen Adressaten und Betroffene aus und lenken von der Sache ab. Sie wurden von Personen verfasst, die die Sprachgemeinschaft verlassen haben und die offenbar mehr an Moralismus als an Moral interessiert sind – und damit ernsthafte Bemühungen um ethische Leitlinien konterkarieren.
Abb.: Nicht Sprache verändern, sondern Wirklichkeit
„In Gaza und in der Ukraine werden ethisch umstrittene ‚High-Tech-Hunde‘ und andere autonome Waffen eingesetzt: Sie töten emotionslos, chirurgisch und ‚kostengünstiger‘. Das ist weder moralisch, noch völkerrechtlich vertretbar.“ (Die Furche, 3. April 2024) Mit diesen Worten beginnt ein Artikel von Adrian Lobe, der am 3. April 2024 in der österreichischen Wochenzeitung Die Furche veröffentlicht wurde. Zu Wort kommt Prof. Dr. Oliver Bendel, der sich wiederholt mit autonomen Waffensystemen beschäftigt hat. Im Jahre 2016 diskutierte er auf einem Panel in Krakau u.a. mit Ronald C. Arkin, der im Auftrag des Pentagon militärische Roboter mit einem künstlichen Gewissen ausgerüstet hat, wobei es bei Prototypen geblieben ist. Beide sind im Bereich der Maschinenethik tätig, haben aber z.T. ganz unterschiedliche Positionen. Oliver Bendel betreibt keine militärische Forschung und lehnt den Einsatz autonomer Kampfroboter ab. Er weist immer wieder darauf hin, dass auch Maschinen, die zu zivilen Zwecken entwickelt wurden, zu militärischen genutzt werden können, so wie es bereits der Fall bei Unitree Go1 und Go2 war, die in diesen Fällen ferngesteuert wurden – ihn stört daran nicht nur der Waffeneinsatz an sich, sondern auch, dass man die Akzeptanz gegenüber hilfreichen und sinnvollen Servicerobotern gefährdet. Der Artikel kann über www.furche.at abgerufen werden.
Ende März 2024 ist der Band „Generative Künstliche Intelligenz: ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft“ erschienen. Herausgeber sind Prof. Dr. Sabine Seufert und Prof. Dr. Siegfried Handschuh von der Universität St. Gallen. Sie informieren wie folgt: „Generative Künstliche Intelligenz beschreibt eine Klasse von KI-Systemen, die in der Lage sind, aus großen Datenmengen zu lernen und auf dieser Grundlage neue, bisher nicht gesehene Inhalte zu generieren, wie beispielsweise Texte, Bilder, Musik oder Videos. Dabei wird die Generierungskapazität der KI mit dem Ziel eingesetzt, kreative Prozesse zu unterstützen, neue Ideen zu generieren und innovative Lösungsansätze zu liefern. Trotz ihrer beeindruckenden Fähigkeiten haben generative KI-Systeme auch ihre Herausforderungen, wie die Kontrolle über den generierten Inhalt, das Verständnis von Kontext und Bedeutung sowie ethische Fragen im Zusammenhang mit der Nutzung von generativer KI. Der Band gibt einen Überblick über generative KI-Systeme und beleuchtet die Auswirkungen auf das Management von Innovationen, Wirtschaft, Bildung und Gesellschaft.“ (Website Verlag) Im Band enthalten ist der Beitrag „Generative KI aus ethischer Sicht“ von Prof. Dr. Oliver Bendel. Weitere Informationen über shop.haufe.de/prod/generative-kuenstliche-intelligenz.
Abb.: Das Buch wird hoffentlich überall auf Interesse stoßen (Bild: DALL-E 3)
On the second day of the AAAI Spring Symposia, one could already get the impression that the traditional conference has returned to its former greatness. The Covid pandemic had damaged it. In 2023, there were still too few participants for some symposia. Many stayed home and watched the sessions online. It was difficult for everyone involved. But the problems had already started in 2019. At that time, the Association for the Advancement of Artificial Intelligence had decided not to publish the proceedings centrally any more, but to leave it to the individual organizers. Some of them were negligent or disinterested and left the scientists alone with their demands. In 2024, the association took over the publication process again, which led to very positive reactions in the community. Last but not least, of course, the boost from generative AI helped. In 2024, you can see many happy and exuberant AI experts at Stanford University, with mild temperatures and lots of sunshine.
On March 26, 2024, Oliver Bendel (School of Business FHNW) gave two talks on generative AI at Stanford University. The setting was the AAAI Spring Symposia, more precisely the symposium „Impact of GenAI on Social and Individual Well-being (AAAI2024-GenAI)“. One presentation was based on the paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel himself. It was about the GPT-4-based feature Be My AI in the Be My Eyes app. The other presentation was based on the paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ by Stefanie Hauske (ZHAW) and Oliver Bendel. The topic was GPTs used for self-regulated learning. Both talks were received with great interest by the audience. All papers of the AAAI Spring Symposia will be published in spring. The proceedings are edited by the Association for the Advancement of Artificial Intelligence itself.
Fig.: Oliver Bendel after his talks (Photo: Milan Kostic)
On March 25, 2024, Takashi Kido opened the symposium „Impact of GenAI on Social and Individual Well-being“. It is part of the AAAI 2024 Spring Symposia at Stanford University. Among other things, he reported on a study on the trolley problem. In it, not only humans but also ChatGPT answered the question of whether to set the switch (version by Philippa Foot) or push the fat man off the bridge (version by Judith Jarvis Thomson). In the discussion that followed, Oliver Bendel reported on an experiment that his Data Science student Sahan Hatemo is conducting as part of a mini-challenge. He developed dozens of personas that should lead to corresponding GPTs. They have different ages, ethnicities, genders, life plans, and so on. Once completed, they are also supposed to answer the aforementioned questions of the trolley problem. However, the student is considering reducing the complexity first and using an open source language model. There was a lively discussion about this project. Further information on this symposium is available here.
The AAAI 2024 Spring Symposium Series will be held at Stanford University from March 25-27, 2024. There are a total of eight symposia. One of them is „Impact of GenAI on Social and Individual Well-being“. It will be hosted by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The announcement text reads: „Generative AI (GenAI) presents significant opportunities and challenges in the areas of individual and societal well-being. While its benefits in areas such as healthcare, the arts, and education are enormous, it also requires careful consideration of ethics, privacy, fairness, and security.“ On March 25, 2024, Takashi Kido opened the symposium with an interesting talk, including how ChatGPT would decide on the trolley problem. More information about the symposium is available here.
Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis 2024 – geht es um humanoide Roboter und Serviceroboter aller Art. Dabei wird sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten sein, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Zudem referiert Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München. Aus dem Forschungsprojekt ZEN-MRI (www.zen-mri.de) werden Ideen zur Gestaltung von Robotern im öffentlichen Raum vorgestellt. Im Rahmen der Tagung findet zudem die 20. Verleihung des Medienethik-Awards META statt, in deren Rahmen laut IDE herausragende journalistische Beiträge zum Thema Mensch-Maschine von einer studentischen Jury prämiert werden. Der Vortrag von Oliver Bendel trägt den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Weitere Informationen sind in Kürze auf der Website des IDE verfügbar.
Beim Cybathlon nehmen Sportler mit Behinderungen teil. Sie sind ausgerüstet mit Brain-Computer-Interfaces, Hightechprothesen, Exoskeletten und anderen Technologien. Vom 25. bis 27. Oktober 2024 findet die dritte Ausgabe statt. Austragungsorte sind die Arena Schluefweg in Kloten nahe Zürich und lokale Hubs auf der ganzen Welt. „In einem einzigartigen Wettkampf treten 100 internationale Teams aus Akademie und Industrie an. Die ursprünglichen sechs Disziplinen werden um zwei weitere erweitert: Ein Rennen mit intelligenten Sehassistenztechnologien und ein Rennen mit Assistenzrobotern.“(Website Cybathlon) Beim Cybathlon im Jahre 2016 war der Moderator Tobias Müller fünfmal im Gespräch mit Oliver Bendel, Technikphilosoph aus Zürich, der bei diesem Anlass vor allem Informations- und Roboterethiker war, den Einsatz von Implantaten, Prothesen und Robotern einordnend und bewertend. Einmal war Lino Guzzella mit dabei, der damalige ETH-Präsident, einmal Robert Riener, der Initiator und Organisator des Cybathlon. Der Ethiker betonte immer wieder, dass gegen die technische Erweiterung aus Sicht der Ethik nichts spricht, wenn es um erwachsene, verständige Menschen geht, die ihre Autonomie oder Performanz verbessern wollen. Bis heute nimmt er den Cybathlon als aufregendes, wegweisendes Format wahr. Weitere Informationen zum Cybathlon 2024 sind über cybathlon.ethz.ch de verfügbar.
Abb.: Ein Assistenzroboter bei den Cybathlon Challenges (Foto: ETH Zürich, CYBATHLON/Alessandro della Bella)
Um ihre Züge frei von Graffitis zu halten und Vandalismus vorzubeugen, testet die Deutsche Bahn in München laut einer Pressemitteilung vom 15. März 2024 den vierbeinigen Roboter Spot von Boston Dynamics. Dieser patrouilliere eigenständig über Abstellanlagen und erkenne KI-gestützt unbefugte Personen oder andere Unregelmäßigkeiten. Daraufhin starte er eine Liveübertragung mit Bildern in HD-Qualität. Diese landen zur Prüfung bei den DB-Sicherheitsmitarbeitern in der Nähe, „die gegebenenfalls weitere Schritte einleiten können“ (Pressemitteilung DB, 15. März 2024). Spot kann schwieriges Gelände bewältigen, und das rund um die Uhr: „Selbst Stufen, Schienen oder Schotter sind für ihn kein Problem. Mit Hilfe seiner Sensoren und Kameras kann er Kollisionen mit Menschen oder Gegenständen vermeiden und behält auch nachts jederzeit den Überblick.“ (Pressemitteilung DB, 15. März 2024) Licht aus, Spot an! Für zwielichtige Gestalten brechen harte Zeiten an. Es sind inzwischen einige Vierbeiner auf dem Markt, manche davon zu relativ niedrigen Preisen, wie im Falle des Unitree Go2. Spot gilt immer noch als Flaggschiff der Branche. Boston Dynamics gehört zur Hyundai Motor Group.
Abb.: Spot im Einsatz für die Deutsche Bahn (Foto: Deutsche Bahn AG/Thomas Kiewning)
Oliver Bendel wurde im Februar 2024 von der Sonntagszeitung zu Pflegerobotern befragt. Zunächst ging er auf die bekannten Beispiele von Pflegerobotern und Robotern in der Pflege ein und erwähnte Lio und Navel. An einer Stelle blickte der Technikphilosoph in die Zukunft der Pflege: „Irgendwann werden sich universelle Roboter durchsetzen, auch Allzweckroboter genannt. Es gibt heute schon Vierbeiner für 1800 Dollar. Damit meine ich den Unitree Go2, den ich selbst in meinem privaten Social Robots Lab habe. Wenn man die fortgeschrittenen Varianten von ihm haben will, zahlt man allerdings bis zum Zehnfachen des Preises. Die Zweibeiner, die beliebige Arbeiten verrichten können, kosten nochmals wesentlich mehr, der Unitree H1 um die 90.000. Dafür kann man aber solche Roboter in ganz verschiedenen Bereichen einsetzen.“ Dazu gehört dann eines Tages auch die Pflege. Oliver Bendel veröffentlichte 2018 als Herausgeber das Buch „Pflegeroboter“. Es entwickelte sich schnell zum Standardwerk und kann heute auf SpringerLink fast eine halbe Million Downloads vorweisen. Der Artikel ist am 17. März 2024 unter dem Titel „Die Pflegeroboter werden es richten, aber nicht so bald“ erschienen.
Abb.: Lio mit einer Pflegebedürftigen (Foto: F&P Robotics)
Das BorDoll in Dortmund hat seine Pforten im Sommer 2023 geschlossen. Das Cybrothel in Berlin hat nach wie vor geöffnet und experimentiert mit Reversed Cyborgs und Virtual Reality. Aber wie sieht die Situation in der Schweiz und in Österreich aus? Dort herrscht seit jeher eher Mischbetrieb. In Wien findet sich das Laufhaus Rachel, wo auf 20 bis 30 Frauen immerhin drei Liebespuppen kommen. In der Schweiz wurde in den letzten Jahren viel geboten, etwa rund um Luzern, Bern oder Basel. Die Medien berichteten genüsslich darüber. Eine aktuelle Recherche zeigt, dass nur noch wenige Etablissements mit von der Partie sind. Ein Beispiel ist die Lounge 139 in Basel, wo man Natascha (21) buchen kann, die keine Widerworte gibt, wie lobend erwähnt wird. Die Gründe für den Rückgang dürften seitens der Benutzer sein, dass es sich im Etablissement um keinen ultimativen Kick mehr handelt und zwischen den Preisen für künstliche und echte Frauen kein großer Unterschied besteht, sodass man sich reiflich überlegt, was oder wen man wählt. Seitens der Betreiber stellt man fest, dass hochwertige Liebespuppen teuer sind, auch teure Exemplare mit der Zeit verschleißen und es nicht einfach ist, fachlich geeignetes Personal für die Handhabung und die Reinigung zu finden. Kaum etwas weiß man über die Meinung und Haltung der Prostituierten. Eines der wenigen Interviews in diesem Zusammenhang ist im Buch „Maschinenliebe“ enthalten. Es braucht weniger sensationsheischende Berichterstattung, mehr empirische Forschung, mehr ethische Reflexion – aber dazu ist kaum ein Wissenschaftler und kaum eine Hochschule bereit. Zudem versinken einschlägige Disziplinen wie die Sexualwissenschaft im deutschsprachigen Raum in der Bedeutungslosigkeit. Dass der Gegenstand ganz wegfällt, ist kaum anzunehmen. Vielmehr dürften Liebespuppen – darauf deuten auch die vielen Bestellmöglichkeiten hin – in die Privathaushalte entschwinden, zusammen mit den Sexrobotern, mit Harmony, Emma und Co., wo sie noch schwerer zu erforschen sind. Sie werden dort zum gut gehüteten und hoffentlich ebenso gut gepflegten Alltagsgegenstand.
There are dozens of quadruped and bipedal robots. Quadrupeds are of particular interest to consumers because they are highly maneuverable yet safe to operate. Some are available from about $2000. One problem with most quadrupeds is that they have no head or only a hint of a head. This makes them look scary. Initial tests have shown that people are usually only put off by this for a short time and then quickly approach the robotic animals to touch and pet them. However, some users are not satisfied with the appearance and produce additional parts such as heads and tails. This leads to results like SparkyTheRobot, which has its own YouTube channel. Both the head and the tail are 3D printed and look convincing. The underlying Unitree Go2 is fundamentally changed in its appearance. What is being done here is robot enhancement. This term was coined by Prof. Dr. Oliver Bendel. It describes an enhancement with clothing and accessories, additional body parts, new end pieces, or artificial skin. Programming improvements or the integration of AI systems are also included. The two-legged and four-legged animals currently appearing on the market are likely to capture the imagination of many users and lead to the creation of specialized companies.
Fig.: Oliver Bendel with his Unitree Go2 (Photo: Frank Graef)