Aktuelle Themen der KI-Ethik

Wie bereits in seinen Büchern „400 Keywords Informationsethik“ und „450 Keywords Digitalisierung“ beschäftigt sich Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon mit der KI-Ethik. Er stellt ausführlich dar, wie diese mit den klassischen Bereichsethiken und mit der Maschinenethik verbunden ist. Am Ende heißt es: „Die KI-Ethik erhält Auftrieb durch Entwicklungen seit 2022 wie ChatGPT, DeepL Write und DALL-E 2 oder Lensa. Zunächst handelt es sich dabei um ebenso mächtige wie disruptive Tools. Bei ChatGPT stellt sich die Frage, wie fehleranfällig und vorurteilsbeladen das Reinforcement Learning from Human Feedback (RLHF) ist. Zudem kann die Datenqualität unter die Lupe genommen werden. Auch wenn Dokumente und Quellen von Arbeitskräften klassifiziert und qualifiziert werden, bedeutet das nicht unbedingt, dass ihre Verwendung unproblematisch ist. Die Arbeitsverhältnisse selbst thematisiert die Wirtschaftsethik. Bei DeepL Write kann man beanstanden, dass dieses Lektorprogramm offensichtlich nicht den Regeln des Rechtschreibrats, sondern eigenen Regeln folgt. So werden Rechtschreibfehler, die mit Sonderzeichen im Wortinneren zusammenhängen, also mit einer sogenannten geschlechtergerechten Sprache, nicht als solche erkannt bzw. beanstandet. Dies kann man in der Informationsethik und in der Medienethik untersuchen. DALL-E 2 und Lensa schaffen auf der Grundlage von Text- und Bildmaterial wirkungsstarke Visualisierungen. Angeblich werden bei Lensa die weiblichen Avatare sexualisiert, was aber nicht von allen Benutzern bestätigt werden kann. Die KI-Ethik dringt zum Kern vor, zum Machine Learning, und widmet sich der Herkunft und Qualität der Daten und dem Aufbau, der Anpassung und der Weiterentwicklung der Algorithmen. Sie behandelt mehr und mehr, wie Roboterethik und Maschinenethik, ganz grundsätzliche Aspekte, etwa in Bezug auf das Verhältnis zwischen (den Funktionsweisen und Endresultaten) künstlicher und menschlicher Intelligenz.“ Der Beitrag ist am 24. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/ki-ethik-124922 abgerufen werden.

Abb.: Eine futuristische Darstellung eines humanoiden Roboters

Was ist ChatGPT?

„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.

Abb.: OpenAI hat seinen Sitz in San Francisco

21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik

Seit 2012 sind auf Initiative von Oliver Bendel 21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Die letzten Entwicklungen waren ein Konzept von Ali Yürekkirmaz für ein System mit Gesichtserkennung zur Identifizierung von Bären, das von den Teilnehmern der ACI 2022 in Newcastle upon Tyne diskutiert wurde, und das CARE-MOME, präsentiert von Oliver Bendel und Marc Heimann auf der ICSR 2022 in Florenz. Beide Proceedings erscheinen Anfang 2023. In den nächsten Tagen wird das Projekt mit @ve beendet, einem auf GPT-3 basierenden Chatbot für Latein. Man kann mit ihr in dieser toten Sprache plaudern, die dann ganz lebendig erscheint, und ihr auf Deutsch verschiedene Fragen, etwa zur Grammatik, stellen. Der Entwickler Karim N’diaye stellt das Projekt am 19. Januar 2023 an der Hochschule für Wirtschaft FHNW in kleiner Runde vor. In weiteren Projekten will man sich ausgestorbenen und gefährdeten Sprachen widmen. Eine aktualisierte Übersicht zu allen Artefakten ist auf informationsethik.net und maschinenethik.net zu finden.

Abb.: Die aktualisierte Übersicht zu den Artefakten

Roboter haben weder Rechte noch Pflichten

Das Sonntagsblatt hat mit Prof. Dr. Oliver Bendel ein Interview zu KI und Sozialer Robotik geführt. Unter anderem ging es um Roboter als Subjekte und Objekte der Moral. Der Informations- und Maschinenethiker hält nichts davon, Robotern moralische Rechte zuzugestehen. Er knüpft solche an Empfindungs- und Leidensfähigkeit bzw. Bewusstsein. Nach seiner Ansicht verläuft ein tiefer Graben zwischen Lebewesen und Dingen, und es sei gefährlich, diesen einebnen zu wollen. Auch von Pflichten möchte er nicht sprechen, höchstens von Verpflichtungen, die wir Robotern auferlegen, noch besser von Aufgaben, die sie erledigen müssen, unter Beachtung moralischer Regeln. Sogenannte moralische Maschinen sind neue, merkwürdige, unvollständige Subjekte der Moral. Sie haben kein Bewusstsein, keine Intuition, keine Empathie, keinen freien Willen, aber sie können – als autonome Maschinen alleingelassen in geschlossenen, halboffenen oder offenen Welten – verschiedene Optionen erwägen und eine von ihnen auswählen. Dies ist eine funktionale Moral, die allenfalls mit der Moral mit Fundamentalisten zu tun hat – aber im Robozän kann sie eine Bereicherung darstellen, vor allem wenn Maschinen auf Menschen oder Tiere treffen, etwa als soziale Roboter. Das Interview kann in schriftlicher Form über www.sonntagsblatt.de/artikel/maschinenethiker-oliver-bendel-gpt3-pflegeroboter nachgelesen werden. Zudem gibt es einen Podcast von 45 Minuten Länge.

Abb.: Oliver Bendel bei einem Dreh mit 3sat (Foto: Sara Zarubica)

Posterpräsentation zum CARE-MOMO

Die ICSR ist neben der Robophilosophy die bedeutendste Konferenz zur Sozialen Robotik. Dieses Jahr war Florenz der Veranstaltungsort. Prof. Dr. Oliver Bendel und Marc Heimann waren mit ihrem Paper „The CARE-MOMO Project“ vertreten. Sie stellten es gleich am ersten Tag (13. Dezember 2022) beim Workshop „Robot Companionship: Applications and Challenges“ in einem Vortrag vor. Zudem hatten sie am Donnerstag (15. Dezember 2022) eine Posterpräsentation dazu. Das CARE-MOMO wurde von Marc Heimann an der Hochschule für Wirtschaft FHNW umgesetzt. Es soll den Assistenzroboter Lio von F&P Robotics erweitern. Es baut auf dem MOME von 2019/2020 auf, das auf der Robophilosophy präsentiert wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen und sozialen Vorstellungen und grundsätzlichen Haltungen übertragen. Implementiert wurde ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Weitere Informationen zur Konferenz sind über www.icsr2022.it erhältlich.

Abb.: Marc Heimann bei der Posterpräsentation

Zweite Durchführung des Wahlmoduls zu sozialen Robotern

Vom 7. bis zum 9. November 2022 fand an der Hochschule für Wirtschaft FHNW in Olten das Wahlmodul „Soziale Roboter“ statt. In die Wege geleitet und durchgeführt wurde es von Prof. Dr. Oliver Bendel. Fast 60 studentische Teilnehmer, durchgängig aus der Wirtschaftsinformatik (Basel, Olten und Brugg-Windisch), waren vor Ort. Der Informations- und Maschinenethiker führte in die Robotik und in die Soziale Robotik ein. Dann stellte er Überlegungen aus ethischer Sicht an und erläuterte die Zusammenhänge zwischen sozialen Robotern und Servicerobotern. Zudem waren tierfreundliche Maschinen ein Thema. Ein externer Vortrag stammte von Sara Zarubica, einer ausgebildeten Entwicklerin und studierten Wirtschaftsinformatikerin. Sie präsentierte ein auf Pepper basierendes Lernspiel, das sie 2022 im Rahmen ihrer Bachelorarbeit entwickelt hatte. Ein weiterer Vortrag wurde von Carolyn Hettinger gehalten, die an der Hochschule München ihre Bachelorarbeit über Paro aus Sicht der Akteur-Netzwerk-Theorie schreibt. An allen drei Tagen waren Pepper, NAO, Alpha Mini, Cozmo und Hugvie zugegen. Sie führten ihre Fähigkeiten vor und interagierten und kommunizierten mit den Anwesenden. Am letzten Tag konzipierten und illustrierten die Studenten und Studentinnen in Gruppenarbeiten zehn verschiedene soziale Roboter, die nützlich und sinnvoll sind und sich im Markt behaupten können. Das Wahlmodul wurde zum ersten Mal im November 2021 durchgeführt. Im Februar 2023 findet es bereits wieder statt, innerhalb der Betriebsökonomie in Brugg-Windisch.

Abb.: Sara Zarubica bei der Abschlusspräsentation ihrer Bachelorarbeit

Künstliche Intelligenz aus Sicht von Ethik und Technikfolgenabschätzung

„Der Mensch sieht sich mit immer schnelleren technischen und technologischen Entwicklungen konfrontiert. Daraus entstehen Fragen nach ethischer Orientierung innerhalb verschwimmender Grenzen zwischen Natur und Technik. Das neue Heft Amos international greift die Diskussion um die Digitalisierung mit ihren verschiedenen Facetten auf und untersucht Künstliche Intelligenz im Spannungsfeld zwischen Heilversprechen und apokalyptischen Warnungen.“ (Vorwort amos international, 2/2022) So lautet das Vorwort zu einem Schwerpunkt der Zeitschrift Amos international. Die Artikel stammen von Anna Maria Riedl, Bernhard Irrgang, Armin Grunwald, Katharina Klöcker, John Wyatt und Catrin Misselhorn. Claudia Schwarz führte ein Interview mit Oliver Bendel zur Frage der Verantwortung bei Maschinen und zu Roboter- und Maschinenethik. Der studierte Philosoph und promovierte Wirtschaftsinformatiker hält aus Prinzip keine Vorträge für religiöse Einrichtungen und schreibt keine Artikel für religiöse Zeitschriften. Er steht ihnen aber in Einzelfällen für Interviews zur Verfügung. Das Heft kann über www.amosinternational.de/magazine/issue-2022-3 aufgerufen werden.

Abb.: Oliver Bendel bei einem Dreh mit 3sat (Foto: Sara Zarubica)

Wie man künstliche Moral schafft

„Sind Maschinen das Ende der Menschheit?“ So lautet der Titel eines Ende Oktober bis Anfang November 2022 erschienenen Dossiers in der Zeitschrift „Der Pragmaticus“. Diese wurde u.a. vom Red-Bull-Chef Dietrich Mateschitz gegründet. Er ist vor kurzem gestorben, und es handelt sich um das erste Dossier, dessen Veröffentlichung er nicht mehr erlebt hat. Enthalten ist ein Beitrag von Prof. Dr. oec. HSG Oliver Bendel mit dem Titel „Brauchen Computer eine Moral?“ … Im Teaser der Redaktion ist zu lesen: „In Form von Chatbots, Rasenrobotern und autonomen Autos sind die Computer heute überall. Je mehr die Maschinen können, umso dringlicher scheint es, ihnen unter Einbezug der Ethik Regeln zu geben.“ Der Artikel des Informations- und Maschinenethikers aus Zürich ist am 1. November 2022 freigeschaltet worden und kann über www.derpragmaticus.com/r/maschinenethik/ aufgerufen werden.

Abb.: Eine Skulptur auf der Biennale in Venedig

Sind Maschinen das Ende der Menschheit?

„Sind Maschinen das Ende der Menschheit?“ So lautet der Titel eines Ende Oktober 2022 erschienenen Dossiers in der Zeitschrift „Der Pragmaticus“. Diese wurde u.a. vom Red-Bull-Chef Dietrich Mateschitz gegründet. Er ist vor kurzem gestorben, und es handelt sich um das erste Dossier, dessen Veröffentlichung er nicht mehr erlebt hat. Darin heißt es: „KI hat unser Leben bereits jetzt in vielerlei Hinsicht unter Kontrolle. Sie lesen diesen Text vielleicht auf einem Smartphone in der U-Bahn, und dank Google Maps wissen Sie schon, ob Sie den Anschlussbus nach Hause erreichen werden. Vielleicht sitzen Sie auch am Schreibtisch, ein desorientierter Staubsaugerroboter fährt schon wieder gegen den Sessel und reißt Sie aus dem Lesefluss, genervt sagen Sie: ‚Alexa, stopp!‘ KI hat es sich längst, oft unbemerkt, in unserem Alltag bequem gemacht, in Form von Smartphones, virtuellen Assistenten oder Saugrobotern.“ Zu Wort kommen u.a. Sepp Hochreiter, Professor für Machine Learning in Linz, und Georg Dorffner, Professor für KI an der Medizinischen Universität in Wien, zudem Oliver Bendel, Professor für Wirtschaftsinformatik und Ethik an der Hochschule für Wirtschaft FHNW. Maschinen sind, so seine Meinung, nicht das Ende der Menschheit, ganz im Gegenteil. Das Dossier kann über www.derpragmaticus.com/d/roboter/ aufgerufen werden.

Abb.: Ein eher harmloser Geselle

Keynote „Pflegeroboter aus ethischer Perspektive“

Beim „uDay 20: Innovation in der Pflege – gewusst wie!“ am 20. September 2022 an der Fachhochschule Vorarlberg hält Oliver Bendel die Keynote „Pflegeroboter aus ethischer Perspektive“. Aus der Beschreibung: „Pflege- und Therapieroboter können als Serviceroboter und in vielen Fällen auch als soziale Roboter begriffen werden. Im Vortrag von Professor Dr. Oliver Bendel aus Zürich werden die Ziele, Aufgaben und Merkmale geklärt und, davon ausgehend, Überlegungen aus der Perspektive der Ethik angestellt. Am Ende soll deutlich werden, welche Robotertypen und Prototypen bzw. Produkte es im Gesundheitsbereich gibt, welche Zwecke sie erfüllen, welche Funktionen sie übernehmen und welche Implikationen und Konsequenzen dies für den Einzelnen und die Gesellschaft hat. Pflegeroboter mögen zur persönlichen Autonomie beitragen und zugleich die informationelle Autonomie schwächen. Therapieroboter können die persönliche Leistung und Zufriedenheit steigern, in Einzelfällen aber auch die Menschenwürde verletzen. Es ist wichtig, Serviceroboter und soziale Roboter im Gesundheitsbereich so zu gestalten, dass sie möglichst allen Anforderungen und Bedürfnissen gerecht werden und nützliche Werkzeuge für Pflegekräfte und Pflegebedürftige sind. Dabei können nicht zuletzt Disziplinen wie die Maschinenethik helfen.“ Die Keynote beginnt um 9.15 Uhr. Das Programm kann hier heruntergeladen werden.

Abb.: Oliver Bendel bei einem Dreh mit 3sat an der FHNW (Foto: Sara Zarubica)

Der Vormittag des dritten Tags der Robophilosophy 2022 in Helsinki

Der Vormittag des dritten Tags der Robophilosophy 2022 begann mit der Keynote „Robots, Institutional Roles and Functions“ von Seumas Miller. Er schloss bestimmte Fähigkeiten und Eigenschaften von Robotern kategorisch aus, was in der Diskussionsrunde die Kritiker auf den Plan rief. Seine Behauptung, Roboter könnten keine moralischen Agenten (also keine moralischen Subjekte) sein, konterte Catrin Misselhorn, eine erfahrene Maschinenethikerin, mit der Feststellung, sie könnten durchaus funktionale moralische Agenten sein, wenn auch keine vollständigen. Tatsächlich werden seit vielen Jahren moralische Maschinen in genau diesem Sinne gebaut: Sie erhalten moralische Regeln und halten sich daran. Es folgten am Vormittag drei Sessions und ein Workshop. Bei Session 12 („HRI I“) sprachen u.a. Kerstin Fischer und Johanna Seibt. Session 14 („Social norms and roles I“) wurde mit Vorträgen von Anna Strasser und Michael Wilby („The AI-Stance: Crossing the Terra Incognita of Human-Machine Interactions?“), Kirsikka Kaipainen („Identifying Opportunities for Social Robots in Youth Services: A Case Study of a Youth Guidance Center“, mit Salla Jarske und Kaisa Väänänen) sowie Laetitia Tanqueray und Stefan Larsson („What Norms Are Social Robots Reflecting? A Socio-Legal Exploration on HRI Developers“) bespielt. Danach ging es in die Mittagspause.

Abb.: Kirsikka Kaipainen bei ihrem Vortrag

Erster Tag der Robophilosophy 2022

Nach Worten der Begrüßung von Raul Hakli, Pekka Mäkelä und Johanna Seibt startete die Robophilosophy 2022 mit einem Vortrag von Sven Nyholm zum Thema „A New Control Problem? Humanoid Robots, AI, and the Value of Control“. In Session 1 („Robots in Law and Policing“) sprachen danach Oliver Bendel („Robots in Policing“), Cindy Friedman („Granting Negative Rights to Humanoid Robots“) und Jakob Stenseke („The Use and Abuse of Normative Ethics for Moral Machines“). Parallel fanden drei Workshops statt, darunter „Regulation of the Use of Social Robotics in Care Settings: A Simulation“. Im Anschluss wurden vier Poster präsentiert, eines davon von Katharina Kühne, Melinda A. Jeglinski-Mende und Oliver Bendel („Tamagotchi on our couch: Are social robots perceived as pets?“). Am späteren Nachmittag referierte David Gunkel zum Thema „Robots Should Not be Slaves“ – eine Auffassung, die etwa Joanna Bryson oder Oliver Bendel nicht in dieser Weise teilen. Er leitete den Workshop, bei dem mehrere Vorträge gehalten und ganz unterschiedliche Ansichten ausgetauscht wurden. Parallel fanden ein weiterer Workshop sowie Session 2 („Robots in Education“) statt. Den Ausklang bildete der Empfang der Universität Helsinki mit Wein, Hummus und Fladenbrot. Die Robophilosophy gilt als die wichtigste Konferenz zu sozialen Robotern aus gesellschaftlicher Perspektive. Sie findet vom 16. bis zum 19. August 2022 an der Universität Helsinki statt.

Abb.: Sven Nyholm bei seinem Vortrag an der Universität Helsinki

Großer Andrang beim Wahlmodul „Soziale Roboter“

An der Hochschule für Wirtschaft FHNW findet im Herbstsemester 2022 in Olten zum zweiten Mal das Wahlmodul „Soziale Roboter“ statt. Es steht Wirtschaftsinformatikern und Betriebsökonomen offen. Mit 54 Anmeldungen ist die Obergrenze von 60 fast erreicht. Dozent ist Prof. Dr. Oliver Bendel. Das Wahlmodul „Soziale Roboter“ klärt Grundbegriffe und -konzepte, stellt den Zusammenhang zwischen der Sozialen Robotik und anderen Disziplinen (Künstliche Intelligenz, Maschinenethik, Künstliches Bewusstsein) her, nennt Beispiele sozialer Roboter und geht auf Anwendungsgebiete sozialer Roboter ein. Die Studierenden lernen ausgewählte soziale Roboter kennen, auch im direkten Kontakt. Sie entwickeln Szenarien, die folgende Komponenten umfassen: Beschreibung eines fiktiven sozialen Roboters (Zeichnung, Produktbeschreibung), Skizze einer Organisation oder Situation, in der der Roboter eingesetzt wird (Organigramm, Firmenbeschreibung), Darstellung der Interaktion und Kommunikation sowie der Datenflüsse (Modellierung), Diskussion technischer, ethischer und rechtlicher Fragen. Die Ergebnisse werden in Gruppen im Plenum präsentiert. Im Frühjahrssemester 2023 wird in Brugg-Windisch für Betriebsökonomen zusätzlich das Wahlmodul „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Perspektive“ angeboten.

Abb.: Alpha Mini beim Tai Chi

Über den Krieg

„Krieg ist ein nationaler oder internationaler Konflikt, bei dem die gegnerischen Parteien Streitkräfte, mehr oder weniger schwere Waffen sowie physische und psychische Gewalt einsetzen, um ihre politischen, wirtschaftlichen oder religiösen Ziele zu erreichen. Es werden Gebäude, Verkehrswege und Infrastrukturen zerstört, Soldaten und Zivilisten umgebracht, verletzt, gefoltert und vergewaltigt, um die Übermacht zu erhalten und die Moral des Gegners zu zermürben, und nebenbei Tiere getötet und die Umwelt verstrahlt, verseucht und geschädigt.“ Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es wird auf Militärroboter und auch speziell auf Kampfroboter eingegangen und der Zusammenhang zwischen Wirtschaft und Krieg dargestellt. Am Ende wird die Perspektive der Ethik eingenommen, insbesondere der Militärethik, der Technik- und Informationsethik sowie der Maschinenethik, ferner der Wirtschaftsethik und der Tierethik. Der Beitrag, der am 28. Juni 2022 erschienen ist, kann über wirtschaftslexikon.gabler.de/definition/krieg-124146 aufgerufen werden.

Abb.: Demonstration gegen den Ukrainekrieg in Zürich

 

Ein Pflegeroboter erhält ein Moralmodul

Immer mehr Roboter werden im Pflegebereich eingesetzt. Die meisten von ihnen sind Prototypen, einige sogar Produkte, die in kleinen Serien hergestellt werden, wie Lio und P-CARE von F&P Robotics. Die Maschinenethik erforscht und schafft moralische Maschinen. Diese lassen sich oft von bestimmten Werten oder Metaregeln leiten, sie folgen vorgegebenen Regeln oder sie lernen aus Situationen und passen ihr Verhalten an. Das CARE-MOMO („MOMO“ steht für „Moralmodul“) ist ein Moralmodul, das Lio erweitern kann. Es baut auf dem MOME auf, dem Moralmenü, das bereits 2019/2020 entwickelt und 2020 auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Patient seine Präferenzen wählen und so auf einfache Weise seine sittlichen und moralischen Vorstellungen übertragen. Dabei wird auf eine 1:1-Beziehung zwischen Mensch und Maschine fokussiert. Marc Heimann erarbeitete im Rahmen seiner Abschlussarbeit bereits mehrere Vorschläge, die in einem Brainstorming mit dem Betreuer Oliver Bendel am 19. Mai 2022 ergänzt wurden. Das CARE-MOMO ist das dreizehnte Artefakt, das im Arbeitsbereich von Oliver Bendel entsteht. Mehrere davon – etwa LIEBOT, LADYBIRD oder HAPPY HEDGEHOG – wurden bei internationalen Konferenzen vorgestellt und haben mediale Aufmerksamkeit erregt. Das CARE-MOMO-Projekt begann im März und läuft noch bis August 2022. Das Ergebnis ist eine prototypische Umsetzung des Moralmoduls.

Abb.: Lio im Einsatz in der Schweiz (Foto: F&P Robotics)

Über die künstliche Moral

„Künstliche Moral (engl. ‚artificial morality‘), auch maschinelle Moral (engl. ‚machine morality‘) genannt, ist die Fähigkeit einer Maschine (i.d.R. eines autonomen Systems), sich an moralische Regeln zu halten respektive unter verschiedenen Optionen diejenige auszuwählen, die gut und richtig ist. Die moralischen Regeln sind der sogenannten moralischen Maschine gleichsam eingepflanzt worden; diese kann sie u.U. aber auch abändern und anpassen, etwa indem sie das Verhalten anderer – künstlicher oder natürlicher – Systeme übernimmt oder anderweitig aus Situationen lernt.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der am 20. Mai 2022 im Gabler Wirtschaftslexikon erschienen ist. Er ergänzt u.a. „Maschinenethik“ (2012) und „Moralische Maschinen“ (2019). Am Ende heißt es: „Am besten bewährt sich die künstliche Moral in geschlossenen oder halboffenen, übersichtlichen und weitgehend unveränderlichen Umgebungen, etwa in einem Haushalt oder auf einem Betriebsgelände.“ Dort können moralische Maschinen sowohl Tiere als auch Menschen schützen. Der Beitrag ist über wirtschaftslexikon.gabler.de/definition/kuenstliche-moral-123163 abrufbar.

Abb.: Oliver Bendel mit NAO (Foto: Stefanie Hauske)

Interview zu tierfreundlichen Maschinen

Das aktuelle Magazin des Zürcher Tierschutzes bringt ein zweiseitiges Interview mit Prof. Dr. oec. HSG Oliver Bendel zu seiner Forschung über tierfreundliche Maschinen. Geführt hat es Dr. sc. ETH Bea Roth. Der Informations- und Maschinenethiker beobachtet seit Jahren, dass sich teilautonome und autonome Maschinen immer mehr verbreiten, bei den Folgen aber vor allem an den Menschen gedacht wird. Robotik und Künstliche Intelligenz sind geradezu stolz darauf, auf unsere Bedürfnisse zu fokussieren, und vergessen dabei oft die von Tieren. Dabei könnte man z.B. Haushaltsroboter auf eine einfache Weise tierfreundlich gestalten. Oliver Bendel hat mit seinen jeweiligen Teams in diesem Bereich Prototypen wie LADYBIRD und HAPPY HEDGEHOG entwickelt. Zudem hat er ein System für die Gesichtserkennung bei Bären in den Alpen konzipieren lassen. Seine Vision ist, dass in riesigen Naturparks die Wildtiere in Ruhe gelassen und allenfalls von Robotern beobachtet und zur Not versorgt werden. Das ZT-Magazin steht auch online zur Verfügung.

Abb.: Ein Ausschnitt aus dem ZT-Magazin

Ein insektenfreundlicher Böschungsmäher

Bereits 2014 wurde LADYBIRD konzipiert, der insektenfreundliche Saugroboter. 2017 wurde er dann implementiert. 2019 kam HAPPY HEDGEHOG hinzu, der igelfreundliche Mähroboter. Beide Prototypen entstammen der Forschung von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Die Forschungsergebnisse sind in mehreren Buch- und Konferenzbeiträgen abgedruckt und frei verfügbar. Ein neuer Böschungsmäher einer Firma aus Südbaden wurde von Johannes Steidle von der Universität Stuttgart-Hohenheim getestet. BR berichtete am 16. März 2021: „Steidle beschreibt, wie der insektenfreundliche Mäher mit einer Insektenscheuche vorn am Gerät die Tiere wegscheucht, sodass diese dann wegfliegen. Es würden sich aber auch viele Insekten auf dem Boden fallen lassen. Diese würden dadurch gerettet, dass bei dem Gerät nicht mehr so ein starker Sog erzeugt wird. So werden praktisch keine Insekten mehr eingesogen, bleiben auf der Fläche und sind sicher.“ (BR, 16. März 2021) Eine ähnliche Technologie könnte auch für Roboterrasenmäher, wie man sie auf Fußballfeldern und Golfplätzen einsetzt, interessant sein. Sie würde Sensoren- und KI-Systeme ergänzen, wie sie etwa von Angsa Robotics verwendet werden. Das Paper von Johannes Steidle und seinen Co-Autoren kann hier abgerufen werden.

Abb.: Ein Mäher für ebene Flächen

Alles nur ein Spiel?

Breitband (DLF Kultur) hat sich mit Oliver Bendel über Chatbots unterhalten, mit denen man Beziehungen führen und Phantasien ausleben kann. Der Informations- und Maschinenethiker stellte zunächst grundsätzlich fest, dass man sich mit Chatbots und Sprachassistenten anders unterhält als mit Menschen. Man schreibt oder spricht einfacher, kürzer – und obszöner. Mit Replika kann man über generelle und persönliche Angelegenheiten sprechen – und auch Phantasien im Virtuellen ausleben. Normalerweise bleibt es dabei. Dennoch gibt es, so der Ethiker aus Zürich, durchaus Effekte im Realen. Denn wenn man mit Replika in obszöner Weise chattet, reagiert man darauf, ist erregt, erheitert etc. Es stellen sich also körperliche und geistige Reaktionen ein. Grundsätzlich trainiert man auch ein bestimmtes Verhalten, entwickelt bestimmte Methoden und Strategien im Sprachlichen. Die meisten Benutzer dürften zwischen Virtualität und Realität unterscheiden können. Sobald sie auf einen echten Menschen treffen, passen sie sich an. Aber es kann durchaus sein, dass Einzelne bewusst oder unbewusst das Erlernte ausprobieren. Allgemeine Chatbots, die der Unterhaltung dienen, sollte man durchaus begrenzen, so der Informations- und Maschinenethiker. Man kann ihnen etwa eine Persönlichkeit geben, mit deren Hilfe u.a. Übergriffe zurückgewiesen werden. Das fängt schon damit an, dass Replika es nicht gut finden muss, wenn man sie Bitch nennt. Der Beitrag „Alles nur ein Spiel?“ wird am 29. Januar 2022 um 13.05 Uhr ausgestrahlt. Weitere Informationen über www.deutschlandfunkkultur.de/programm.

Abb.: Ein Junge vor dem Bildschirm

Soziale Robotik und KI

Insgesamt 30 Beiträge enthält der von Oliver Bendel herausgegebene Springer-Band „Soziale Roboter“, wenn man das Vorwort mitzählt. Von Felix Lindner stammt die Abhandlung „Soziale Robotik und KI: Wie sich Roboter autonom nach Werten und Normen verhalten können“. Aus dem Abstract: „Während im öffentlichen Diskurs Künstliche Intelligenz und Robotik häufig ganz selbstverständlich zusammengedacht werden, haben sich historisch zwei separate Disziplinen entwickelt: die Künstliche Intelligenz beschäftigt sich mit der Formalisierung und Algorithmisierung von Schlussfolgern und Problemlösen, und die Robotik befasst sich mit der maschinellen Wahrnehmung der Umwelt sowie der autonomen Ausführung von Handlungen. In diesem Kapitel wird die Soziale Robotik als ein Bindeglied zwischen den beiden Disziplinen aufgefasst. Soziale Roboter sind Roboter, die sich nach den Werten und Normen des sozialen Miteinanders richten. Damit dies möglich wird, müssen Verfahren aus der Robotik um eine soziale Dimension erweitert werden. Eine Möglichkeit besteht darin, Techniken aus der Künstlichen Intelligenz zu verwenden, um soziale Werte und Normen explizit zu modellieren. Der Beitrag thematisiert das sogenannte Value-Alignment-Problem in der Künstlichen Intelligenz im Allgemeinen und demonstriert anhand von sozialer Roboter-Navigation im Speziellen, wie Techniken aus der Künstlichen Intelligenz für die Soziale Robotik genutzt werden können, damit Roboter ihre Handlungen nach menschlichen Werten und Normen ausrichten.“ Das Buch ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: Harmony (Foto: Realbotix, bearbeitet)

NAO meets Pluto

Bereits Anfang November 2021 ist der Herausgeberband „Soziale Roboter“ mit insgesamt 30 Beiträgen (das Vorwort eingerechnet) erschienen. Der Herausgeber selbst, Prof. Dr. Oliver Bendel, ist mit fünf Kapiteln vertreten, darunter „NAO meets Pluto: Zwischen Tierschutz und Tierbelästigung“. Aus dem Abstract: „Soziale Roboter können für den Umgang mit Menschen oder mit Tieren geschaffen sein. Viele Lebewesen haben soziale Beziehungen, einige sind soziale Wesen. In Robotik und Künstlicher Intelligenz lag der Fokus seit jeher auf dem Menschen. Forderungen nach einer „human-centered AI“ (weniger im technischen, eher im humanistischen Sinne verstanden) in den 2010er- und 2020er-Jahren betonen dies sogar. Aber immer mehr Roboter und auch soziale Roboter begegnen, ob dies geplant ist oder nicht, Haus-, Nutz- und Wildtieren. Diese reagieren unterschiedlich, teils interessiert, teils desinteressiert, teils lethargisch, teils panisch. Die Forschung muss sich mehr und mehr Tier-Roboter-Beziehungen zuwenden und diese zusammen mit der Praxis so gestalten, dass das Tierwohl gefördert und das Tierleid gemindert wird. Der Beitrag widmet sich sozialen Robotern, die für Tiere gedacht sind, aber auch solchen, die – aus unterschiedlichen Gründen – auf Tiere treffen und mit ihnen interagieren und kommunizieren. Zudem stellt er tierfreundliche Maschinen, die im Kontext der Maschinenethik entstanden sind, vor. In einem Diskussionsteil wird u. a. der Frage nachgegangen, welche der vorgestellten Roboter als soziale Roboter aufzufassen sind und was ihre Unterschiede in ihrem Zweck und in ihrem Verhältnis zum Tier sind.“ Das Buch kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: Pluto im Disneyland

Soziale Roboter aus der Perspektive von Informations-, Roboter- und Maschinenethik

Die Studie „Soziale Roboter, Empathie und Emotionen“, erschienen am 8. November 2021, nimmt die Perspektiven von Informations-, Roboter- und Maschinenethik ein. Verantwortlich für diesen Teil war Prof. Dr. Oliver Bendel. Die Perspektive der Informationsethik – vor allem das Konzept der informationellen Autonomie – hilft dabei, die Überwachungsmöglichkeiten und die Verletzungen von Privat- und Intimsphäre durch soziale Roboter kritisch zu reflektieren. Sie kann mithelfen, ethische Leitlinien zu entwickeln und ethische Kommissionen aufzusetzen. Es resultiert bei Verwendung der diskursiven Methode ein Interessenausgleich der verschiedenen Parteien, etwa ein Konsens zu dem, was bei Gesichts- und Stimmerkennung zu tun und was zu unterlassen ist. Mit Hilfe der Roboterethik kann die Frage nach den moralischen Rechten von sozialen Robotern abschlägig beantwortet werden, da solche Rechte Empfindungs- und Leidensfähigkeit bzw. Bewusstsein voraussetzen. Ein ergiebigeres Forschungsfeld findet die Disziplin in Bezug auf die Folgen des Einsatzes sozialer Roboter. Diese sollten keine Mittel für Betrug und Täuschung darstellen, da diese Rechte des Gegenübers beschädigen können. Zugleich ist es vertretbar, die Nutzer für eine Weile in einer Illusion zu belassen, wenn sie dazu in geeigneter Weise ihre Zustimmung gegeben haben und der Nutzen den Schaden überwiegt. Sie sollten aber, soweit es ihnen zugänglich und möglich ist, über die Hintergründe aufgeklärt worden sein und zu jedem Zeitpunkt wiederum Wahlfreiheit haben. Es ist vor allem stets zu überlegen, ob das Simulieren von Empathie und Emotionen notwendig und zielführend ist oder ob hier unnötigerweise Beziehungen und Bindungen etabliert werden, die sich für die Betroffenen als problematisch oder die Menschenwürde verletzend herausstellen können. Ethics by Design, Responsible AI und Maschinenethik können dazu beitragen, dass soziale Roboter sozial und moralisch adäquat agieren und reagieren. Die Entwicklerinnen und Entwickler werden mit Blick auf Betrug und Täuschung oder die Gefahr von Verzerrungen und Vorurteilen sensibilisiert, und sie werden in die Lage versetzt, den Maschinen passende Regeln und Grenzen einzupflanzen. So entstehen soziale Roboter als moralische Maschinen, die zumindest in geschlossenen und halboffenen, übersichtlichen Räumen mit voraussehbaren Prozessen und Situationen zu einem guten Leben beitragen können. Die Studie ist über zenodo.org/record/5554564 verfügbar.

Abb.: Cozmo ist vom Blechspielzeug gelangweilt