Die ABBA-Show Voyage in London

In London strömen die Fans seit Mai 2022 zur ABBA-Show Voyage und zu den darin auftretenden ABBAtaren. Manche sind 70, 80 Jahre alt und mit dem Rollator unterwegs. Andere sind jung und kennen ABBA vor allem über die Filme („Mamma Mia!“ von 2008 und „Mamma Mia! Here We Go Again“ von 2018). Man hat Agnetha, Björn, Anni-Frid und Benny wochenlang ihre Songs vortragen lassen und dabei ihre Bewegungen beim Tanzen und ihre Emotionen beim Singen erfasst. Vor allem hat man Motion Capture verwendet. Die Gesichter wurden anschließend digital verjüngt. Und offensichtlich auch die Körper, die zum Teil unnatürlich dünn wirken, vor allem die Beine der Frauen. Überhaupt verfügen diese über perfekte Figuren und Hintern, und sie beherrschen Moves, die modern wirken – man hat die Bewegungen junger Tänzer und Tänzerinnen hinzugenommen. Die Avatare erscheinen in der Mitte der Bühne. Man macht das in diesem Falle mit riesigen Bildschirmen, Spiegeln und anderen Hilfsmitteln. Die Avatare sollen aussehen wie Hologramme, also eine Präsenz im Raum haben. Es ist sozusagen keine physische Präsenz wie bei Robotern, sondern eine virtuelle. Die Wirkung der Show ist von Anfang an enorm. Das Publikum, das sich auf Dance Floor und Sitzreihen in der ABBA-Arena (engl. „ABBA Arena“) verteilt, jubelt, lacht und weint. Spätestens bei „Dancing Queen“ ist man im ekstatischen Tanz vereint. Reifere Frauen denken vielleicht an ihre vergangene Jugend, ältere Männer an ihre verflossene Jugendliebe. Überhaupt ging es immer wieder um Unsterblichkeit und Vergänglichkeit, um Sein und Schein – „to be or not to be“, wie Benny an einer Stelle deklamierte. Oliver Bendel veröffentlichte 2001 im „Lexikon der Wirtschaftsinformatik“ den Beitrag „Avatar“ und 2019 im Springer-Buch „AI Love You“ (2019) den Beitrag „Hologram Girl“ – wo die damals geplante ABBA-Show bereits erwähnt wird.

Abb.: Die ABBA Arena (Foto: Stefanie Hauske)

21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik

Seit 2012 sind auf Initiative von Oliver Bendel 21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Die letzten Entwicklungen waren ein Konzept von Ali Yürekkirmaz für ein System mit Gesichtserkennung zur Identifizierung von Bären, das von den Teilnehmern der ACI 2022 in Newcastle upon Tyne diskutiert wurde, und das CARE-MOME, präsentiert von Oliver Bendel und Marc Heimann auf der ICSR 2022 in Florenz. Beide Proceedings erscheinen Anfang 2023. In den nächsten Tagen wird das Projekt mit @ve beendet, einem auf GPT-3 basierenden Chatbot für Latein. Man kann mit ihr in dieser toten Sprache plaudern, die dann ganz lebendig erscheint, und ihr auf Deutsch verschiedene Fragen, etwa zur Grammatik, stellen. Der Entwickler Karim N’diaye stellt das Projekt am 19. Januar 2023 an der Hochschule für Wirtschaft FHNW in kleiner Runde vor. In weiteren Projekten will man sich ausgestorbenen und gefährdeten Sprachen widmen. Eine aktualisierte Übersicht zu allen Artefakten ist auf informationsethik.net und maschinenethik.net zu finden.

Abb.: Die aktualisierte Übersicht zu den Artefakten

Das CARE-MOMO bei der ICSR 2022

Am 13. Dezember 2022 begann die ICSR, neben der Robophilosophy die bedeutendste Konferenz zur Sozialen Robotik. Oliver Bendel und Marc Heimann sind mit ihrem Paper „The CARE-MOMO Project“ vertreten. Sie stellten es gleich am Morgen beim Workshop „Robot Companionship: Applications and Challenges“ in einem Vortrag vor. Zudem haben sie am Donnerstag (15. Dezember 2022) eine Posterpräsentation dazu. Mithilfe des Moralmoduls, das das bewährte Moralmenü enthält, können Pflegebedürftige ihre moralischen und sozialen Vorstellungen auf einen Pflegeroboter wie Lio von F&P Robotics übertragen. Der Vortrag fand viel Anklang im vollbesetzten Raum, auch beim Chair, der den Ansatz sehr interessant fand, wie er mehrmals betonte. Das Programm des Workshops kann hier heruntergeladen werden. Weitere Informationen zur Konferenz, die dieses Jahr in Florenz stattfindet, sind über www.icsr2022.it erhältlich.

Abb.: Oliver Bendel mit ARI von PAL Robotics bei der ICSR 2022 (Foto: Marc Heimann)

Das CARE-MOMO als Prototyp

Seit 2012 wurden von Prof. Dr. Oliver Bendel und seinen Teams 13 Artefakte der Maschinenethik und Sozialen Robotik entwickelt, vor allem Prototypen (Chatbots, Sprachassistenten und tierfreundliche Maschinen). Dabei verwendeten sie in mehreren Fällen eigene Ansätze wie annotierte Entscheidungsbäume und das Moralmenü (MOME). Das jüngste Ergebnis ist das CARE-MOMO („MOMO“ steht für „Morality Module“ bzw. „Moralmodul“), das von Marc Heimann an der Hochschule für Wirtschaft FHNW umgesetzt wurde und den Assistenzroboter Lio von F&P Robotics erweitern soll. Es baut auf dem MOME von 2019/2020 auf, das auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen und sozialen Vorstellungen und grundsätzlichen Haltungen übertragen. Implementiert wurde ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Unter „Soziales“ findet sich die Frage „Soll Lio diskret sein, wenn ich in einer intimen Situation bin?“. Der Roboter soll sich gegebenenfalls wegdrehen oder zeitweise ausschalten. Der Bereich „Transparenz“ enthält die Frage „Soll Lio mitteilen, wenn die Kamera eingeschaltet oder benutzt wird?“. Ende Oktober 2022 wurde das CARE-MOMO bei F&P Robotics in Glattbrugg bei Zürich präsentiert. Der CEO Michael Früh zeigte sich interessiert, einzelne Elemente des Moralmoduls bei Lio zu übernehmen. In den kommenden Wochen wird dies im Einzelnen geprüft. Am 15. Dezember findet eine Demonstration des CARE-MOMO durch Oliver Bendel und Marc Heimann bei der ICSR statt, einer der führenden Konferenzen der Sozialen Robotik. Dieses Mal trifft man sich in Florenz. Bereits zwei Tage vorher stellt der Maschinenethiker die Erfindung und ihre Geschichte in einem Vortrag auf einem der Workshops vor.

Abb.: Lio im Einsatz (Foto: F&P Robotics)

Von Sparko bis Aibo

Es ist gar nicht so einfach, überzeugende Robotertiere herzustellen. Vor allem, wenn es sich um Arten handelt, die wir gut kennen. Mit Roboterhunden hat man früh angefangen. Dem humanoiden Roboter Elektro hat man schon bald nach seiner Entwicklung Ende der 1930er-Jahre den kleinen Sparko an die Seite gestellt, im Jahre 1940. Aibo von Sony gehört zu den am weitesten entwickelten Tierrobotern. Er ist aber sehr teuer. Daneben gibt es viele weitere hundeähnliche Roboter oder Spielzeuge, die mehr oder weniger überzeugen. Sie überzeugen meist mehr als Roboterkatzen – es ist schwer, diese umzusetzen. Roboterhunde und Spielzeughunde benötigen keine Nahrung, nur Strom, und keine ständige Betreuung. Sie lösen auch keine Allergien aus. Dass sie keine Nahrung brauchen, kann für Veganer wichtig sein. Hunde und Katzen sind ein entscheidender Faktor bei der Massentierhaltung. Man kann sie zwar vegan ernähren, aber ob das artgerecht ist, ist umstritten. Prof. Dr. Oliver Bendel wurde von Adrian Lobe zu Roboterhaustieren befragt. Der Artikel mit seinen Aussagen ist am 1. Dezember 2022 in der österreichischen Wochenzeitschrift Die Furche unter dem Titel „Roboterhunde: Aibo statt Balu“ erschienen und kann über www.furche.at/wissen/roboterhunde-aibo-statt-balu-9855359 abgerufen werden.

Abb.: Aibo von Sony

Conversational Agents für tote, ausgestorbene und gefährdete Sprachen

Chatbots und Sprachassistenten – sogenannte Conversational Agents – entstanden an der Hochschule für Wirtschaft FHNW von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Prof. Dr. Oliver Bendel möchte sich nun verstärkt um tote, ausgestorbene und gefährdete Sprachen kümmern. @ve ist ein erster Versuch in dieser Richtung. Gewonnen werden konnte dafür im September 2022 der Entwickler Karim N’diaye. Er stellte am 17. November 2022 an der Hochschule die Zwischenergebnisse vor. Der Chatbot basiert auf GPT-3, einem Sprachmodell, das Deep Learning einsetzt, um natürlichsprachliche Fähigkeiten zu erlangen. Das neuronale Netzwerk weist etwa 175 Milliarden Parameter auf, was einen Rekord darstellt. Kombiniert mit einer Wissensdatenbank, welche Informationen über die lateinische Sprache enthält, kann @ve präzise Antworten auf Benutzeranfragen generieren. Mit ihr kann man also auf Lateinisch plaudern und etwas darüber erfahren. Weitere Projekte mit Chatbots und Sprachassistenten ab 2023 sollen sich gefährdeten und aussterbenden Sprachen widmen. Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Mit „Romulus“ hat Sky Italia eine Serie in dieser toten Sprache produziert und sie damit ein Stück weit lebendig gemacht. In Deutschland ist sie auf Magenta TV mit Untertiteln zu sehen. Informationen zu @ve werden Ende Dezember 2022 über www.ave-bot.ch bereitgestellt.

Abb.: Auch Sardisch ist eine gefährdete Sprache

Ein sprechender und duftender Umarmungsroboter

Das HUGGIE-Projekt an der Hochschule für Wirtschaft FHNW schreitet voran. Unter der Leitung von Prof. Dr. Oliver Bendel wird das vierköpfige Team (Andrea Puljic, Robin Heiz, Ivan De Paola, Furkan Tömen) bis Januar 2023 eine Umarmungspuppe an Benutzern testen. Bereits bekannt ist, dass Wärme und Weichheit der Arme und des Körpers erwünscht sind. Nun wird untersucht, ob z.B. auch Stimme, Vibration und Geruch die Akzeptanz erhöhen. Die Leitfrage des Praxisprojekts ist: Kann ein sozialer Roboter durch Umarmungen und Berührungen zur Steigerung des körperlichen und geistigen Wohlbefindens beitragen, und welche Faktoren sind dabei zu berücksichtigen? Die Grundlage von HUGGIE ist eine Schneiderpuppe. Hinzu kommen Kleidung, ein Wärmeelement, ein Vibrationselement und ein Audiosystem. Zusätzlich wird ein Duft appliziert. Die Arme werden über unsichtbare Fäden bewegt, sodass aktive Umarmungen möglich sind. Insgesamt entsteht der Eindruck eines Umarmungsroboters. In einem Schweizer Unternehmen fand im November 2022 ein Probelauf mit 65 Probanden statt. Sie wurden von HUGGIE und einem Riesenteddy umarmt. Anhand der Ergebnisse und Eindrücke werden der Fragebogen und die Versuchsanordnung verbessert. Ab Ende November 2022 tritt das Projekt in seine finale Phase, mit Durchführung und Auswertung der Tests.

Abb.: Das Team vor dem Probelauf

Ein Roboter, der Erdbeeren pflückt

Ein Roboter als Erntehelfer – daran arbeitet IAV aus Berlin laut eigenen Angaben in einem Pionierprojekt gemeinsam mit großen Landwirtschaftsbetrieben in Deutschland. Der Ernteroboter sei derzeit „auf das Pflücken von Erdbeeren spezialisiert“ (Website IAV), das System lasse sich jedoch skalieren und auch an weitere Zielfrüchte, wie etwa Tomaten oder Paprika, anpassen. Zu den verwendeten Technologien gehören patentierte Scheren- und Fächergreifer. Diese schneiden die Frucht am Stiel ab und „greifen sie gleichzeitig, damit sie nicht herunterfällt“ (Website IAV). Danach legen sie sie „sorgfältig in der Palettierung ab“ (Website IAV). Mit Computervision erhöhe man die Erkennungsrate der Zielfrüchte. „Dafür wurden tausende Bilder diverser Früchte zu verschiedenen Tages- und Nachtzeiten eingesetzt, um den Algorithmus zu optimieren, die Position der einzelnen Erdbeere präzise zu ermitteln und den Reifegrad der Frucht zu bestimmen.“ (Website IAV) Möglich seien bis zu 20 Stunden Pflücken ohne Pause. Eine spezifische Infrastruktur wie Schienen sei nicht notwendig. Im Rahmen von Tests wurden laut IAV über 3,5 Millionen Schnitte vorgenommen, bei einer Arbeitszeit von 2500 Stunden. Weitere Informationen über www.iav.com/volle-beere-in-die-zukunft-mit-unserem-neuen-ernteroboter.

Abb.: Der Roboter fasst die Erdbeeren laut IAV so sanft an wie ein Mensch

Billi aka BellaBot bei Hiltl Sihlpost

Bei Hiltl Sihlpost ist seit kurzer Zeit Billi im Einsatz, ein Transportroboter. In einem Tweet vom 28. Oktober 2022 schreibt das nach eigenen Angaben älteste vegetarische Restaurant der Welt: „Bei uns sind alle herzlich willkommen: Ob Mensch, Tier oder Roboter. Das ist Billi – unsere neue Unterstützung am Hiltl[-]Buffet. Begleite Billi am 1. Arbeitstag in der Hiltl Sihlpost oder statte gleich einen Besuch ab.“ Bei Billi handelt es sich offenbar um BellaBot, einen weiblich anmutenden Serviceroboter aus China. Dieser verfügt über ein Display, auf dem ein animiertes Katzengesicht mit großen (oder vor Wonne zusammengekniffenen) Augen, Mund und Schnurrbarthaaren zu sehen ist, zudem über schwarze Öhrchen aus Kunststoff. Adrian Lobe hatte Prof. Dr. Oliver Bendel Ende 2021 für die TAZ zu BellaBot interviewt. Er wollte u.a. wissen, ob solche Modelle, die weibliche Attribute aufnehmen, Stereotype befördern. Der Informations- und Maschinenethiker hat nichts dagegen, dass soziale Roboter ein Geschlecht vorgeben und z.B. eine weibliche oder männliche Stimme haben. Dies bringt in vielen Menschen etwas zum Klingen. Eine neutrale Stimme leistet dies nicht unbedingt. Zugleich ist es seiner Ansicht nach nicht notwendig, in allen Zusammenhängen weitreichende humanoide oder animaloide Erscheinungsformen zu wählen. Ein europäischer Konkurrent zu BellaBot ist mit Plato entstanden. Er wurde im November 2022 von der United Robotics Group auf den Markt gebracht. Plato hat große runde Augen, Augenbrauen und einen Mund, die ebenfalls Animationen auf einem Display sind. Es wird sich zeigen, welche Modelle die Betreiber und ihre Gäste bevorzugen.

Abb.: Am Zürisee

@ve, ein Chatbot für Latein

Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Jahrhundertelang hat es an vergnüglichen Möglichkeiten gemangelt, die Sprache zu erlernen und anzuwenden. Allenfalls Asterix-Comics brachten etwas Abwechslung ins von Caesar und Co. beherrschte Gebiet. Prof. Dr. Oliver Bendel hat an der Hochschule für Wirtschaft FHNW einen Chatbot in Auftrag gegeben, der sich auf Lateinisch unterhalten kann, und ihm den Namen @ve gegeben. Karim N’diaye bereitet seit September 2022 die Umsetzung vor, die dann ab Mitte November 2022 – nach der Zwischenpräsentation – erfolgt. Prof. Dr. Bradley Richards betreut das Projekt in technischer Hinsicht. Nach einer Evaluation hat sich gezeigt, dass sich Quickchat (www.quickchat.ai) als Plattform eignet. Damit basiert der Chatbot auf GPT-3. Durch eine händisch erstellte Wissensbasis kann er noch spezifischer für Latein trainiert werden – und auch präzisere Antworten zu grammatikalischen Fragen liefern. In diesem Zusammenhang ist Zweisprachigkeit, also Deutsch und Lateinisch, möglich. Bis Ende des Jahres soll @ve als Prototyp vorliegen. Wie bei allen Projekten zu Chatbots und Sprachassistenten, die Oliver Bendel initiiert, können die Ergebnisse frei verwendet werden.

Abb.: Touristen in Rom

The Digital Twin of Bruce Willis

According to the Telegraph, Bruce Willis „has become the first Hollywood star to sell his rights to allow a ‚digital twin‘ of himself to be created for use on screen“ (Telegraph, 28 September 2022). Instead of a digital twin, we can also speak of a new kind of avatar here. „Using deepfake technology, the actor appeared in a phone advert without ever being on set, after his face was digitally transplanted onto another performer.“ (Telegraph, 28 September 2022) In a statement on the website of the responsible US firm Deepcake, Willis said: „I liked the precision of my character. It’s a great opportunity for me to go back in time. The neural network was trained on content of ‚Die Hard‘ and ‚Fifth Element‘, so my character is similar to the images of that time. With the advent of the modern technology, I could communicate, work and participate in filming, even being on another continent. It’s a brand new and interesting experience for me, and I grateful to our team.“ (Website Deepcake) The actor will certainly find many imitators. The new avatars will soon be a natural part of advertising. Whether they will also be part of films has not yet been clarified. For most actors, including Bruce Willis, such a licensing would probably go too far.

Fig.: Bruce Willis has a digital twin

Ein Umarmungsroboter für Extremsituationen

Am 2. September 2022 fand an der Hochschule für Wirtschaft FHNW das Kick-off-Meeting zum HUGGIE-Projekt statt. Unter der Leitung von Prof. Dr. Oliver Bendel wird das vierköpfige Team bis Januar 2023 einen Umarmungsroboter bauen und an Benutzern testen. Dies war bereits 2020 geplant, wurde aber durch die Pandemie vereitelt. Stattdessen erarbeiteten Leonie Stocker und Ümmühan Korucu theoretische Grundlagen und führten eine Onlinebefragung durch. Die Ergebnisse wurden im Buch „Soziale Roboter“ unter dem Titel „In den Armen der Maschine“ veröffentlicht. Der soziale Roboter HUGGIE soll zu einem guten Leben beitragen, indem er Menschen berührt und umarmt. Bereits bekannt ist, dass Wärme und Weichheit der Arme und des Körpers gewünscht werden. Nun wird untersucht, ob z.B. auch Töne, Stimmen, Vibrationen und Gerüche die Akzeptanz erhöhen. Auch das Aussehen soll variiert werden: Möchte man eher von einem weiblich oder männlich anmutenden Roboter umarmt werden? Eher von einem tierähnlichen oder einem menschenähnlichen? Was ist mit einem modifizierten, technisierten Teddybären? Die Leitfrage des Praxisprojekts ist: Kann ein sozialer Roboter durch Umarmungen und Berührungen zur Steigerung des körperlichen und geistigen Wohlbefindens beitragen, und welche Faktoren sind dabei zu berücksichtigen? Letztlich sollen Roboter dieser Art vor allem in Extremsituationen eingesetzt werden, bei Krisen und Katastrophen, bei Krankheiten, mit denen Isolation verbunden ist, oder bei Marsflügen.

Abb.: Will man von einem Teddybären umarmt werden?

Ein sozialer Roboter als interaktiver Lernpartner von Kindern mit Diabetes

Sara Zarubica entwickelte im Rahmen ihrer von Prof. Dr. Oliver Bendel betreuten Abschlussarbeit an der Hochschule für Wirtschaft FHNW für ein Kinderspital eine auf einem sozialen Roboter laufende Lernanwendung. Das Ziel war es laut Abstract, aus Pepper einen interaktiven Lernpartner zu machen, mit dem die Kinder „das Schätzen von Kohlenhydratmengen in Mahlzeiten üben und so eine Grundlage für den täglichen Umgang mit Diabetes mellitus Typ 1 schaffen können“ (Abstract). Im Abstract heißt es weiter: „Zu Beginn der Arbeit wurden die Anforderungen an die Lernsoftware mit der Auftraggeberschaft besprochen und danach ergänzt und dokumentiert. Basierend darauf erfolgten Recherchen in Bezug auf das Design der Lernsoftware, deren Ergebnisse in einer Mindmap zusammengetragen wurden.“ (Abstract) Zur Visualisierung der Lernsoftware erstellte die Studenin anhand der Mindmap ein Mockup. Dann erarbeitete sie den Fragenkatalog für die Lernsoftware. Für die Evaluation des Technologie-Stacks führte sie eine Nutzwertanalyse durch. Aufgrund der Ergebnisse wählte sie das Betriebssystem NAOqi 2.5 für die Implementierung der Roboterinteraktion aus. „Basierend auf dem Wunsch der Auftraggeberschaft, dass das Lernspiel auch ohne Pepper funktionieren solle, wurde für das Lernspiel eine Webapplikation erstellt. Für die Kommunikation zwischen der Weblösung und Pepper wurde eine Schnittstelle entwickelt, welche das LibQi-JavaScript-SDK benutzt, um so Dienste zur Roboterinteraktion aufzurufen.“ (Abstract)  Für das Setup von Pepper und das Abfangen von Events verwendete die Entwicklerin bereits vordefinierte Elemente in Python und passte sie für den vorliegenden Zweck an. „Sämtliche Systemtests in der Testphase verliefen erfolgreich und der Akzeptanztest wurde an zwei Halbtagen in der Kinderklinik … durchgeführt. Allen zehn Teilnehmern am Akzeptanztest hat die Interaktion mit Pepper gut gefallen und acht von zehn Kindern würden das Spielen mit Pepper sogar gegenüber dem Tablet vorziehen.“ (Abstract) Kommunikation und Interaktion bestehen darin, dass Pepper spricht, Kopf- und Körperbewegungen macht und mit den Armen gestikuliert. Er erinnert sich an den Namen des Benutzers und gebraucht diesen während der Konversation. Das Kinderspital darf als Auftraggeber die Lernsoftware einsetzen und weiterentwickeln.

Abb.: Sara Zarubica bei der Demonstration der Lernsoftware

Ein Moralmodul, das über die Moral hinausgeht

Das CARE-MOMO („MOMO“ steht für „Morality Module“ bzw. „Moralmodul“) soll den Assistenzroboter Lio von F&P Robotics erweitern. Es baut auf dem MOME auf, dem Moralmenü, das bereits 2019/2020 entwickelt und 2020 auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen Vorstellungen und grundsätzlichen Einstellungen übertragen. Marc Heimann erarbeitete ab Frühjahr 2022 im Rahmen seiner Abschlussarbeit die Optionen, die in einem Brainstorming mit dem Betreuer Oliver Bendel ergänzt und von F&P Robotics begutachtet wurden. Implementiert wird bis Mitte August ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Unter „Soziales“ findet sich etwa die Frage „Soll Lio diskret sein, wenn ich in einer intimen Situation bin?“. Der Roboter soll sich gegebenenfalls wegdrehen oder zeitweise ausschalten. Der Bereich „Transparenz“ enthält die Frage „Soll Lio mitteilen, wenn die Kamera eingeschaltet oder benutzt wird?“. Das CARE-MOMO wird als Webservice mithilfe von Spring prototypisch umgesetzt. Verwendet werden HTML, CSS und JavaScript sowie das Bootstrap-Framework für die Webseite und Java, JSON und REST für die Services und das Back-End. Die Firma entscheidet dann in der Folge, ob das Moralmodul gesamthaft oder teilweise für das Produkt übernommen wird.

Abb.: Der P-Rob-Arm ist Teil von Lio (Foto: Daimler und Benz Stiftung)

Ein Roboter als Barkeeper bei der Migros

Barney ist ein schwarzer oder schwarz-weißer, elegant anmutender Roboterarm, der in einem festgefügten Setting samt Kaffeevollautomat oder in einer barhaften Installation mit Cocktailzutaten agiert und interagiert. Er basiert auf dem P-Rob-Modell von F&P Robotics. Seine Tour durch die Schweiz hat im Mai 2022 begonnen, im Rahmen der „Mocktail-Bar“-Aktion der Migros. Das Wort „Mocktail“ (engl. „to mock“: „nachahmen“, „vortäuschen“) bezeichnet einen Cocktail ohne Alkohol. Praktischerweise beginnt es auch mit einem großen M. Der Detailhändler verzichtet in seinen Läden auf Alkoholisches, was vor kurzem durch eine Abstimmung der Genossenschaftsmitglieder bestätigt wurde. Barney – derzeit in Wetzikon anzutreffen – nimmt nach der Bestellung des Gastes an der Theke ein Glas, hält es unter verschiedene Zapfhähne, über denen zur Zierde schlanke Flaschen angebracht sind, und stellt so die Grundlage des Getränks zusammen. Das Finishing, etwa das Bestücken mit Früchten, erledigen menschliche Barkeeper in einem separaten Bereich. Im Rahmen ihrer Bachelorarbeit beobachtet Lea Peier derzeit mehrere Modelle im Betrieb, neben Barney Bar auch die Smyze RoboBar. Die Bachelorarbeit wird betreut von Prof. Dr. Oliver Bendel.

Abb.: Barney bei der Migros in Wetzikon

Kranke Kinder lernen mit Pepper

Die IT-Spezialistin Sara Zarubica entwickelt seit April 2022 unter der Betreuung von Prof. Dr. Oliver Bendel an der Hochschule für Wirtschaft FHNW eine Lernsoftware für Pepper, die Kindern mit Diabetes in einem Kinderspital grundlegendes Wissen vermittelt. Der soziale Roboter eignet sich gut für diesen Anwendungsfall, weil er über ein Display im Brustbereich verfügt. Die Lernsoftware läuft darauf und kann darüber gesteuert werden. Zusätzlich gibt Pepper verbales und gestisches Feedback, etwa wenn eine Aufgabe richtig gelöst wurde. Im Fokus ist das Abschätzen der Kohlenhydratwerte von Nahrungsmitteln und Mahlzeiten. Es ist für die Kinder wichtig zu wissen, wie viele Kohlenhydrate sie zu sich genommen haben, da davon die zu spritzende Menge des Insulins abhängt. Das grundlegende Wissen über Diabetes kann durch die Wissensfragen im Spiel auch erlernt werden, steht aber nicht im Zentrum. Die Lernanwendung ist kurz vor der Fertigstellung. Die Kinder im Spital waren bei den Tests mehrheitlich begeistert und begrüßten die Abwechslung. Ab Mitte August 2022 liegen die Ergebnisse des Projekts vor, also der Bericht mitsamt der Dokumentation und die Programmierung selbst.

Abb.: Sara Zarubica mit ihrer Lernsoftware für Pepper

A New Text-to-Art Engine

DALL·E 2 is a new AI system that can create realistic images and art from a description in natural language. It was announced by OpenAI in April 2022. The name is a portmanteau of „WALL-E“ and „Salvador Dalí“. The website openai.com says more about the program: „DALL·E 2 can create original, realistic images and art from a text description. It can combine concepts, attributes, and styles.“ (Website openai.com) Moreover, it is able to „make realistic edits to existing images from a natural language caption“ and to „add and remove elements while taking shadows, reflections, and textures into account“ (Website openai.com). Last but not least, it „can take an image and create different variations of it inspired by the original“ (Website openai.com). The latter form of use is shown by variations of the famous painting „Girl with a Pearl Earring“ by Johannes Vermeer. The website says about the principle of the program: „DALL·E 2 has learned the relationship between images and the text used to describe them. It uses a process called ‚diffusion,‘ which starts with a pattern of random dots and gradually alters that pattern towards an image when it recognizes specific aspects of that image.“ (Website openai.com) DALL·E mini is a slimmed down version of the powerful program, with which you can gain a first insight. The six images below were automatically generated by DALL·E mini from the text „A young female astronaut with long hair on the flight to Mars“. In total, 9 suggestions were made in a few seconds. Overall, this is a fascinating and valuable project. From the perspective of information ethics and the philosophy of technology, many questions arise.

Fig.: A young female astronaut with long hair on the flight to Mars (Photo: DALL·E mini)

Volodymyr Zelenskiy Appears as a Hologram

„Leia in ‚Star Wars‘, who as a hologram delivers a message, Darth Vader, who forges plans with the imperator even though they are far apart from each other, William Riker in ‚Star Trek‘, who moves on the holodeck through artificial landscapes, Major in ‚Ghost in the Shell‘, who walks through a city while fish are swimming in the air next to her, Officer K in ‚Blade Runner 2049‘, who lives together with a holographic assistant and meets holographic dancers and singers (Frank Sinatra under glass and Elvis Presley on stage) – fictional holograms make an appearance in all these instances.“ (Oliver Bendel, „Hologram Girl“ – 2018) According to the Guardian, Volodymyr Zelenskiy referenced Star Wars and the second world war as he appeared as a hologram (or pseudo-hologram) at a conference in Paris to seek aid from big tech companies. „He told a crowd of hundreds at the VivaTech trade show that he was offering technology firms a unique chance to rebuild Ukraine as a fully digital democracy.“ (Guardian, June 17, 2022) The British newspaper quotes him as saying: „It’s unusual for presidents or heads of government to use a hologram to address people but this is not the only aspect of Star Wars that we are putting into practice“ (Guardian, June 17, 2022). The Ukrainian president is not only following in the footsteps of Leila, but also of ABBA, who are currently causing a sensation with their avatars at concerts in London.

Abb.: Ein fiktionales Hologramm

Ein dreigliedriger Roboterfinger, überzogen mit menschlicher Haut

Als umgekehrter oder umgedrehter Cyborg („reversed cyborg“ oder „inverted cyborg“) kann nach den Ausführungen von Oliver Bendel eine technische Struktur gelten, in die eine biologische eingepasst wird. Es handelt sich, so der Informations- und Maschinenethiker, vorrangig um einen Topos von Science-Fiction, wie im Falle von „Terminator“ aus dem Jahre 1984. In seinem Beitrag „Überlegungen zu Bio- und Bodyhacking“ (HMD, 10. März 2020) schreibt er: „In Experimenten konnten Schweinehirne außerhalb des Körpers am Leben gehalten werden … Sollte es eines Tages gelingen, Gehirne oder andere Organe in Roboter einzupflanzen, mit der Folge, dass diese von ihnen gesteuert oder wesentlich ergänzt werden, würde der umgekehrte Cyborg resultieren. Von einem solchen könnte man freilich schon sprechen, wenn Gehirn- und Nervenzellen in technischen Strukturen heranwachsen und sich mit diesen funktional verbinden, etwa indem elektrische Signale auf Aktoren einwirken.“ Ein dreigliedriger Roboterfinger, der mit menschlicher Haut überzogen ist, kann ebenfalls Teil eines umgekehrten Cyborgs sein. Beschrieben wird er im Artikel „Living skin on a robot“ von Michio Kawai, Minghao Nie, Haruka Oda, Yuya Morimoto und Shoji Takeuchi (Universität Tokio), erschienen am 9. Juni 2022 im Journal Matter. Selbst Wundheilung soll bei ihm erfolgreich stattfinden. Mit der Haut könnte im Prinzip auch eine ganze Roboterhand und sogar ein Roboterkopf überzogen werden. Der Terminator lässt grüßen.

Abb.: Die menschliche Haut verfügt über Selbstheilungskräfte

Onlineumfrage zu Polizeirobotern

In seiner Abschlussarbeit an der Hochschule für Wirtschaft FHNW untersucht Alan Chethipuzha aus Bern den Einsatz von Robotern bei der Polizei. Er erarbeitet begriffliche und technische Grundlagen, beschreibt Beispiele aus der ganzen Welt und stellt ethische Überlegungen an. Über zwei Expertengespräche hat er bereits wichtige Erkenntnisse zu Theorie und Praxis erhalten. Nun versucht er über eine Onlineumfrage etwas über die Haltung der Bevölkerung zu Sicherheits-, Überwachungs- und Polizeirobotern in der Schweiz in Erfahrung zu bringen. Vom 2. bis zum 16. Juni 2022 kann man teilnehmen. Zu gewinnen gibt es 2-mal 25 Franken. Die Onlineumfrage kann über forms.office.com/r/6Chi3Kc3kG aufgerufen werden. Auftraggeber und Betreuer der Abschlussarbeit ist Prof. Dr. Oliver Bendel. Er forscht und schreibt seit Jahren über Sicherheitsroboter. Auf der Robophilosophy 2022, der wichtigsten Konferenz zu sozialen Robotern aus gesellschaftlicher Perspektive, trägt er im August 2022 zum Thema „Robots in Policing“ vor. Davon unabhängig liegen im selben Monat die Ergebnisse von Alan Chethipuzha vor.

Abb.: Braucht es neben Autos auch Roboter?

Keine Drohnentransporte mehr über dem Zürichsee?

Die Schweizerische Post und PostAuto sind Pioniere im Einsatz von Roboterfahrzeugen, Robotern und Drohnen. Nun meldet die Schweizerische Post den Rückzug aus einem Projekt, bei dem Drohnen u.a. für den Transport von Laborproben eingesetzt wurden. „Seit 2017 flogen die Drohnen der Post in verschiedenen Städten der Schweiz im Dienst von Spitälern. Nach fünf Jahren Pionierarbeit hat die Post entschieden, ihr Drohnenprojekt dem kalifornischen Drohnenentwickler Matternet zu übergeben. Die autonomen Drohnen stossen zwar weltweit auf Interesse, sind aber im derzeitigen regulatorischen Umfeld für unbemannte Luftfahrzeuge für die Post in der Schweiz nicht breit genug einsetzbar und nicht rentabel zu betreiben. Die Post konzentriert sich mit ihrer neuen Strategie auf die Logistiklösungen im Kerngeschäft und darauf, auch künftig den Service public für die Schweiz mit eigenen Mitteln zu finanzieren. Aus diesem Grund ist dieser strategische Entscheid ein logischer Schritt.“ (Medienmitteilung Schweizerische Post, 1. Juni 2022) Im Projekt gab es immer wieder Probleme. So stürzte beispielsweise einmal eine Drohne in den Zürichsee. Dennoch wurde der Ansatz allgemein als innovativ angesehen. Man darf gespannt sein, ob die Drohnentransporte eines Tages wieder aufgenommen werden.

Abb.: Eine Drohne über einem See

Ein Pflegeroboter erhält ein Moralmodul

Immer mehr Roboter werden im Pflegebereich eingesetzt. Die meisten von ihnen sind Prototypen, einige sogar Produkte, die in kleinen Serien hergestellt werden, wie Lio und P-CARE von F&P Robotics. Die Maschinenethik erforscht und schafft moralische Maschinen. Diese lassen sich oft von bestimmten Werten oder Metaregeln leiten, sie folgen vorgegebenen Regeln oder sie lernen aus Situationen und passen ihr Verhalten an. Das CARE-MOMO („MOMO“ steht für „Moralmodul“) ist ein Moralmodul, das Lio erweitern kann. Es baut auf dem MOME auf, dem Moralmenü, das bereits 2019/2020 entwickelt und 2020 auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Patient seine Präferenzen wählen und so auf einfache Weise seine sittlichen und moralischen Vorstellungen übertragen. Dabei wird auf eine 1:1-Beziehung zwischen Mensch und Maschine fokussiert. Marc Heimann erarbeitete im Rahmen seiner Abschlussarbeit bereits mehrere Vorschläge, die in einem Brainstorming mit dem Betreuer Oliver Bendel am 19. Mai 2022 ergänzt wurden. Das CARE-MOMO ist das dreizehnte Artefakt, das im Arbeitsbereich von Oliver Bendel entsteht. Mehrere davon – etwa LIEBOT, LADYBIRD oder HAPPY HEDGEHOG – wurden bei internationalen Konferenzen vorgestellt und haben mediale Aufmerksamkeit erregt. Das CARE-MOMO-Projekt begann im März und läuft noch bis August 2022. Das Ergebnis ist eine prototypische Umsetzung des Moralmoduls.

Abb.: Lio im Einsatz in der Schweiz (Foto: F&P Robotics)