Pepper zu Besuch im Spital

Sara Zarubica entwickelte 2022 im Rahmen ihrer von Prof. Dr. Oliver Bendel betreuten Abschlussarbeit an der Hochschule für Wirtschaft FHNW für ein Kinderspital eine auf einem sozialen Roboter laufende Lernanwendung. Das Ziel war es laut Abstract, aus Pepper einen interaktiven Lernpartner zu machen, mit dem die Kinder „das Schätzen von Kohlenhydratmengen in Mahlzeiten üben und so eine Grundlage für den täglichen Umgang mit Diabetes mellitus Typ 1 schaffen können“ (Abstract). Der Buchbeitrag „Pepper zu Besuch im Spital: Eine Lernanwendung für diabeteskranke Kinder und die Frage nach ihrer sozialen Angemessenheit“ von Oliver Bendel und Sara Zarubica stellt das Projekt vor und verbindet es mit Überlegungen zur sozialen Angemessenheit. Im ersten Kapitel wird in das Thema eingeführt. Das zweite legt Grundlagen zu sozialen Robotern und präsentiert exemplarisch deren Einsatz im Gesundheitsbereich. Das dritte beschreibt die Vorbereitung und Durchführung des Projekts, zudem die Tests mit den Kindergruppen im Spital. Im vierten Kapitel gehen die Autoren auf die soziale Angemessenheit der Gestaltung und Umsetzung ein, unter Berücksichtigung der bisherigen Ergebnisse und Erkenntnisse. Es wird dargelegt, wie physische Präsenz, humanoides Aussehen sowie verbales und gestisches Feedback den Lernerfolg und die Lernfreude unterstützen und wie sie Teil eines simulierten sozialen Settings in der Kinderklinik sind. Zugleich wird danach gefragt, welche technischen, pädagogischen und ethischen Herausforderungen resultieren und wie diesen mit unterschiedlichen Ansätzen begegnet werden kann. Ein fünftes Kapitel liefert eine Zusammenfassung und einen Ausblick. Der Buchbeitrag erscheint im Herbst 2023 bei Metzler im von Bruno Gransche, Jacqueline Bellon und Sebastian Nähr-Wagener herausgegebenen Band „Technik sozialisieren?“.

Abb.: Sara Zarubica mit Pepper

Bing – aus der Suchmaschine wird dank ChatGPT eine Antwortmaschine

Microsoft hat ChatGPT in seine Suchmaschine Bing integriert. Man bekommt auf der linken Seite des Bildschirms wie gewohnt eine Liste mit Websites angezeigt, rechts aber die Antworten des Chatbots und Content-Generators. So kann man nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Wenn man sich erkundigt, wie man die Pilzcremesuppe zubereitet, gibt das System weitere Details preis. Microsoft fällt seit jeher dadurch auf, dass es die deutsche Sprache verfälscht. Im Thesaurus von MS Word wurde früher für das Wort „dunkel“ das Unwort „negerfarbig“ angegeben. Die Rechtschreibprüfung des Textverarbeitungsprogramms ignoriert wesentliche Regeln der deutschen Rechtschreibung, vor allem zu Getrennt- und Zusammenschreibung. Auf LinkedIn und Twitter herrscht eine Kunstsprache vor, in der im Wortinneren Sternchen oder Doppelpunkte vorkommen. ChatGPT gefällt bisher durch relativ korrekte Sätze. Aber auf der Website von Bing wird man wieder stutzig. Dort heißt es etwa: „Stellen Sie Fragen, wie Ihnen gefällt. Führen Sie eine komplexe Suche durch. Zur Nachverfolgung. Verfeinern Sie den Chat. Sie werden verstanden – und erstaunt.“ (Website Bing) Das erstaunt in der Tat, und man würde sich wünschen, dass Microsoft und andere Unternehmen – deutsche wie DeepL eingeschlossen – die deutsche Sprache in Zukunft besser behandeln.

Abb.: Staunen über die Sprache

A Living Tamagotchi

Jasmine Lu and Pedro Lopes of the University of Chicago published a paper in late 2022 describing the integration of an organism – the single-celled slime mold Physarum Polycephalum – into a wearable. From the abstract: „Researchers have been exploring how incorporating care-based interactions can change the user’s attitude & relationship towards an interactive device. This is typically achieved through virtual care where users care for digital entities. In this paper, we explore this concept further by investigating how physical care for a living organism, embedded as a functional component of an interactive device, also changes user-device relationships. Living organisms differ as they require an environment conducive to life, which in our concept, the user is responsible for providing by caring for the organism (e.g., feeding it). We instantiated our concept by engineering a smartwatch that includes a slime mold that physically conducts power to a heart rate sensor inside the device, acting as a living wire. In this smartwatch, the availability of heart-rate sensing depends on the health of the slime mold – with the user’s care, the slime mold becomes conductive and enables the sensor; conversely, without care, the slime mold dries and disables the sensor (resuming care resuscitates the slime mold).“ (Lu and Lopes 2022) The paper „Integrating Living Organisms in Devices to Implement Care-based Interactions“ can be downloaded here.

Fig.: A normal Tamagotchi

DeepL Write fällt beim Diktat durch

DeepL Write ist ein KI-basiertes Lektorprogramm, das seit 17. Januar 2023 als Betaversion über www.deepl.com/write verfügbar ist, für die deutsche und die englische Sprache. Es wurde nun mit Hilfe einer Rechtschreibtafel geprüft, die Oliver Bendel im Jahre 2015 erstellt und seitdem immer wieder aktualisiert hat. 1. Der Satz „Alkohol in Maßen ist gesund.“ wurde nicht beanstandet. Bei „Herzlich willkommen“ wurde „Willkommen“ vorgeschlagen. Als weitere Alternative zeigte das Tool „Herzlich Willkommen“ an, also eine falsche Schreibweise. 2. „Frühlingserwachen“ wurde nicht beanstandet. Als erste Alternative zu „Social-Media-Konferenz“ wurde „Social Media Konferenz“ vorgeschlagen, also eine falsche Schreibweise. Hier muss zwingend durchgekoppelt werden. Für „Donaudampfschifffahrtsgesellschaftskapitänsmütze“ offerierte DeepL Write solide Optionen wie „Kapitänsmütze der Donaudampfschifffahrtsgesellschaft“. 3. Zu „Wir betreten unser neues Haus, in dem man komfortabel wohnen kann.“ wurden merkwürdige Alternativen wie „Betreten unseres neuen Hauses, in dem es sich gut leben lässt.“ aufgeführt. „Wirksam führen“ wurde als korrekt erkannt, ebenso wie „Lenny und Laura gehen schwimmen.“ (wobei hier die Alternative „Lenny und Laura gehen baden.“ aufgelistet wurde). 4. Der korrekte Plural in „Die erste und die zweite Sturmwarnung wurden missachtet.“ wurde auch Bestandteil der verschiedenen Varianten. 5. „Das gibt’s doch nicht!“ wurde als korrekt erkannt, ebenso wie „Willis Würstchenbude“. Allerdings zeigte das Tool hier als erste Alternative „Willi’s Würstchenbude“ an. Diese Schreibweise lässt der Duden inzwischen zu, was freilich nicht für das Wörterbuch spricht. 6. „Der Chef fragt sie, ob sie zufrieden ist.“ wurde korrekt als Aussagesatz erkannt und nicht zum Fragesatz umformuliert. 7. Bei „Komm, wir essen, Oma!“ lautete eine Alternative „Komm, lass uns essen, Oma!“. Die Oma blieb in allen Fällen unversehrt. 8. „Die Ärzt*innen“ wurde als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Die weibliche Form nennt man bei Begrüßungen zuerst. Das korrekte generische Maskulinum fehlt bei den Vorschlägen ganz. Das Ergebnis des Tests ist, dass DeepL Write in wesentlichen Aspekten versagt, in Bezug auf Groß- und Kleinschreibung, Zusammen- und Getrenntschreibung und die amtlich fixierten Regeln. Es werden zum Teil eigene Regeln angewandt, die zudem nicht transparent dargestellt werden. Damit ist der Nutzen des Tools grundsätzlich in Frage gestellt. „Schreiben Sie klar, präzise und fehlerfrei“, so heißt es auf der Website – das kann man offenbar besser, indem man sich auf sein Sprachgefühl und den Rechtschreibrat verlässt.

Abb.: Die Rechtschreibtipps von Oliver Bendel

Atlas from Boston Dynamics Finally has Hands

„Boston Dynamics just released the latest demo of its humanoid robot, Atlas. The robot could already run and jump over complex terrain thanks to its feet. Now, the robot has hands, per se. These rudimentary grippers give the robot new life. Suddenly, instead of being an agile pack mule, the Atlas becomes something closer to a human, with the ability to pick up and drop off anything it can grab independently.“ (TechCrunch, January 18, 2023) This was reported by TechCrunch on January 18, 2023. Hands are actually very important for Atlas. The humanoid robot could now pick up or move heavy objects on a construction site. But it could also take care of trapped or injured animals in a nature park, freeing them or providing them with food and water. Such visions have been described by robot ethicist and machine ethicist Oliver Bendel for some time. A video released on January 18, 2023 shows the grippers picking up construction lumber and a nylon tool bag. „Next, the Atlas picks up a 2×8 and places it between two boxes to form a bridge. The Atlas then picks up a bag of tools and dashes over the bridge and through construction scaffolding. But the tool bag needs to go to the second level of the structure – something Atlas apparently realized and quickly throws the bag a considerable distance.“ (TechCrunch, January 18, 2023) At the end of the video, Atlas does a somersault and then extends its hand – its brand new hand – triumphantly.

Fig.: Atlas from Greek mythology at Frankfurt main station

Die kleine Schwester von ChatGPT

Am 19. Januar 2023 fand die Abschlusspräsentation zum Projekt @ve statt, das im September 2022 begonnen hatte. Der Chatbot läuft auf der Website www.ave-bot.ch und auf Telegram. Er basiert wie ChatGPT auf GPT-3 von OpenAI (bei @ve handelt es sich aber nicht um GPT-3.5, sondern um GPT-3.0). Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich verstärkt toten, ausgestorbenen und gefährdeten Sprachen widmen will. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man kann sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel ist @ve ein Tool, das mit Gewinn in den Lateinunterricht integriert werden kann. Dort können die Schüler berichten, was sie mit ihr zu Hause erlebt haben, und sie können mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten. Ein Nachfolgeprojekt zu einer gefährdeten Sprache ist bereits ausgeschrieben.

Abb.: Die Website mit dem Fenster von @ve

DeepL Write – besser als die Prüfung von MS Word, aber nicht gut genug

„Bessere Texte im Handumdrehen“ – so ist DeepL Write betitelt. Und weiter: „Schreiben Sie klar, präzise und fehlerfrei“. Tatsächlich werden viele Rechtschreibfehler korrigiert. Es werden aber offenbar eigene Regeln angewandt. Sätze wie „Die Lektor*innen gehen ihrer ASrbeit nach.“ schreibt DeepL Write in „Die Lektor*innen gehen ihrer Arbeit nach.“ um. Immerhin wurde der Tippfehler erkannt. Den Rest kann und muss man beanstanden, denn im Wortinneren treten keine Sonderzeichen auf, wenn man von Bindestrichen absieht, mit denen man Wörter zu Komposita koppelt, und das Gendersternchen ist als Rechtschreibfehler zu werten. Als Alternative wird „Die Lektor*innen arbeiten.“ angezeigt. Auch hier ist das Gendersternchen nicht eliminiert – zudem ergibt sich eine Bedeutungsverschiebung. Aus „Ich besuche demnächst eine E-Learning Konferenz.“ macht das Tool den Satz „Ich werde demnächst an einer E-Learning-Konferenz teilnehmen.“ Damit wurde aus dem falschen Kompositum „E-Learning Konferenz“ das richtige „E-Learning-Konferenz“ – denn hier muss zwingend durchgekoppelt werden. In diesen Belangen ist die MS-Word-Rechtschreibprüfung sehr schwach, denn es werden von ihr regelmäßig falsch geschriebene Komposita vorgeschlagen (was DeepL Write zuweilen aber auch macht). Die Umformulierung an sich ist unnötig und sogar weniger elegant als das Original. DeepL Write wird Schülern und Studenten dabei helfen, bestimmte Rechtschreibfehler zu vermeiden. Es wird ihnen aber auch umständliche Sätze nahelegen. Und solange es sich nicht an die Regeln des Rechtschreibrats hält, ist der Nutzen begrenzt.

Abb.: Beim Schreiben mit dem und neben dem Computer

Ein Sprachassistent für den atomaren Notfall

Im Studiengang Data Science an der Hochschule für Technik FHNW werden von den Studenten und Studentinnen u.a. Challenges und Mini-Challenges bewältigt. Eine Mini-Challenge, die von Prof. Dr. Oliver Bendel ausgeschrieben wurde, trägt den Titel „Ein Sprachassistent für Krisen und Katastrophen“. Pascal Berger hat die ca. vierzigjährige Julia konzipiert, die die Bewohner der Schweiz im Falle einer atomaren Katastrophe im Inland und im nahen Ausland dabei unterstützen soll, „sich zu beruhigen und entschlossen zu handeln“. Entsprechend gestaltet sich der Ablauf des Dialogs. Im ersten Teil soll sich Julia „kurz vorstellen“ und mit ruhiger Stimme darum bitten, „ruhig durchzuatmen“. Dabei sei es wichtig, dass in der Stimme eine gewisse Empathie zum Ausdruck kommt. Im zweiten Teil soll „der Voicebot versuchen, Verhaltensanweisungen an den Anwender weiterzugeben“. Julia spricht Schweizerdeutsch in einer Ausprägung, die z.B. auch Deutsche gut verstehen können. Für die Erstellung der Beispielsequenz nutzte der Student ttsfree.com. Unter „SELECT LANGUAGE AND REGIONS TO SPEECH“ wählte er „TTS Server 2“, unter „Language:“ die Nummer „62. German (Switzerland) – CH“ und dann „Leni“ als weibliche Stimme. „Voice Pitch“ und „Adjust Voice Speed“ wurden auf den Standardwerten „-50%“ und „-100%“ belassen. Die grundsätzlich nutzbaren SSML-Befehle wirkten sich kaum aus. Das Ergebnis kann hier angehört werden.

Abb.: Eine Skulptur in Hiroshima

Die ABBA-Show Voyage in London

In London strömen die Fans seit Mai 2022 zur ABBA-Show Voyage und zu den darin auftretenden ABBAtaren. Manche sind 70, 80 Jahre alt und mit dem Rollator unterwegs. Andere sind jung und kennen ABBA vor allem über die Filme („Mamma Mia!“ von 2008 und „Mamma Mia! Here We Go Again“ von 2018). Man hat Agnetha, Björn, Anni-Frid und Benny wochenlang ihre Songs vortragen lassen und dabei ihre Bewegungen beim Tanzen und ihre Emotionen beim Singen erfasst. Vor allem hat man Motion Capture verwendet. Die Gesichter wurden anschließend digital verjüngt. Und offensichtlich auch die Körper, die zum Teil unnatürlich dünn wirken, vor allem die Beine der Frauen. Überhaupt verfügen diese über perfekte Figuren und Hintern, und sie beherrschen Moves, die modern wirken – man hat die Bewegungen junger Tänzer und Tänzerinnen hinzugenommen. Die Avatare erscheinen in der Mitte der Bühne. Man macht das in diesem Falle mit riesigen Bildschirmen, Spiegeln und anderen Hilfsmitteln. Die Avatare sollen aussehen wie Hologramme, also eine Präsenz im Raum haben. Es ist sozusagen keine physische Präsenz wie bei Robotern, sondern eine virtuelle. Die Wirkung der Show ist von Anfang an enorm. Das Publikum, das sich auf Dance Floor und Sitzreihen in der ABBA-Arena (engl. „ABBA Arena“) verteilt, jubelt, lacht und weint. Spätestens bei „Dancing Queen“ ist man im ekstatischen Tanz vereint. Reifere Frauen denken vielleicht an ihre vergangene Jugend, ältere Männer an ihre verflossene Jugendliebe. Überhaupt ging es immer wieder um Unsterblichkeit und Vergänglichkeit, um Sein und Schein – „to be or not to be“, wie Benny an einer Stelle deklamierte. Oliver Bendel veröffentlichte 2001 im „Lexikon der Wirtschaftsinformatik“ den Beitrag „Avatar“ und 2019 im Springer-Buch „AI Love You“ (2019) den Beitrag „Hologram Girl“ – wo die damals geplante ABBA-Show bereits erwähnt wird.

Abb.: Die ABBA Arena (Foto: Stefanie Hauske)

21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik

Seit 2012 sind auf Initiative von Oliver Bendel 21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Die letzten Entwicklungen waren ein Konzept von Ali Yürekkirmaz für ein System mit Gesichtserkennung zur Identifizierung von Bären, das von den Teilnehmern der ACI 2022 in Newcastle upon Tyne diskutiert wurde, und das CARE-MOME, präsentiert von Oliver Bendel und Marc Heimann auf der ICSR 2022 in Florenz. Beide Proceedings erscheinen Anfang 2023. In den nächsten Tagen wird das Projekt mit @ve beendet, einem auf GPT-3 basierenden Chatbot für Latein. Man kann mit ihr in dieser toten Sprache plaudern, die dann ganz lebendig erscheint, und ihr auf Deutsch verschiedene Fragen, etwa zur Grammatik, stellen. Der Entwickler Karim N’diaye stellt das Projekt am 19. Januar 2023 an der Hochschule für Wirtschaft FHNW in kleiner Runde vor. In weiteren Projekten will man sich ausgestorbenen und gefährdeten Sprachen widmen. Eine aktualisierte Übersicht zu allen Artefakten ist auf informationsethik.net und maschinenethik.net zu finden.

Abb.: Die aktualisierte Übersicht zu den Artefakten

Das CARE-MOMO bei der ICSR 2022

Am 13. Dezember 2022 begann die ICSR, neben der Robophilosophy die bedeutendste Konferenz zur Sozialen Robotik. Oliver Bendel und Marc Heimann sind mit ihrem Paper „The CARE-MOMO Project“ vertreten. Sie stellten es gleich am Morgen beim Workshop „Robot Companionship: Applications and Challenges“ in einem Vortrag vor. Zudem haben sie am Donnerstag (15. Dezember 2022) eine Posterpräsentation dazu. Mithilfe des Moralmoduls, das das bewährte Moralmenü enthält, können Pflegebedürftige ihre moralischen und sozialen Vorstellungen auf einen Pflegeroboter wie Lio von F&P Robotics übertragen. Der Vortrag fand viel Anklang im vollbesetzten Raum, auch beim Chair, der den Ansatz sehr interessant fand, wie er mehrmals betonte. Das Programm des Workshops kann hier heruntergeladen werden. Weitere Informationen zur Konferenz, die dieses Jahr in Florenz stattfindet, sind über www.icsr2022.it erhältlich.

Abb.: Oliver Bendel mit ARI von PAL Robotics bei der ICSR 2022 (Foto: Marc Heimann)

Das CARE-MOMO als Prototyp

Seit 2012 wurden von Prof. Dr. Oliver Bendel und seinen Teams 13 Artefakte der Maschinenethik und Sozialen Robotik entwickelt, vor allem Prototypen (Chatbots, Sprachassistenten und tierfreundliche Maschinen). Dabei verwendeten sie in mehreren Fällen eigene Ansätze wie annotierte Entscheidungsbäume und das Moralmenü (MOME). Das jüngste Ergebnis ist das CARE-MOMO („MOMO“ steht für „Morality Module“ bzw. „Moralmodul“), das von Marc Heimann an der Hochschule für Wirtschaft FHNW umgesetzt wurde und den Assistenzroboter Lio von F&P Robotics erweitern soll. Es baut auf dem MOME von 2019/2020 auf, das auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen und sozialen Vorstellungen und grundsätzlichen Haltungen übertragen. Implementiert wurde ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Unter „Soziales“ findet sich die Frage „Soll Lio diskret sein, wenn ich in einer intimen Situation bin?“. Der Roboter soll sich gegebenenfalls wegdrehen oder zeitweise ausschalten. Der Bereich „Transparenz“ enthält die Frage „Soll Lio mitteilen, wenn die Kamera eingeschaltet oder benutzt wird?“. Ende Oktober 2022 wurde das CARE-MOMO bei F&P Robotics in Glattbrugg bei Zürich präsentiert. Der CEO Michael Früh zeigte sich interessiert, einzelne Elemente des Moralmoduls bei Lio zu übernehmen. In den kommenden Wochen wird dies im Einzelnen geprüft. Am 15. Dezember findet eine Demonstration des CARE-MOMO durch Oliver Bendel und Marc Heimann bei der ICSR statt, einer der führenden Konferenzen der Sozialen Robotik. Dieses Mal trifft man sich in Florenz. Bereits zwei Tage vorher stellt der Maschinenethiker die Erfindung und ihre Geschichte in einem Vortrag auf einem der Workshops vor.

Abb.: Lio im Einsatz (Foto: F&P Robotics)

Von Sparko bis Aibo

Es ist gar nicht so einfach, überzeugende Robotertiere herzustellen. Vor allem, wenn es sich um Arten handelt, die wir gut kennen. Mit Roboterhunden hat man früh angefangen. Dem humanoiden Roboter Elektro hat man schon bald nach seiner Entwicklung Ende der 1930er-Jahre den kleinen Sparko an die Seite gestellt, im Jahre 1940. Aibo von Sony gehört zu den am weitesten entwickelten Tierrobotern. Er ist aber sehr teuer. Daneben gibt es viele weitere hundeähnliche Roboter oder Spielzeuge, die mehr oder weniger überzeugen. Sie überzeugen meist mehr als Roboterkatzen – es ist schwer, diese umzusetzen. Roboterhunde und Spielzeughunde benötigen keine Nahrung, nur Strom, und keine ständige Betreuung. Sie lösen auch keine Allergien aus. Dass sie keine Nahrung brauchen, kann für Veganer wichtig sein. Hunde und Katzen sind ein entscheidender Faktor bei der Massentierhaltung. Man kann sie zwar vegan ernähren, aber ob das artgerecht ist, ist umstritten. Prof. Dr. Oliver Bendel wurde von Adrian Lobe zu Roboterhaustieren befragt. Der Artikel mit seinen Aussagen ist am 1. Dezember 2022 in der österreichischen Wochenzeitschrift Die Furche unter dem Titel „Roboterhunde: Aibo statt Balu“ erschienen und kann über www.furche.at/wissen/roboterhunde-aibo-statt-balu-9855359 abgerufen werden.

Abb.: Aibo von Sony

Conversational Agents für tote, ausgestorbene und gefährdete Sprachen

Chatbots und Sprachassistenten – sogenannte Conversational Agents – entstanden an der Hochschule für Wirtschaft FHNW von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Prof. Dr. Oliver Bendel möchte sich nun verstärkt um tote, ausgestorbene und gefährdete Sprachen kümmern. @ve ist ein erster Versuch in dieser Richtung. Gewonnen werden konnte dafür im September 2022 der Entwickler Karim N’diaye. Er stellte am 17. November 2022 an der Hochschule die Zwischenergebnisse vor. Der Chatbot basiert auf GPT-3, einem Sprachmodell, das Deep Learning einsetzt, um natürlichsprachliche Fähigkeiten zu erlangen. Das neuronale Netzwerk weist etwa 175 Milliarden Parameter auf, was einen Rekord darstellt. Kombiniert mit einer Wissensdatenbank, welche Informationen über die lateinische Sprache enthält, kann @ve präzise Antworten auf Benutzeranfragen generieren. Mit ihr kann man also auf Lateinisch plaudern und etwas darüber erfahren. Weitere Projekte mit Chatbots und Sprachassistenten ab 2023 sollen sich gefährdeten und aussterbenden Sprachen widmen. Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Mit „Romulus“ hat Sky Italia eine Serie in dieser toten Sprache produziert und sie damit ein Stück weit lebendig gemacht. In Deutschland ist sie auf Magenta TV mit Untertiteln zu sehen. Informationen zu @ve werden Ende Dezember 2022 über www.ave-bot.ch bereitgestellt.

Abb.: Auch Sardisch ist eine gefährdete Sprache

Ein sprechender und duftender Umarmungsroboter

Das HUGGIE-Projekt an der Hochschule für Wirtschaft FHNW schreitet voran. Unter der Leitung von Prof. Dr. Oliver Bendel wird das vierköpfige Team (Andrea Puljic, Robin Heiz, Ivan De Paola, Furkan Tömen) bis Januar 2023 eine Umarmungspuppe an Benutzern testen. Bereits bekannt ist, dass Wärme und Weichheit der Arme und des Körpers erwünscht sind. Nun wird untersucht, ob z.B. auch Stimme, Vibration und Geruch die Akzeptanz erhöhen. Die Leitfrage des Praxisprojekts ist: Kann ein sozialer Roboter durch Umarmungen und Berührungen zur Steigerung des körperlichen und geistigen Wohlbefindens beitragen, und welche Faktoren sind dabei zu berücksichtigen? Die Grundlage von HUGGIE ist eine Schneiderpuppe. Hinzu kommen Kleidung, ein Wärmeelement, ein Vibrationselement und ein Audiosystem. Zusätzlich wird ein Duft appliziert. Die Arme werden über unsichtbare Fäden bewegt, sodass aktive Umarmungen möglich sind. Insgesamt entsteht der Eindruck eines Umarmungsroboters. In einem Schweizer Unternehmen fand im November 2022 ein Probelauf mit 65 Probanden statt. Sie wurden von HUGGIE und einem Riesenteddy umarmt. Anhand der Ergebnisse und Eindrücke werden der Fragebogen und die Versuchsanordnung verbessert. Ab Ende November 2022 tritt das Projekt in seine finale Phase, mit Durchführung und Auswertung der Tests.

Abb.: Das Team vor dem Probelauf

Ein Roboter, der Erdbeeren pflückt

Ein Roboter als Erntehelfer – daran arbeitet IAV aus Berlin laut eigenen Angaben in einem Pionierprojekt gemeinsam mit großen Landwirtschaftsbetrieben in Deutschland. Der Ernteroboter sei derzeit „auf das Pflücken von Erdbeeren spezialisiert“ (Website IAV), das System lasse sich jedoch skalieren und auch an weitere Zielfrüchte, wie etwa Tomaten oder Paprika, anpassen. Zu den verwendeten Technologien gehören patentierte Scheren- und Fächergreifer. Diese schneiden die Frucht am Stiel ab und „greifen sie gleichzeitig, damit sie nicht herunterfällt“ (Website IAV). Danach legen sie sie „sorgfältig in der Palettierung ab“ (Website IAV). Mit Computervision erhöhe man die Erkennungsrate der Zielfrüchte. „Dafür wurden tausende Bilder diverser Früchte zu verschiedenen Tages- und Nachtzeiten eingesetzt, um den Algorithmus zu optimieren, die Position der einzelnen Erdbeere präzise zu ermitteln und den Reifegrad der Frucht zu bestimmen.“ (Website IAV) Möglich seien bis zu 20 Stunden Pflücken ohne Pause. Eine spezifische Infrastruktur wie Schienen sei nicht notwendig. Im Rahmen von Tests wurden laut IAV über 3,5 Millionen Schnitte vorgenommen, bei einer Arbeitszeit von 2500 Stunden. Weitere Informationen über www.iav.com/volle-beere-in-die-zukunft-mit-unserem-neuen-ernteroboter.

Abb.: Der Roboter fasst die Erdbeeren laut IAV so sanft an wie ein Mensch

Billi aka BellaBot bei Hiltl Sihlpost

Bei Hiltl Sihlpost ist seit kurzer Zeit Billi im Einsatz, ein Transportroboter. In einem Tweet vom 28. Oktober 2022 schreibt das nach eigenen Angaben älteste vegetarische Restaurant der Welt: „Bei uns sind alle herzlich willkommen: Ob Mensch, Tier oder Roboter. Das ist Billi – unsere neue Unterstützung am Hiltl[-]Buffet. Begleite Billi am 1. Arbeitstag in der Hiltl Sihlpost oder statte gleich einen Besuch ab.“ Bei Billi handelt es sich offenbar um BellaBot, einen weiblich anmutenden Serviceroboter aus China. Dieser verfügt über ein Display, auf dem ein animiertes Katzengesicht mit großen (oder vor Wonne zusammengekniffenen) Augen, Mund und Schnurrbarthaaren zu sehen ist, zudem über schwarze Öhrchen aus Kunststoff. Adrian Lobe hatte Prof. Dr. Oliver Bendel Ende 2021 für die TAZ zu BellaBot interviewt. Er wollte u.a. wissen, ob solche Modelle, die weibliche Attribute aufnehmen, Stereotype befördern. Der Informations- und Maschinenethiker hat nichts dagegen, dass soziale Roboter ein Geschlecht vorgeben und z.B. eine weibliche oder männliche Stimme haben. Dies bringt in vielen Menschen etwas zum Klingen. Eine neutrale Stimme leistet dies nicht unbedingt. Zugleich ist es seiner Ansicht nach nicht notwendig, in allen Zusammenhängen weitreichende humanoide oder animaloide Erscheinungsformen zu wählen. Ein europäischer Konkurrent zu BellaBot ist mit Plato entstanden. Er wurde im November 2022 von der United Robotics Group auf den Markt gebracht. Plato hat große runde Augen, Augenbrauen und einen Mund, die ebenfalls Animationen auf einem Display sind. Es wird sich zeigen, welche Modelle die Betreiber und ihre Gäste bevorzugen.

Abb.: Am Zürisee

@ve, ein Chatbot für Latein

Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Jahrhundertelang hat es an vergnüglichen Möglichkeiten gemangelt, die Sprache zu erlernen und anzuwenden. Allenfalls Asterix-Comics brachten etwas Abwechslung ins von Caesar und Co. beherrschte Gebiet. Prof. Dr. Oliver Bendel hat an der Hochschule für Wirtschaft FHNW einen Chatbot in Auftrag gegeben, der sich auf Lateinisch unterhalten kann, und ihm den Namen @ve gegeben. Karim N’diaye bereitet seit September 2022 die Umsetzung vor, die dann ab Mitte November 2022 – nach der Zwischenpräsentation – erfolgt. Prof. Dr. Bradley Richards betreut das Projekt in technischer Hinsicht. Nach einer Evaluation hat sich gezeigt, dass sich Quickchat (www.quickchat.ai) als Plattform eignet. Damit basiert der Chatbot auf GPT-3. Durch eine händisch erstellte Wissensbasis kann er noch spezifischer für Latein trainiert werden – und auch präzisere Antworten zu grammatikalischen Fragen liefern. In diesem Zusammenhang ist Zweisprachigkeit, also Deutsch und Lateinisch, möglich. Bis Ende des Jahres soll @ve als Prototyp vorliegen. Wie bei allen Projekten zu Chatbots und Sprachassistenten, die Oliver Bendel initiiert, können die Ergebnisse frei verwendet werden.

Abb.: Touristen in Rom

The Digital Twin of Bruce Willis

According to the Telegraph, Bruce Willis „has become the first Hollywood star to sell his rights to allow a ‚digital twin‘ of himself to be created for use on screen“ (Telegraph, 28 September 2022). Instead of a digital twin, we can also speak of a new kind of avatar here. „Using deepfake technology, the actor appeared in a phone advert without ever being on set, after his face was digitally transplanted onto another performer.“ (Telegraph, 28 September 2022) In a statement on the website of the responsible US firm Deepcake, Willis said: „I liked the precision of my character. It’s a great opportunity for me to go back in time. The neural network was trained on content of ‚Die Hard‘ and ‚Fifth Element‘, so my character is similar to the images of that time. With the advent of the modern technology, I could communicate, work and participate in filming, even being on another continent. It’s a brand new and interesting experience for me, and I grateful to our team.“ (Website Deepcake) The actor will certainly find many imitators. The new avatars will soon be a natural part of advertising. Whether they will also be part of films has not yet been clarified. For most actors, including Bruce Willis, such a licensing would probably go too far.

Fig.: Bruce Willis has a digital twin

Ein Umarmungsroboter für Extremsituationen

Am 2. September 2022 fand an der Hochschule für Wirtschaft FHNW das Kick-off-Meeting zum HUGGIE-Projekt statt. Unter der Leitung von Prof. Dr. Oliver Bendel wird das vierköpfige Team bis Januar 2023 einen Umarmungsroboter bauen und an Benutzern testen. Dies war bereits 2020 geplant, wurde aber durch die Pandemie vereitelt. Stattdessen erarbeiteten Leonie Stocker und Ümmühan Korucu theoretische Grundlagen und führten eine Onlinebefragung durch. Die Ergebnisse wurden im Buch „Soziale Roboter“ unter dem Titel „In den Armen der Maschine“ veröffentlicht. Der soziale Roboter HUGGIE soll zu einem guten Leben beitragen, indem er Menschen berührt und umarmt. Bereits bekannt ist, dass Wärme und Weichheit der Arme und des Körpers gewünscht werden. Nun wird untersucht, ob z.B. auch Töne, Stimmen, Vibrationen und Gerüche die Akzeptanz erhöhen. Auch das Aussehen soll variiert werden: Möchte man eher von einem weiblich oder männlich anmutenden Roboter umarmt werden? Eher von einem tierähnlichen oder einem menschenähnlichen? Was ist mit einem modifizierten, technisierten Teddybären? Die Leitfrage des Praxisprojekts ist: Kann ein sozialer Roboter durch Umarmungen und Berührungen zur Steigerung des körperlichen und geistigen Wohlbefindens beitragen, und welche Faktoren sind dabei zu berücksichtigen? Letztlich sollen Roboter dieser Art vor allem in Extremsituationen eingesetzt werden, bei Krisen und Katastrophen, bei Krankheiten, mit denen Isolation verbunden ist, oder bei Marsflügen.

Abb.: Will man von einem Teddybären umarmt werden?

Ein sozialer Roboter als interaktiver Lernpartner von Kindern mit Diabetes

Sara Zarubica entwickelte im Rahmen ihrer von Prof. Dr. Oliver Bendel betreuten Abschlussarbeit an der Hochschule für Wirtschaft FHNW für ein Kinderspital eine auf einem sozialen Roboter laufende Lernanwendung. Das Ziel war es laut Abstract, aus Pepper einen interaktiven Lernpartner zu machen, mit dem die Kinder „das Schätzen von Kohlenhydratmengen in Mahlzeiten üben und so eine Grundlage für den täglichen Umgang mit Diabetes mellitus Typ 1 schaffen können“ (Abstract). Im Abstract heißt es weiter: „Zu Beginn der Arbeit wurden die Anforderungen an die Lernsoftware mit der Auftraggeberschaft besprochen und danach ergänzt und dokumentiert. Basierend darauf erfolgten Recherchen in Bezug auf das Design der Lernsoftware, deren Ergebnisse in einer Mindmap zusammengetragen wurden.“ (Abstract) Zur Visualisierung der Lernsoftware erstellte die Studenin anhand der Mindmap ein Mockup. Dann erarbeitete sie den Fragenkatalog für die Lernsoftware. Für die Evaluation des Technologie-Stacks führte sie eine Nutzwertanalyse durch. Aufgrund der Ergebnisse wählte sie das Betriebssystem NAOqi 2.5 für die Implementierung der Roboterinteraktion aus. „Basierend auf dem Wunsch der Auftraggeberschaft, dass das Lernspiel auch ohne Pepper funktionieren solle, wurde für das Lernspiel eine Webapplikation erstellt. Für die Kommunikation zwischen der Weblösung und Pepper wurde eine Schnittstelle entwickelt, welche das LibQi-JavaScript-SDK benutzt, um so Dienste zur Roboterinteraktion aufzurufen.“ (Abstract) Für das Setup von Pepper und das Abfangen von Events verwendete die Entwicklerin bereits vordefinierte Elemente in Python und passte sie für den vorliegenden Zweck an. „Sämtliche Systemtests in der Testphase verliefen erfolgreich und der Akzeptanztest wurde an zwei Halbtagen in der Kinderklinik … durchgeführt. Allen zehn Teilnehmern am Akzeptanztest hat die Interaktion mit Pepper gut gefallen und acht von zehn Kindern würden das Spielen mit Pepper sogar gegenüber dem Tablet vorziehen.“ (Abstract) Kommunikation und Interaktion bestehen darin, dass Pepper spricht, Kopf- und Körperbewegungen macht und mit den Armen gestikuliert. Er erinnert sich an den Namen des Benutzers und gebraucht diesen während der Konversation. Das Kinderspital darf als Auftraggeber die Lernsoftware einsetzen und weiterentwickeln.

Abb.: Sara Zarubica bei der Demonstration der Lernsoftware

Ein Moralmodul, das über die Moral hinausgeht

Das CARE-MOMO („MOMO“ steht für „Morality Module“ bzw. „Moralmodul“) soll den Assistenzroboter Lio von F&P Robotics erweitern. Es baut auf dem MOME auf, dem Moralmenü, das bereits 2019/2020 entwickelt und 2020 auf der Robophilosophy vorgestellt wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen Vorstellungen und grundsätzlichen Einstellungen übertragen. Marc Heimann erarbeitete ab Frühjahr 2022 im Rahmen seiner Abschlussarbeit die Optionen, die in einem Brainstorming mit dem Betreuer Oliver Bendel ergänzt und von F&P Robotics begutachtet wurden. Implementiert wird bis Mitte August ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Unter „Soziales“ findet sich etwa die Frage „Soll Lio diskret sein, wenn ich in einer intimen Situation bin?“. Der Roboter soll sich gegebenenfalls wegdrehen oder zeitweise ausschalten. Der Bereich „Transparenz“ enthält die Frage „Soll Lio mitteilen, wenn die Kamera eingeschaltet oder benutzt wird?“. Das CARE-MOMO wird als Webservice mithilfe von Spring prototypisch umgesetzt. Verwendet werden HTML, CSS und JavaScript sowie das Bootstrap-Framework für die Webseite und Java, JSON und REST für die Services und das Back-End. Die Firma entscheidet dann in der Folge, ob das Moralmodul gesamthaft oder teilweise für das Produkt übernommen wird.

Abb.: Der P-Rob-Arm ist Teil von Lio (Foto: Daimler und Benz Stiftung)