„Boston Dynamics just released the latest demo of its humanoid robot, Atlas. The robot could already run and jump over complex terrain thanks to its feet. Now, the robot has hands, per se. These rudimentary grippers give the robot new life. Suddenly, instead of being an agile pack mule, the Atlas becomes something closer to a human, with the ability to pick up and drop off anything it can grab independently.“ (TechCrunch, January 18, 2023) This was reported by TechCrunch on January 18, 2023. Hands are actually very important for Atlas. The humanoid robot could now pick up or move heavy objects on a construction site. But it could also take care of trapped or injured animals in a nature park, freeing them or providing them with food and water. Such visions have been described by robot ethicist and machine ethicist Oliver Bendel for some time. A video released on January 18, 2023 shows the grippers picking up construction lumber and a nylon tool bag. „Next, the Atlas picks up a 2×8 and places it between two boxes to form a bridge. The Atlas then picks up a bag of tools and dashes over the bridge and through construction scaffolding. But the tool bag needs to go to the second level of the structure – something Atlas apparently realized and quickly throws the bag a considerable distance.“ (TechCrunch, January 18, 2023) At the end of the video, Atlas does a somersault and then extends its hand – its brand new hand – triumphantly.
Fig.: Atlas from Greek mythology at Frankfurt main station
Bereits 2020 wurde eine große Umfrage zu Umarmungsrobotern durchgeführt (HUGGIE Project I). Die Ergebnisse wurden von Leonie Stocker, Ümmühan Korucu und Oliver Bendel im Buchbeitrag „In den Armen der Maschine“ im Band „Soziale Roboter“ veröffentlicht. Im Sommer 2022 wurde an der Hochschule für Wirtschaft FHNW ein weiteres Projekt ausgeschrieben, das in Abgrenzung zum Vorgängerprojekt HUGGIE Project II genannt wurde. Es konnte ein vierköpfiges Team gewonnen werden, mit Andrea Puljic, Robin Heiz, Furkan Tömen und Ivan De Paola. Die Aufgabe lautete, einen Umarmungsroboter namens HUGGIE zu bauen und zu testen. Dabei sollte auf den Ergebnissen von HUGGIE Project I aufgesetzt werden. Insbesondere sollte eruiert werden, ob eine robotische Umarmung zum Wohlbefinden und zur Gesundheit beiträgt und ob Stimme, Vibration als Simulation des Herzschlags und Duft die Akzeptanz der Umarmung durch einen Roboter erhöhen. Damit wurden Hinweise aus der Befragung im HUGGIE Project I aufgenommen. Ferner fanden zum Vergleich Umarmungen mit einem Riesenplüschtier namens Teddy statt. Die Ergebnisse zeigen, dass Menschen von robotischen Umarmungen profitieren und sie dadurch ihr Wohlbefinden und ihre Gesundheit steigern können. Im Pretest fand sich dafür deutliche Evidenz, im Haupttest immer noch ausreichende. Einige haben aber bereits – wie HUGGIE Project I offenbarte – in ihrer Vorstellung eine Aversion gegen robotische Umarmungen, die wiederum einige auch in der Realität (HUGGIE Project II) zeigten. Wichtig sind Wärme und Weichheit von Körper und Armen. Dies belegte bereits die Forschung von Alexis E. Block und Katherine J. Kuchenbecker. Als weniger relevant erwiesen sich Stimme, Vibration und Duft. Allerdings gibt es deutliche Anzeichen dafür, dass eine weibliche Stimme die Akzeptanz erhöhen kann und daher in diesem Kontext weiter erforscht und angepasst werden muss. Die Erkenntnisse wurden in einem Paper zusammengefasst und bei einer internationalen Konferenz eingereicht.
Abb.: HUGGIE umarmt den Probanden, Teddy ruht sich aus (Foto: Furkan Tömen)
Am 19. Januar 2023 fand die Abschlusspräsentation zum Projekt @ve statt, das im September 2022 begonnen hatte. Der Chatbot läuft auf der Website www.ave-bot.ch und auf Telegram. Er basiert wie ChatGPT auf GPT-3 von OpenAI (bei @ve handelt es sich aber nicht um GPT-3.5, sondern um GPT-3.0). Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich verstärkt toten, ausgestorbenen und gefährdeten Sprachen widmen will. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man kann sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel ist @ve ein Tool, das mit Gewinn in den Lateinunterricht integriert werden kann. Dort können die Schüler berichten, was sie mit ihr zu Hause erlebt haben, und sie können mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten. Ein Nachfolgeprojekt zu einer gefährdeten Sprache ist bereits ausgeschrieben.
„Bessere Texte im Handumdrehen“ – so ist DeepL Write betitelt. Und weiter: „Schreiben Sie klar, präzise und fehlerfrei“. Tatsächlich werden viele Rechtschreibfehler korrigiert. Es werden aber offenbar eigene Regeln angewandt. Sätze wie „Die Lektor*innen gehen ihrer ASrbeit nach.“ schreibt DeepL Write in „Die Lektor*innen gehen ihrer Arbeit nach.“ um. Immerhin wurde der Tippfehler erkannt. Den Rest kann und muss man beanstanden, denn im Wortinneren treten keine Sonderzeichen auf, wenn man von Bindestrichen absieht, mit denen man Wörter zu Komposita koppelt, und das Gendersternchen ist als Rechtschreibfehler zu werten. Als Alternative wird „Die Lektor*innen arbeiten.“ angezeigt. Auch hier ist das Gendersternchen nicht eliminiert – zudem ergibt sich eine Bedeutungsverschiebung. Aus „Ich besuche demnächst eine E-Learning Konferenz.“ macht das Tool den Satz „Ich werde demnächst an einer E-Learning-Konferenz teilnehmen.“ Damit wurde aus dem falschen Kompositum „E-Learning Konferenz“ das richtige „E-Learning-Konferenz“ – denn hier muss zwingend durchgekoppelt werden. In diesen Belangen ist die MS-Word-Rechtschreibprüfung sehr schwach, denn es werden von ihr regelmäßig falsch geschriebene Komposita vorgeschlagen (was DeepL Write zuweilen aber auch macht). Die Umformulierung an sich ist unnötig und sogar weniger elegant als das Original. DeepL Write wird Schülern und Studenten dabei helfen, bestimmte Rechtschreibfehler zu vermeiden. Es wird ihnen aber auch umständliche Sätze nahelegen. Und solange es sich nicht an die Regeln des Rechtschreibrats hält, ist der Nutzen begrenzt.
Abb.: Beim Schreiben mit dem und neben dem Computer
Im Studiengang Data Science an der Hochschule für Technik FHNW werden von den Studenten und Studentinnen u.a. Challenges und Mini-Challenges bewältigt. Eine Mini-Challenge, die von Prof. Dr. Oliver Bendel ausgeschrieben wurde, trägt den Titel „Ein Sprachassistent für Krisen und Katastrophen“. Pascal Berger hat die ca. vierzigjährige Julia konzipiert, die die Bewohner der Schweiz im Falle einer atomaren Katastrophe im Inland und im nahen Ausland dabei unterstützen soll, „sich zu beruhigen und entschlossen zu handeln“. Entsprechend gestaltet sich der Ablauf des Dialogs. Im ersten Teil soll sich Julia „kurz vorstellen“ und mit ruhiger Stimme darum bitten, „ruhig durchzuatmen“. Dabei sei es wichtig, dass in der Stimme eine gewisse Empathie zum Ausdruck kommt. Im zweiten Teil soll „der Voicebot versuchen, Verhaltensanweisungen an den Anwender weiterzugeben“. Julia spricht Schweizerdeutsch in einer Ausprägung, die z.B. auch Deutsche gut verstehen können. Für die Erstellung der Beispielsequenz nutzte der Student ttsfree.com. Unter „SELECT LANGUAGE AND REGIONS TO SPEECH“ wählte er „TTS Server 2“, unter „Language:“ die Nummer „62. German (Switzerland) – CH“ und dann „Leni“ als weibliche Stimme. „Voice Pitch“ und „Adjust Voice Speed“ wurden auf den Standardwerten „-50%“ und „-100%“ belassen. Die grundsätzlich nutzbaren SSML-Befehle wirkten sich kaum aus. Das Ergebnis kann hier angehört werden.
Bild hat Oliver Bendel zu sogenannten Replicas befragt, zu Kopien lebender oder verstorbener Personen. Nach ihm können folgende Komponenten vorhanden sein: 1. Die Person, um die es geht, etwa ein unheilbar Kranker, lässt sich in Aktion filmen, ähnlich wie im Falle der ABBAtare, bei denen man Motion Capture verwendet hat. Das kann Tage und Woche dauern. So erhält man Bilder, aus denen man (virtuelle, hier auch animierte) Avatare und Pseudohologramme (letztlich Projektionen) erzeugen kann, mitsamt der individuellen Bewegungen bzw. der individuellen Mimik und Gestik. 2. Es kann auch eine synthetische Kopie der jeweiligen Stimme erzeugt werden. Dies ist seit mehreren Jahren mit nur wenigen Minuten Aufnahmematerial möglich. Der Avatar spricht dann wie die kranke bzw. dann verstorbene Person, mit all den charakteristischen Eigenschaften ihrer Stimme. 3. Zudem wird persönliches Material eingelesen, etwa Briefe, E-Mails und Sprachnachrichten, und von einem KI-System verwertet. Dieses lernt, wie die Person sich schriftlich und mündlich ausdrückt, und kann der Replica diese Eigenschaften mitgeben. Zusätzlich kann der Kranke auch bestimmte Sequenzen einsprechen, um das Datenmaterial zu vervollständigen. Eine echte Replica nutzt KI, um aus diesen Daten zu lernen und Neues zu machen. 4. Der letzte Schritt, der aber von kaum einer Firma beschritten wird, ist die Anfertigung eines humanoiden Roboters – man würde hier von einem Androiden sprechen. Diese Anfertigung mit Silikonhaut und Motoren im Gesicht ist sehr teuer und letztlich noch weniger realistisch als der (virtuelle) Avatar. Diese und andere Antworten sind in den Artikel „Das ist dran am Zukunftsplausch mit den Toten“ von Peter Amenda eingeflossen, der am 16. Januar 2023 in der Onlineausgabe erschienen ist.
Why is your baby crying? And what if artificial intelligence (AI) could answer that question for you? „If there was a flat little orb the size of a dessert plate that could tell you exactly what your baby needs in that moment? That’s what Q-bear is trying to do.“ (Mashable, January 3, 2023) That’s what tech magazine Mashable wrote in a recent article. At CES 2023, the Taiwanese company qbaby.ai demonstrated its AI-powered tool which aims to help parents resolve their needs in a more targeted way. „The soft silicone-covered device, which can be fitted in a crib or stroller, uses Q-bear’s patented tech to analyze a baby’s cries to determine one of four needs from its ‚discomfort index‘: hunger, a dirty diaper, sleepiness, and need for comfort. Q-bear’s translation comes within 10 seconds of a baby crying, and the company says it will become more accurate the more you use the device.“ (Mashable, January 3, 2023) Whether the tool really works remains to be seen – presumably, baby cries can be interpreted more easily than animal languages. Perhaps the use of the tool is ultimately counterproductive because parents forget to trust their own intuition. The article „CES 2023: The device that tells you why your baby is crying“ can be accessed via mashable.com/article/ces-2023-why-is-my-baby-crying.
Seit 2012 sind auf Initiative von Oliver Bendel 21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Die letzten Entwicklungen waren ein Konzept von Ali Yürekkirmaz für ein System mit Gesichtserkennung zur Identifizierung von Bären, das von den Teilnehmern der ACI 2022 in Newcastle upon Tyne diskutiert wurde, und das CARE-MOME, präsentiert von Oliver Bendel und Marc Heimann auf der ICSR 2022 in Florenz. Beide Proceedings erscheinen Anfang 2023. In den nächsten Tagen wird das Projekt mit @ve beendet, einem auf GPT-3 basierenden Chatbot für Latein. Man kann mit ihr in dieser toten Sprache plaudern, die dann ganz lebendig erscheint, und ihr auf Deutsch verschiedene Fragen, etwa zur Grammatik, stellen. Der Entwickler Karim N’diaye stellt das Projekt am 19. Januar 2023 an der Hochschule für Wirtschaft FHNW in kleiner Runde vor. In weiteren Projekten will man sich ausgestorbenen und gefährdeten Sprachen widmen. Eine aktualisierte Übersicht zu allen Artefakten ist auf informationsethik.net und maschinenethik.net zu finden.
Abb.: Die aktualisierte Übersicht zu den Artefakten
Raffael Schuppisser, stellvertretender Chefredakteur der Aargauer Zeitung, interviewte Prof. Dr. Oliver Bendel zu Chatbots, die auf Machine Learning basieren. Ihn interessierte u.a., warum LaMDA und ChatGPT so unterschiedliche Antworten geben, etwa auf die Frage, ob sie eine Person sind oder ein Bewusstsein haben. Der Informations- und Maschinenethiker erläuterte: „Chatbots dieser Art beruhen auf Sprachmodellen. Dazu gehören GPT-3 (im Falle von ChatGPT) und Language Model for Dialogue Applications (im Falle von LaMDA). Die Sprachmodelle unterscheiden sich voneinander. Zudem werden sie unterschiedlich trainiert. Daher reagieren sie unterschiedlich auf Anfragen. Sie können mit dem Chatbot beliebige Gespräche führen. Er wird immer anders antworten. Er ruft eben nicht einfach Aussagen aus einer Wissensbasis ab, sondern kreiert sie jeweils neu. Es ist möglich, dass man ihn so trainiert hat, dass er abstreitet, eine Person zu sein oder Bewusstsein zu haben. Die Menschen, die ihn trainiert haben, hätten dann solche Antworten für gut und richtig befunden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert. Man kann dieses Vorgehen auch mit einer Wissensbasis kombinieren, etwa wenn es darauf ankommt, dass der Chatbot auf eine Frage hin eine bestimmte Antwort gibt oder dieselbe Aussage wiederholt trifft. So ist es einem Erfinder eines Chatbots vielleicht wichtig, dass die Angaben zu seiner Person immer korrekt und konsistent sind und auch nicht zu viel verraten wird. Wir haben unseren GOODBOT von 2013 immer wieder betonen lassen, dass er nur eine Maschine ist. Das lief allein über die feste Programmierung. Wir haben damals kein maschinelles Lernen benutzt.“ Oliver Bendel führte in weiteren Antworten aus, dass Maschinen kein echtes Bewusstsein haben können und ein solches immer nur simulieren. Am 14. und 15. Dezember 2022 griffen 22 Schweizer Zeitungen die Ausführungen auf, neben der Aargauer Zeitung etwa das St. Galler Tagblatt und die Luzerner Zeitung.
Die ICSR ist neben der Robophilosophy die bedeutendste Konferenz zur Sozialen Robotik. Dieses Jahr war Florenz der Veranstaltungsort. Prof. Dr. Oliver Bendel und Marc Heimann waren mit ihrem Paper „The CARE-MOMO Project“ vertreten. Sie stellten es gleich am ersten Tag (13. Dezember 2022) beim Workshop „Robot Companionship: Applications and Challenges“ in einem Vortrag vor. Zudem hatten sie am Donnerstag (15. Dezember 2022) eine Posterpräsentation dazu. Das CARE-MOMO wurde von Marc Heimann an der Hochschule für Wirtschaft FHNW umgesetzt. Es soll den Assistenzroboter Lio von F&P Robotics erweitern. Es baut auf dem MOME von 2019/2020 auf, das auf der Robophilosophy präsentiert wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen und sozialen Vorstellungen und grundsätzlichen Haltungen übertragen. Implementiert wurde ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Weitere Informationen zur Konferenz sind über www.icsr2022.it erhältlich.
Es ist gar nicht so einfach, überzeugende Robotertiere herzustellen. Vor allem, wenn es sich um Arten handelt, die wir gut kennen. Mit Roboterhunden hat man früh angefangen. Dem humanoiden Roboter Elektro hat man schon bald nach seiner Entwicklung Ende der 1930er-Jahre den kleinen Sparko an die Seite gestellt, im Jahre 1940. Aibo von Sony gehört zu den am weitesten entwickelten Tierrobotern. Er ist aber sehr teuer. Daneben gibt es viele weitere hundeähnliche Roboter oder Spielzeuge, die mehr oder weniger überzeugen. Sie überzeugen meist mehr als Roboterkatzen – es ist schwer, diese umzusetzen. Roboterhunde und Spielzeughunde benötigen keine Nahrung, nur Strom, und keine ständige Betreuung. Sie lösen auch keine Allergien aus. Dass sie keine Nahrung brauchen, kann für Veganer wichtig sein. Hunde und Katzen sind ein entscheidender Faktor bei der Massentierhaltung. Man kann sie zwar vegan ernähren, aber ob das artgerecht ist, ist umstritten. Prof. Dr. Oliver Bendel wurde von Adrian Lobe zu Roboterhaustieren befragt. Der Artikel mit seinen Aussagen ist am 1. Dezember 2022 in der österreichischen Wochenzeitschrift Die Furche unter dem Titel „Roboterhunde: Aibo statt Balu“ erschienen und kann über www.furche.at/wissen/roboterhunde-aibo-statt-balu-9855359 abgerufen werden.
GEO hat Oliver Bendel zu Brain-Computer-Interfaces befragt. Das Interview ist am 30. November 2022 erschienen. Worum es grundsätzlich geht, hat der Informations- und Maschinenethiker u.a. in seinem Buch „450 Keywords Digitalisierung“ beschrieben: „Ein Brain-Computer-Interface (engl. ‚brain-computer interface‘) ist eine Mensch-Maschine- oder Tier-Maschine-Schnittstelle, über die Gehirn und Computer verbunden werden. Zentral sind dabei elektrophysiologische und hämodynamische Verfahren. Mit Hilfe des BCI, wie man es verkürzend nennt, ist es z.B. möglich, spezielle Rollstühle, Hightechprothesen oder Objekte in Spielanwendungen zu steuern oder – unter Verwendung von neuronalen Signalen – Sprache zu synthetisieren. Beim Cybathlon, einem internationalen Wettkampf, bei dem Behinderte gegeneinander antreten, können entsprechende Disziplinen bestaunt werden. Im Deutschen spricht man auch von Gehirn-Computer-Schnittstelle. Der Beitrag mit dem Titel „Gehirnchips von Elon Musk: Wie gefährlich sind solche Implantate?“ kann über www.geo.de/wissen/forschung-und-technik/gehirnchips-von-elon-musks-firma-neuralink–chancen-und-risiken-32869872.html aufgerufen werden.
According to Mission Local, a policy proposal heading for Board of Supervisors approval next week would explicitly authorize San Francisco police to kill suspects using robots. It is the following wording that is causing discussion: “Robots will only be used as a deadly force option when risk of loss of life to members of the public or officers are imminent and outweigh any other force option available to SFPD.“ According to the local newspaper, this could mark a legal crossing of the Rubicon: „Robot use-of-force has never before been approved, nor has it ever been prohibited, in San Francisco.“ (Mission Local, 22 November 2022) Of what kind of arsenal are we talking, anyway? „The SFPD has 17 robots in its arsenal, 12 of which it describes as fully functional. According to police spokesperson Officer Robert Rueca, they have never been used to attack anyone. The robots are remote-controlled, and are typically used to investigate and defuse potential bombs or to surveil areas too awkward or dangerous for officers to access.“ (Mission Local, 22 November 2022) In August 2022, Oliver Bendel gave a talk about police robots at the Robophilosophy 2022 conference. The paper will be published in a few weeks.
Chatbots und Sprachassistenten – sogenannte Conversational Agents – entstanden an der Hochschule für Wirtschaft FHNW von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Prof. Dr. Oliver Bendel möchte sich nun verstärkt um tote, ausgestorbene und gefährdete Sprachen kümmern. @ve ist ein erster Versuch in dieser Richtung. Gewonnen werden konnte dafür im September 2022 der Entwickler Karim N’diaye. Er stellte am 17. November 2022 an der Hochschule die Zwischenergebnisse vor. Der Chatbot basiert auf GPT-3, einem Sprachmodell, das Deep Learning einsetzt, um natürlichsprachliche Fähigkeiten zu erlangen. Das neuronale Netzwerk weist etwa 175 Milliarden Parameter auf, was einen Rekord darstellt. Kombiniert mit einer Wissensdatenbank, welche Informationen über die lateinische Sprache enthält, kann @ve präzise Antworten auf Benutzeranfragen generieren. Mit ihr kann man also auf Lateinisch plaudern und etwas darüber erfahren. Weitere Projekte mit Chatbots und Sprachassistenten ab 2023 sollen sich gefährdeten und aussterbenden Sprachen widmen. Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Mit „Romulus“ hat Sky Italia eine Serie in dieser toten Sprache produziert und sie damit ein Stück weit lebendig gemacht. In Deutschland ist sie auf Magenta TV mit Untertiteln zu sehen. Informationen zu @ve werden Ende Dezember 2022 über www.ave-bot.ch bereitgestellt.
Das HUGGIE-Projekt an der Hochschule für Wirtschaft FHNW schreitet voran. Unter der Leitung von Prof. Dr. Oliver Bendel wird das vierköpfige Team (Andrea Puljic, Robin Heiz, Ivan De Paola, Furkan Tömen) bis Januar 2023 eine Umarmungspuppe an Benutzern testen. Bereits bekannt ist, dass Wärme und Weichheit der Arme und des Körpers erwünscht sind. Nun wird untersucht, ob z.B. auch Stimme, Vibration und Geruch die Akzeptanz erhöhen. Die Leitfrage des Praxisprojekts ist: Kann ein sozialer Roboter durch Umarmungen und Berührungen zur Steigerung des körperlichen und geistigen Wohlbefindens beitragen, und welche Faktoren sind dabei zu berücksichtigen? Die Grundlage von HUGGIE ist eine Schneiderpuppe. Hinzu kommen Kleidung, ein Wärmeelement, ein Vibrationselement und ein Audiosystem. Zusätzlich wird ein Duft appliziert. Die Arme werden über unsichtbare Fäden bewegt, sodass aktive Umarmungen möglich sind. Insgesamt entsteht der Eindruck eines Umarmungsroboters. In einem Schweizer Unternehmen fand im November 2022 ein Probelauf mit 65 Probanden statt. Sie wurden von HUGGIE und einem Riesenteddy umarmt. Anhand der Ergebnisse und Eindrücke werden der Fragebogen und die Versuchsanordnung verbessert. Ab Ende November 2022 tritt das Projekt in seine finale Phase, mit Durchführung und Auswertung der Tests.
Bei Hiltl Sihlpost ist seit kurzer Zeit Billi im Einsatz, ein Transportroboter. In einem Tweet vom 28. Oktober 2022 schreibt das nach eigenen Angaben älteste vegetarische Restaurant der Welt: „Bei uns sind alle herzlich willkommen: Ob Mensch, Tier oder Roboter. Das ist Billi – unsere neue Unterstützung am Hiltl[-]Buffet. Begleite Billi am 1. Arbeitstag in der Hiltl Sihlpost oder statte gleich einen Besuch ab.“ Bei Billi handelt es sich offenbar um BellaBot, einen weiblich anmutenden Serviceroboter aus China. Dieser verfügt über ein Display, auf dem ein animiertes Katzengesicht mit großen (oder vor Wonne zusammengekniffenen) Augen, Mund und Schnurrbarthaaren zu sehen ist, zudem über schwarze Öhrchen aus Kunststoff. Adrian Lobe hatte Prof. Dr. Oliver Bendel Ende 2021 für die TAZ zu BellaBot interviewt. Er wollte u.a. wissen, ob solche Modelle, die weibliche Attribute aufnehmen, Stereotype befördern. Der Informations- und Maschinenethiker hat nichts dagegen, dass soziale Roboter ein Geschlecht vorgeben und z.B. eine weibliche oder männliche Stimme haben. Dies bringt in vielen Menschen etwas zum Klingen. Eine neutrale Stimme leistet dies nicht unbedingt. Zugleich ist es seiner Ansicht nach nicht notwendig, in allen Zusammenhängen weitreichende humanoide oder animaloide Erscheinungsformen zu wählen. Ein europäischer Konkurrent zu BellaBot ist mit Plato entstanden. Er wurde im November 2022 von der United Robotics Group auf den Markt gebracht. Plato hat große runde Augen, Augenbrauen und einen Mund, die ebenfalls Animationen auf einem Display sind. Es wird sich zeigen, welche Modelle die Betreiber und ihre Gäste bevorzugen.
Latein wird an vielen Schulen und Hochschulen gelehrt und immer noch für das eine oder andere Studium – etwa der Philosophie – vorausgesetzt respektive gewünscht. Jahrhundertelang hat es an vergnüglichen Möglichkeiten gemangelt, die Sprache zu erlernen und anzuwenden. Allenfalls Asterix-Comics brachten etwas Abwechslung ins von Caesar und Co. beherrschte Gebiet. Prof. Dr. Oliver Bendel hat an der Hochschule für Wirtschaft FHNW einen Chatbot in Auftrag gegeben, der sich auf Lateinisch unterhalten kann, und ihm den Namen @ve gegeben. Karim N’diaye bereitet seit September 2022 die Umsetzung vor, die dann ab Mitte November 2022 – nach der Zwischenpräsentation – erfolgt. Prof. Dr. Bradley Richards betreut das Projekt in technischer Hinsicht. Nach einer Evaluation hat sich gezeigt, dass sich Quickchat (www.quickchat.ai) als Plattform eignet. Damit basiert der Chatbot auf GPT-3. Durch eine händisch erstellte Wissensbasis kann er noch spezifischer für Latein trainiert werden – und auch präzisere Antworten zu grammatikalischen Fragen liefern. In diesem Zusammenhang ist Zweisprachigkeit, also Deutsch und Lateinisch, möglich. Bis Ende des Jahres soll @ve als Prototyp vorliegen. Wie bei allen Projekten zu Chatbots und Sprachassistenten, die Oliver Bendel initiiert, können die Ergebnisse frei verwendet werden.
The 59th International Art Exhibition (Biennale Arte 2022) runs from 23 April to 27 November 2022. The main venues of the Biennale are Giardini and Arsenale. In the northern part of Arsenale, visitors will find many rooms with screens showing art projects around and from the Metaverse. The „1st Annual METAVERSE Art @VENICE“, an exhibition conceived by Victoria Lu, a famous art critic and curator of the Chinese artistic world, opened with gEnki, an interactive exhibition that exploits the potential of the Internet and virtual reality. „The exhibition offers a new model of ‚decentralized autonomous curatorship‘, exploring various innovative and always different exhibition methods using all the main features of the ‚DAO‘ (short for Distributed Autonomous Organization), therefore crowdfunding, co-construction, interconnection of platforms, high level of decentralization, all adapted to the curational concept.“ (Flyer gEnki) The exhibition is very inspiring and shows how the Metaverse could become if it would not only follow commercial considerations. More information via annualmetaverseart.com.
„Es gibt Menschen, die tatsächlich Beziehungen mit Hologrammen, virtuellen Avataren und smarten Assistentinnen führen. Dennoch bleibt die Maschinenliebe eine Illusion.“ So lautet der Teaser eines Artikels, der am 23. September 2022 im Standard erschienen ist. „Wenn Akihiko Kondo nach Hause kommt, wird er von einem Popstar begrüßt: Hatsune Miku. Die Diva mit den langen türkisen Haaren, die schon mit Lady Gaga im Madison Square Garden auf der Bühne stand, ist jedoch kein Mensch aus Fleisch und Blut, sondern eine computeranimierte Manga-Figur. Die Sängerin existiert weder physisch noch hat sie eine Stimme. Bei Konzerten wird ein dreidimensionales Hologramm auf die Bühne projiziert, eine Software synthetisiert die Stimme aus der Konserve.“ (Standard, 23. September 2022) Zu Wort kommt mehrmals Oliver Bendel, dessen Buch „Maschinenliebe“ über Liebespuppen, Sexroboter und virtuelle Figuren aller Art im Jahre 2020 erschien. Mitgeschrieben haben einige der führenden Experten in diesem Bereich, u.a. Kate Devlin, Nicola Döring und Yuefang Zhou. Im Buch „AI Love You“ von Yuefang Zhou und Martin Fischer veröffentlichte Oliver Bendel auch den Beitrag „Hologram Girl“, der auf Beziehungen zu Hologrammen und Projektionen eingeht. Der Artikel im Standard trägt den Titel „Unfassbar verliebt“ und stammt von Adrian Lobe.
According to the Telegraph, Bruce Willis „has become the first Hollywood star to sell his rights to allow a ‚digital twin‘ of himself to be created for use on screen“ (Telegraph, 28 September 2022). Instead of a digital twin, we can also speak of a new kind of avatar here. „Using deepfake technology, the actor appeared in a phone advert without ever being on set, after his face was digitally transplanted onto another performer.“ (Telegraph, 28 September 2022) In a statement on the website of the responsible US firm Deepcake, Willis said: „I liked the precision of my character. It’s a great opportunity for me to go back in time. The neural network was trained on content of ‚Die Hard‘ and ‚Fifth Element‘, so my character is similar to the images of that time. With the advent of the modern technology, I could communicate, work and participate in filming, even being on another continent. It’s a brand new and interesting experience for me, and I grateful to our team.“ (Website Deepcake) The actor will certainly find many imitators. The new avatars will soon be a natural part of advertising. Whether they will also be part of films has not yet been clarified. For most actors, including Bruce Willis, such a licensing would probably go too far.
Co-Robots oder Cobots sind Leichtbauroboter, die in Produktion und Logistik eng mit Menschen zusammenarbeiten können, ohne sie zu behindern oder zu verletzen. Die F&P Robotics AG in Glattbrugg hat mit P-Rob Eco ein neues Modell vorgelegt, das sich in vielen Aspekten von seinem Vorgänger P-Rob 3 und auch von Konkurrenzprodukten unterscheidet. In seinem Artikel „Kollaborativer Roboter made in Switzerland“ geht Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW auf den neuen Cobot ein und beschreibt im Detail seine Merkmale und Funktionen. Mit Industrierobotern, auch dieser Art, beschäftigt er sich seit vielen Jahren. Im Jahre 2017 hatte er im Wirtschaftslexikon von Springer Gabler vermerkt: „Kooperations- und Kollaborationsroboter sind moderne Industrieroboter, die mit uns Schritt für Schritt an einem gemeinsamen Ziel (Kooperationsroboter) bzw. Hand in Hand an einer gemeinsamen Aufgabe arbeiten, wobei wiederum ein bestimmtes Ziel gegeben ist (Kollaborationsroboter).“ Der Technikphilosoph und Wirtschaftsinformatiker betont, dass Cobots eine immer größere Rolle nicht nur in Produktion und Industrie, sondern z.B. auch in Pflege und Therapie spielen. Lio, ebenfalls von F&P Robotics, ist hierfür ein Beispiel. Bei ihm handelt es sich im Grunde um einen P-Rob 3 auf einer mobilen Plattform. Der Artikel ist in der Technischen Rundschau (9/2022) erschienen und kann hier heruntergeladen werden.
Am 2. September 2022 fand an der Hochschule für Wirtschaft FHNW das Kick-off-Meeting zum HUGGIE-Projekt statt. Unter der Leitung von Prof. Dr. Oliver Bendel wird das vierköpfige Team bis Januar 2023 einen Umarmungsroboter bauen und an Benutzern testen. Dies war bereits 2020 geplant, wurde aber durch die Pandemie vereitelt. Stattdessen erarbeiteten Leonie Stocker und Ümmühan Korucu theoretische Grundlagen und führten eine Onlinebefragung durch. Die Ergebnisse wurden im Buch „Soziale Roboter“ unter dem Titel „In den Armen der Maschine“ veröffentlicht. Der soziale Roboter HUGGIE soll zu einem guten Leben beitragen, indem er Menschen berührt und umarmt. Bereits bekannt ist, dass Wärme und Weichheit der Arme und des Körpers gewünscht werden. Nun wird untersucht, ob z.B. auch Töne, Stimmen, Vibrationen und Gerüche die Akzeptanz erhöhen. Auch das Aussehen soll variiert werden: Möchte man eher von einem weiblich oder männlich anmutenden Roboter umarmt werden? Eher von einem tierähnlichen oder einem menschenähnlichen? Was ist mit einem modifizierten, technisierten Teddybären? Die Leitfrage des Praxisprojekts ist: Kann ein sozialer Roboter durch Umarmungen und Berührungen zur Steigerung des körperlichen und geistigen Wohlbefindens beitragen, und welche Faktoren sind dabei zu berücksichtigen? Letztlich sollen Roboter dieser Art vor allem in Extremsituationen eingesetzt werden, bei Krisen und Katastrophen, bei Krankheiten, mit denen Isolation verbunden ist, oder bei Marsflügen.
Abb.: Will man von einem Teddybären umarmt werden?