16th International Conference on Social Robotics

The prestigious International Conference on Social Robotics was last held in Florence (2022) and Qatar (2023). Now it enters its next round. The 16th edition will bring together researchers and practitioners working on human-robot interaction and the integration of social robots into our society. The title of the conference includes the addition „AI“. This is a clarification and demarcation that has to do with the fact that there will be two further formats with the name ICSR in 2024. ICSR’24 (ICSR + AI) will take place as a face-to-face conference in Odense, Denmark, from 23 to 26 October 2024. The theme of this year’s conference is „Empowering Humanity: The role of social and collaborative robotics in shaping our future“. The topics of the Call for Papers include „collaborative robots in service applications (in construction, agriculture, etc.)“, „Human-robot interaction and collaboration“, „Affective and cognitive sciences for socially interactive robots“, and „Context awareness, expectation, and intention understanding“. The general chairs are Oskar Palinko, University of Southern Denmark, and Leon Bodenhagen, University of Southern Denmark. More information is available at icsr2024.dk.

Fig.: Navel at the ICSR 2023 in Qatar

Das Smartphone wird zum Roboter

LOOI von TangibleFuture soll ein sozialer Roboter für den Schreibtisch sein, ein sogenannter Desktop Companion. Es handelt sich um ein Kickstarter-Projekt, das auf großes Interesse stößt. Der Kern des Systems ist das eigene Smartphone. Auf dem Display werden Augen dargestellt, die – zusammen mit weiteren Funktionen – Emotionen ausdrücken können. Die Verbindung mit GPT ermöglicht die entsprechende Kommunikation. Nach Aussage der Firma ist auch eine „Persönlichkeit“ vorhanden. Eine mobile Plattform mit Rädern erlaubt die Bewegung auf dem Schreibtisch. Damit gewinnt LOOI Ähnlichkeit mit sozialen Robotern wie Emo, Loona, Cozmo und Vector. Die Integration von Smartphones und Figuren oder Plattformen ist nicht neu, wenn man an den Romo Smartphone Robot von Romotive und Hugvie aus den Hiroshi Ishiguro Laboratories denkt. Hier erscheint sie durchaus geglückt. Es ist allerdings nicht ganz klar, welchen Vorteil der bewegliche Körper hat, bis auf den durch ihn unterstützten Ausdruck von Emotionen. TangibleFuture ist nach eigenen Angaben ein Unternehmen, das sich auf interaktive Innovationen konzentriert und sich der Erforschung und Neugestaltung emotionaler Unterhaltungserlebnisse für Erwachsene widmet. Weitere Informationen über looirobot.com.

Abb.: Bei LOOI ist das Smartphone waagrecht angebracht (Bild: DALL-E 3)

25 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik

Seit 2012 sind auf Initiative von Oliver Bendel 25 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOTLIEBOTBESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Zuletzt wurden zwei Chatbots für eine tote und eine gefährdete Sprache geschaffen, nämlich @ve (für Latein) und @llegra (für Vallader, ein Idiom des Rätoromanischen). Im Jahre 2024 wird das CAIBOT-Projekt fortgesetzt. In diesem soll ein Sprachmodell mit Hilfe von Prompt Engineering oder Finetuning in eine moralische Maschine verwandelt werden, nach dem Vorbild von Claude von Anthropic. Im Projekt „The Animal Whisperer“ soll eine App entwickelt werden, die die Körpersprache ausgewählter Tiere versteht und zusätzlich ihr Umfeld beurteilt, mit dem Ziel, Hinweise zum Umgang mit ihnen zu geben. Im Bereich der Maschinenethik dürften Oliver Bendel und seine wechselnden Teams zu den aktivsten Gruppen weltweit gehören.

Abb.: 25 Artefakte der Maschinenethik und Sozialen Robotik

Grundlagen der Tier-Maschine-Interaktion

„Die Tier-Maschine-Interaktion (TMI), im Englischen ‚animal-machine interaction‘ (AMI) genannt, behandelt als Disziplin oder Arbeitsgebiet die Interaktion zwischen Tier und Maschine. Vor allem geht es um Entwurf, Bewertung und Implementierung von komplexen Maschinen und Computersystemen, mit denen Tiere interagieren und die ihrerseits mit Tieren interagieren und kommunizieren. Es bestehen enge Beziehungen zur Tier-Computer-Interaktion (TCI), im Englischen ‚animal-computer interaction‘ (ACI). Immer häufiger handelt es sich bei der Maschine um einen Roboter, der entweder ferngesteuert oder (teil-)autonom ist.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Es wird auf die Zusammenhänge zur Tier-Computer-Interaktion, zur Mensch-Maschine-Interaktion, zur Maschinenethik und zu Animal Enhancement eingegangen, zudem auf Anwendungsgebiete und -fälle der TMI. Der ganze Beitrag – erschienen ist er am 8. August 2024 – kann über wirtschaftslexikon.gabler.de/definition/tier-maschine-interaktion-126213 aufgerufen werden.

Abb.: Eine Schildkröte mit einer Roboterschildkröte (Bild: DALL-E 3)

Was sind GPTs?

„GPTs sind Chatbots, die von Benutzern auf einfache Weise auf der Basis von GPT-4 entwickelt werden können. OpenAI spricht auch von ‚custom versions of ChatGPT‘. Manche GPTs vermitteln Wissen und sind damit Facilitators, Instruktoren oder Tutoren. Andere sind Mentoren und Coaches, die z.B. einen Lernprozess begleiten. Wieder andere erschaffen Logos und Präsentationen oder dienen als Gesprächspartner und für das Brainstorming. Einige Verwendungen schließt OpenAI aus, etwa für Beziehungen emotionaler oder erotischer Art. Dennoch gibt es solche Angebote, was die Medien von Anfang an begeistert aufgegriffen haben.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Es wird im Detail auf die zwei Erstellvorgänge eingegangen. Am Ende stellt der Autor Überlegungen zu Urheberrecht und Datenschutz an. Der ganze Beitrag – erschienen ist er am 8. August 2024 – kann über wirtschaftslexikon.gabler.de/definition/gpts-126183 aufgerufen werden.

Abb.: GPTS sind mächtige Systeme (Bild: DALL-E 3)

AAAI Takes Proceedings of the Spring Symposia Under its Wing Again

The AAAI Spring Symposium Series will be held at Stanford University on March 25-27, 2024. The symposium co-chairs are Christopher Geib (SIFT, USA) and Ron Petrick (Heriot-Watt University, UK). Since 2019, the Association for the Advancement of Artificial Intelligence has not published the proceedings itself, but left this to the organizers of the individual symposia. This had unfortunate consequences. For example, some organizers did not publish the proceedings at all, and the scientists did not know this in advance. This, in turn, had consequences for the funding of travel and fees, since many universities will only pay for their members to attend conferences if they are linked to a publication. This major flaw, which damaged the prestigious conference, was fixed in 2024. As of this year, AAAI once again offers centralized publication, along with an excellent quality assurance process. Over the past ten years, the AAAI Spring Symposia have been relevant not only to classical AI, but also to roboethics and machine ethics. Groundbreaking symposia were, for example, „Ethical and Moral Considerations in Non-Human Agents“ in 2016, „AI for Social Good“ in 2017, or „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ in 2018. In 2024, you can look forward to the „Impact of GenAI on Social and Individual Well-being“ symposium, which will focus on an app for the blind and GPTs as virtual learning companions (VLCs), among other things. More information is available at aaai.org/conference/spring-symposia/sss24/.

Fig.: Student at Stanford University with her VLC (Image: DALL-E 3)

Vale, @ve!

Im Jahre 2022 wurde das Projekt @ve durchgeführt. Seit Ende November 2023 liegt dazu ein Working Paper vor. Der Chatbot basierte auf GPT-3.0 von OpenAI, also auf einer älteren Version des Sprachmodells. Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich toten, ausgestorbenen und gefährdeten Sprachen widmet. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man konnte sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel war @ve ein Tool, das mit Gewinn in den Lateinunterricht hätte integriert werden können. Dort hätten die Schüler berichten können, was sie mit ihr zu Hause erlebt haben, und sie hätten mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten können. Der Chatbot wurde aus privaten Mitteln des Wissenschaftlers und seines ehemaligen Studenten finanziert. Es fand sich kein Träger für ihn. Daher wurde er Anfang 2024 eingestellt. Vale, @ve!

Abb.: Vale, @ve!

Von A wie Alignment bis Z wie Zensur

Am 4. März 2024 hat Prof. Dr. Oliver Bendel sein Manuskript zu „300 Keywords Generative KI“ bei Springer Gabler eingereicht. Es ist, wie der Titel schon verrät, der generativen KI gewidmet, im Englischen „generative AI“ oder „GenAI“ genannt. In mehr als 300 Einträgen wird das Thema ausgeleuchtet. Dabei spielen neben technischen und wirtschaftlichen Fragen insbesondere ethische und ästhetische eine Rolle. So wird nach der Schönheit von Artefakten gefragt, es wird die Stellung von Bildern zwischen Kunst und Kitsch ausgeleuchtet, und es wird eine Bias-Diskussion zu Text- und Bildgeneratoren geführt. So spielt der „american smile“ eine Rolle, zudem die Obsession von DALL-E 3 mit Bärten und Hinterteilen. Insgesamt steht der Nutzen der generativen KI im Vordergrund, und die Freude und Lust, sie zu benutzen. Es handelt sich um den fünften „Keywords“-Band des Technikphilosophen und Wirtschaftsinformatikers, nach „400 Keywords Informationsethik“ (2. Auflage), „450 Keywords Digitalisierung“ (2. Auflage), „300 Keywords Soziale Robotik“ (1. Auflage) und „110 Keywords Wirtschaftsethik“ (1. Auflage, zusammen mit Nick Lin-Hi und Andreas Suchanek). Weitere Informationen zum Lexikon gibt es voraussichtlich ab Juni 2024.

Abb.: Am Anfang zierte sich DALL-E 3 weniger bei fotorealistischen Darstellungen

Robot Enhancement for Quadrupeds

There are dozens of quadruped and bipedal robots. Quadrupeds are of particular interest to consumers because they are highly maneuverable yet safe to operate. Some are available from about $2000. One problem with most quadrupeds is that they have no head or only a hint of a head. This makes them look scary. Initial tests have shown that people are usually only put off by this for a short time and then quickly approach the robotic animals to touch and pet them. However, some users are not satisfied with the appearance and produce additional parts such as heads and tails. This leads to results like SparkyTheRobot, which has its own YouTube channel. Both the head and the tail are 3D printed and look convincing. The underlying Unitree Go2 is fundamentally changed in its appearance. What is being done here is robot enhancement. This term was coined by Prof. Dr. Oliver Bendel. It describes an enhancement with clothing and accessories, additional body parts, new end pieces, or artificial skin. Programming improvements or the integration of AI systems are also included. The two-legged and four-legged animals currently appearing on the market are likely to capture the imagination of many users and lead to the creation of specialized companies.

Fig.: Oliver Bendel with his Unitree Go2 (Photo: Frank Graef)

Virtues and Values in Requirements Engineering

The workshop „ViVa RE’24: Virtues and Values in Requirements Engineering 2024“ will take place on April 8, 2024 in Winterthur. It is part of the conference „Requirements Engineering: Foundation for Software Quality (REFSQ) 2024“. From the workshop website: “Including human values into the development of software-intensive systems has long been a topic of discussion. A satisfactory solution such as a collection of (software-supported) methods or a model gallery for ethical argumentation has not yet been developed. This workshop will work on collecting methods for incorporating values into system development. Two particular methods, the Square of Values (SoV) and the Software Sustainability Assessment (SoSA) approaches, will be examined in more detail. A specific focus of the workshop lies on how ethical reasoning can be supported with the help of software-tools.” (Website ViVa) The program committee consists of Prof. Dr. Oliver Bendel, Dr. Renata Guizzardi-Silva Souza, Prof. Dr. Kurt Schneider, and Alexander Bock. Organizers are Prof. Dr. Alexander Rachmann and Dr. Jens Gulden. More information is available at google.com/view/vivarerefsq24.

Fig.: Fog over Winterthur

Die Zeit ist reif für Roboterparks

Am 8. Dezember 2020 plädierte Prof. Dr. Oliver Bendel in seinem Vortrag „Ethische Dimensionen von Robotik in der Pflege“ im deutschen Bundesministerium für Gesundheit (BMG) für Roboterparks, in denen man realen Robotern begegnet. „Man kann auch spezifische Parks mit Robotern in der Pflege einrichten. Dort könnten zudem gedankengesteuerte Rollstühle, Exoskelette, Hightechprothesen etc. ihren Platz haben.“ In der Studie „Roboter, Empathie und Emotionen“ von 2021 spann der Technikphilosoph diesen Gedanken für die Schweiz weiter: „Um Menschen Maschinen näher zu bringen und eine kritische Einschätzung zu ermöglichen, ist der direkte Kontakt zu fördern, etwa mit Hilfe von Roboterparks.“ Zudem brauche es „einschlägige Weiterbildungen für (fachfremde) Wissenschaftler, für Journalisten und Politiker, wobei auch hier die Roboterparks genutzt werden könnten“ (Studie „Roboter, Empathie und Emotionen“). Im Jahre 2024 stehen Dutzende von Vierbeinern und Zweibeinern sowie zahlreiche weitere soziale Roboter und Serviceroboter zur Verfügung. Selbst fortgeschrittene Modelle sind schon ab 1000 bis 2000 Dollar zu haben. Die Zeit ist reif für Roboterparks, ob in der Schweiz oder in Deutschland – oder sonstwo in Europa.

Abb.: Die Zeit ist reif für Roboterparks (Bild: DALL-E 3)

Eine Übersicht über robotische Zweibeiner

MERPHI ist nach eigenen Angaben ein technologisches Designzentrum mit Sitz in Göteborg, das Kunden auf der ganzen Welt hat. Man glaubt, so steht es auf der Website, an eine Zukunft, in der Roboter und Menschen in Harmonie koexistieren. Das Unternehmen stellt Übersichten zu Vierbeinern (Quadrupeds) und Zweibeinern (Humanoiden, aber nicht Androiden) zur Verfügung. Mit Hilfe von Aufrufen und Umfragen finden laufend Ergänzungen statt. Auf der Abbildung sieht man einige bekannte Zweibeiner wie Atlas, Figure 01 und Unitree H1. Auch der Prototyp Optimus ist aufgeführt. Die meisten Modelle stammen von amerikanischen Firmen, dicht gefolgt von chinesischen. Sie haben erkannt, wie wichtig es ist, solche Allzweckroboter auf zwei Beinen zu entwickeln. Mit diesen kann man alle Artefakte begehen und gebrauchen, die auch Menschen zugänglich und nützlich sind, etwa Wege, Plätze, Gebäude und Werkzeuge. Ein Vorteil von Zweibeinern ist, dass sie mit ihren Greifern und Händen anspruchsvolle Manipulationen vornehmen können. Ein Nachteil ist, dass sie umfallen und stürzen und damit Menschen gefährden können. Es lohnt sich, das aktuelle PDF direkt auf der Website von MERPHI herunterzuladen. Der Abdruck erfolgt mit freundlicher Genehmigung von Mehrdad H. M. Farimani.

Abb.: Die Übersicht über robotische Zweibeiner (Bild: MERPHI)

Eine Übersicht über robotische Vierbeiner

MERPHI ist nach eigenen Angaben ein technologisches Designzentrum mit Sitz in Göteborg, das Kunden auf der ganzen Welt hat. Man glaubt, so steht es auf der Website, an eine Zukunft, in der Roboter und Menschen in Harmonie koexistieren. Das Unternehmen stellt Übersichten zu Vierbeinern (Quadrupeds) und Zweibeinern (Humanoiden und Androiden) zur Verfügung. Mit Hilfe von Aufrufen und Umfragen finden laufend Ergänzungen statt. Auf der Abbildung sieht man einige bekannte Vierbeiner wie Spot, Unitree Go2 und Unitree B2. Eine Besonderheit ist Robot Pony. Die meisten Modelle stammen von chinesischen Firmen. Sie haben erkannt, wie wichtig es ist, solche Allzweckroboter auf vier Beinen zu entwickeln. Mit diesen kann man Gebäude inspizieren und Gegenstände transportieren. Man kann auch Waffen auf ihnen installieren und damit gegen Terroristen oder Kriminelle (oder gegen Unschuldige) vorgehen. Ein Vorteil von Vierbeinern ist, dass sie selbst auf unwegsamem Gelände sicher unterwegs sind. Es lohnt sich, das aktuelle PDF direkt auf der Website von MERPHI herunterzuladen. Der Abdruck erfolgt mit freundlicher Genehmigung von Mehrdad H. M. Farimani.

Abb.: Die Übersicht über robotische Vierbeiner (Bild: MERPHI)

Wann kommen NAO II und Pepper II?

NAO und Pepper von Aldebaran – einem Unternehmen der United Robotics Group – sind Flaggschiffe der Sozialen Robotik. Der Kleinere erblickte 2006 das Licht der Welt (inzwischen liegt Version 6 vor), der Größere 2014. Bei Veranstaltungen an Hochschulen wie den Wahlmodulen zur Sozialen Robotik von Prof. Dr. Oliver Bendel an der FHNW oder in Unternehmen sind beide umschwärmt. Alle schätzen die karikaturenhafte Gestaltung und die natürlichsprachlichen Fähigkeiten. Und lachen sich tot, wenn sie Pepper streicheln und dieser sagt, er fühle sich wie eine Katze. Seit einiger Zeit gibt es Roboter mit zwei separaten Displays für die Augen, wie Alpha Mini, oder mit einem Display für den Mund, wie Navel. Unitree Go2 und Unitree H1 weisen eine erstaunliche Beweglichkeit auf. In der Community stellt sich die Frage, wann NAO II und Pepper II kommen, nicht als neue Versionen, sondern als neue Modelle. Allerdings ist es ein bisschen wie beim VW Käfer. Es ist sehr anspruchsvoll, einen Klassiker neu aufzulegen, und schnell sind alte Fans enttäuscht, wie sich beim New Beetle und Beetle II gezeigt hat. NAO II und Pepper II müssten ebenfalls zwei separate Displays für ihre Augen bekommen. Orientieren kann man sich an denjenigen von Navel, die plastisch wirken. Bei Pepper kämen zudem Displays für Mund und Wangen in Frage. Damit könnte er Mimik darstellen und rot werden, wenn man ihm ein Kompliment macht. Oder lächeln, wenn man ihn streichelt. Die Körper müssten ebenfalls generalüberholt werden. Beide Roboter sollten – hier ist Cozmo ein Vorbild – jederzeit lebendig wirken. Und beide sollten zumindest etwas greifen und festhalten können, wie ein Unitree H1 oder ein Figure 01. Zugleich muss man beide auf Anhieb wiedererkennen können. Wahrscheinlich hat man bei VW aus den Reaktionen enttäuschter Fans gelernt. Vielleicht sollte man sich zusammensetzen. Und 2025 einen Beetle III, einen NAO II und einen Pepper II auf den Markt bringen.

Abb.: Eine Studentin von Oliver Bendel mit NAO

The Animal Whisperer: A GenAI App for Decoding Animal Body Language

When humans come into contact with wildlife, farm animals, and pets, they sometimes run the risk of being injured or killed. They may be attacked by bears, wolves, cows, horses, or dogs. Experts can use an animal’s body language to determine whether or not danger is imminent. Context is also important, such as whether a mother cow is with her calves. The multimodality of large language models enables novel applications. For example, ChatGPT can evaluate images. This ability can be used to interpret the body language of animals, thus using and replacing expert knowledge. Prof. Dr. Oliver Bendel, who has been involved with animal-computer interaction and animal-machine interaction for many years, has initiated a project called „The Animal Whisperer“ in this context. The goal is to create a prototype application based on GenAI that can be used to interpret the body language of an animal and avert danger for humans. GPT-4 or an open source language model should be used to create the prototype. It should be augmented with appropriate material, taking into account animals such as bears, wolves, cows, horses, and dogs. Approaches may include fine-tuning or rapid engineering. The project will begin in March 2024 and the results will be available in the summer of the same year.

Fig.: The Animal Wisperer (Image: DALL-E 3)

Ein Handy erwidert den Blick

„Nothing Phone (2a) bekommt Glubschaugen“ – so titelte Golem am 28. Februar 2024. Das sehen die Benutzer genauso. Einer schreibt in seinem Kommentar im Unternehmensblog: „Phoebe: ‚My eyes, My eyes'“ … Ein anderer: „This is so great. I can see a robot there?“ Und ein weiterer: „Fresh Eyes For a Reason“. Nothing selbst hat diese Wortwahl vorgegeben: „See the world through fresh eyes.“ Normalerweise gibt man seinem Smartphone keinen Namen. Die Augen könnten aber genau dazu führen. Das Smartphone würde damit neben das Auto, den Staubsaugerroboter und viele andere Gegenstände treten, die wir zärtlich oder scherzhaft benennen. Es ist nicht abschließend geklärt, warum Menschen dies tun. Vermutlich hat es mit der Bewegung von Dingen zu tun, die an die Bewegung von Lebewesen erinnert, aber auch mit der Bedeutung, die sie für unser Leben haben. Und wenn sie soziale Merkmale erhalten, Augen, Mund, Töne oder natürliche Sprache, dann liegt es nahe, sie wie Lebewesen zu behandeln. In bestimmte Formen wiederum projizieren wir etwas hinein, und die Anthropomorphisierung kann so weit gehen, dass wir mit Aussehen und Verhalten bestimmte Fähigkeiten verbinden. Im Falle des Nothing Phone (2a) sind eigentlich nur Kameralinsen vorhanden – aber diese erscheinen uns offensichtlich als Augen. Ein Blickfang waren die nachhaltigen Geräte schon immer. Nun scheinen sie den Blick zu erwidern.

Abb.: Ein Handy erwidert den Blick

Eröffnung des Europäischen KI-Büros

Das Europäische KI-Büro (The European AI Office) wurde im Februar 2024 eingerichtet. Auf der Website der Europäischen Kommission heißt es: „The European AI Office will be the centre of AI expertise across the EU. It will play a key role in implementing the AI Act – especially for general-purpose AI – foster the development and use of trustworthy AI, and international cooperation.“ (European Commission, 22. Februar 2024) Und weiter: „The European AI Office will support the development and use of trustworthy AI, while protecting against AI risks. The AI Office was established within the European Commission as the centre of AI expertise and forms the foundation for a single European AI governance system.“ (European Commission, 22. Februar 2024) Die EU will nach eigenen Angaben dafür sorgen, dass KI sicher und vertrauenswürdig ist. Der AI Act sei der weltweit erste umfassende Rechtsrahmen für KI, der die Gesundheit, die Sicherheit und die Grundrechte der Menschen garantiert und den Unternehmen in den 27 Mitgliedstaaten Rechtssicherheit bietet.

Abb.: Ein mit der Kamera des Unitree Go2 verfertigtes, invertiertes Foto

Der künstliche Barkeeper – Teil III

In der messtec drives Automation (Ausgabe 1/2024) ist der zweieinhalbseitige Artikel „Der künstliche Barkeeper – Teil III“ von Prof. Dr. Oliver Bendel und Lea Peier enthalten. Es handelt sich um den Abschluss einer dreiteiligen Serie, die auf das Paper „How Can Bar Robots Enhance the Well-being of Guests?“ zurückgeht und die sich auf die Ausgaben 8/2023, 9/2023 und 1/2024 verteilte. Im Fokus stehen Barroboter wie Barney Bar und Robobarista, die an der Hochschule für Wirtschaft FHNW erforscht werden. Im ersten Teil wurden Industrieroboter, Serviceroboter und soziale Roboter erklärt. Dabei spielte Bendels Modell mit den fünf Dimensionen eine Rolle. Zudem wurde auf Roboter in der Gastronomie eingegangen und eine Übersicht über Barroboter gegeben. Im zweiten Teil wurden Barney Bar von F&P Robotics und Robobarista von Smyze unter die Lupe genommen, wieder unter Verwendung des Modells mit den fünf Dimensionen. Im dritten Teil erörtern die Autoren, wie die Roboter verbessert werden könnten, um das Wohlbefinden der Kunden und Gäste zu erhöhen und besser auf ihre individuellen Wünsche und Anforderungen einzugehen. Dabei kann künstliche Intelligenz eine wichtige Rolle spielen. Zudem werden ethische und soziale Probleme beim Einsatz von Barrobotern diskutiert und mögliche Lösungen angedeutet. Das ganze Heft kann hier heruntergeladen werden.

Abb.: Ein Barroboter am Strand (Bild: DALL-E 3)

Peppers Leidenschaft für Bibliotheken

Seit Jahren setzt man Pepper in Bibliotheken ein. Anfang 2019 titelte die Frankfurter Rundschau: „Ein Roboter führt durch die Stadtbücherei“. Nur wenige Wochen später schrieb die MAZ: „Der Stifterverband zeichnet das Projekt mit dem humanoiden Roboter Wilma an der TH Wildau aus. Die Roboterdame arbeitet in der Hochschulbibliothek.“ Wilma war niemand anderes als Pepper. Ende 2019 titelte der Düsseldorfer Anzeiger: „Roboter Pepper hilft in der Zentralbibliothek Düsseldorf aus“. Die Berliner Morgenpost konnte 2021 gleich über zwei Roboter berichten, nämlich NAO und Pepper, die aus dem selben Haus stammen. „In der Stadtbibliothek Spandau helfen jetzt Roboter aus“, hieß es in dem Artikel. Im selben Jahr assistierte laut der Plattform Silicon Pepper in der Stadtbücherei Biberach. Ein Fernsehsender berichtete 2022: „Die Stadtbücherei am Haidplatz baut ihren Robotik-Schwerpunkt weiter aus und stellt ihr neues Teammitglied, Roboter ‚Charlie‘, vor.“ Und auch bei Charlie handelte es sich um niemand anderen als Pepper, wie auch bei Hilbi in der Stadtbibliothek Hildesheim, über den die Hildesheimer Presse im selben Jahr berichtete. Seit Dezember 2019 ist Auxilio aka Pepper für die FHNW am Campus Brugg-Windisch im Einsatz. Und dort ist er bis heute.

Abb.: Pepper am Campus Brugg-Windisch im Jahre 2024

„AI Encounter“ zu Allzweckrobotern

„AI Encounter“, eine Reihe an der Zürcher Kunsthochschule, bietet laut Website experimentell-spielerische Begegnungen „mit künstlichen Intelligenzen“. Am 22. Februar 2024 war Marcial Koch im hauseigenen Kino im Gespräch mit Prof. Dr. Oliver Bendel. Das Thema waren Allzweckroboter, auch universelle Roboter genannt. Der Technikphilosoph und Wirtschaftsinformatiker aus Zürich spannte einen weiten Bogen von den goldenen Dienerinnen des Hephaistos bis hin zu Unitree H1, Figure 01 und Optimus. In der anschließenden Fragerunde ging er auf die Gestaltung von Robotern ein, auf Möglichkeiten und Grenzen der Maschinenethik – und auf die Herausforderung, wie man die Koexistenz von Robotern und Menschen nicht als Dystopie, sondern als Eutopie denken kann. Beim abschließenden Apero unterhielt man sich über passive und aktive Exoskelette, über Unitree Go2 und Alpha Mini aus dem privaten Social Robots Lab von Oliver Bendel – und über Elektro und Sparko, die 1939 bzw. 1940 auf der Weltausstellung in New York zu sehen gewesen waren.

Abb.: Vor dem Kino der ZHdK

A Chatbot for Vallader

On February 19, 2024, the article „@llegra: a chatbot for Vallader“ by Oliver Bendel and Dalil Jabou was published in the International Journal of Information Technology. From the abstract: „Extinct and endangered languages have been preserved primarily through audio conservation and the collection and digitization of scripts and have been promoted through targeted language acquisition efforts. Another possibility would be to build conversational agents like chatbots or voice assistants that can master these languages. This would provide an artificial, active conversational partner which has knowledge of the vocabulary and grammar and allows one to learn with it in a different way. The chatbot, @llegra, with which one can communicate in the Rhaeto-Romanic idiom Vallader was developed in 2023 based on GPT-4. It can process and output text and has voice output. It was additionally equipped with a manually created knowledge base. After laying the conceptual groundwork, this paper presents the preparation and implementation of the project. In addition, it summarizes the tests that native speakers conducted with the chatbot. A critical discussion elaborates advantages and disadvantages. @llegra could be a new tool for teaching and learning Vallader in a memorable and entertaining way through dialog. It not only masters the idiom, but also has extensive knowledge about the Lower Engadine, that is, the area where Vallader is spoken. In conclusion, it is argued that conversational agents are an innovative approach to promoting and preserving languages.“ Oliver Bendel has been increasingly focusing on dead, extinct and endangered languages for some time. He believes that conversational agents can help to strengthen and save them.

Fig.: A chatbot for Vallader

„Soziale Roboter aus technischer, wirtschaftlicher und ethischer Sicht“ – Teil VII

Vom 15. bis 17. Februar 2024 fand das Wahlmodul „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Sicht“ an der Hochschule für Wirtschaft FHNW in Brugg-Windisch statt. Es handelte sich bereits um die sechste Durchführung, wobei diese zum ersten Mal an diesem Campus stattfand. Die Teilnehmer waren vor allem angehende Betriebsökonomen. Zur Verfügung stand ein auf das Thema spezialisiertes GPT namens Social Robotics Girl. Ein Vortrag von Claude Toussaint von Navel Robotics bereicherte die Veranstaltung. Er sprach nicht nur über die Entwicklung des Modells, sondern auch über die Finanzierung des Unternehmens. Unter den Robotern der Demo war Unitree Go2. Er stammt aus dem von Prof. Dr. Oliver Bendel privat finanzierten Social Robots Lab und wird von ihm Bao (chin. „Schatz, Juwel“) genannt. Auch Alpha Mini, Cozmo und Hugvie gehören dazu – und der mit Sprache steuerbare Vector II, der aber nicht zum Einsatz kam. Bei der Konzeption eigener sozialer Roboter wurde mit Bildgeneratoren gearbeitet, dieses Mal vor allem mit DALL-E 3.

Abb.: Eine Studentin umarmt Pepper