Amt für Arbeit (Kanton Zürich), Amt für Wirtschaft (Kanton Zürich), digitalswitzerland, ICT-Berufsbildung Schweiz, taskforce4women und ZUTT & PARTNER haben eine „Emotions-Toolbox“ zur Verfügung gestellt. Ist damit eine Emotionstoolbox gemeint oder eine Toolbox of Emotions? Man weiß es nicht. Auf jeden Fall will man mit der in Pink gehaltenen Broschüre „Frauen emotional für die ICT & MINT-Welt“ gewinnen. Gemeint ist vermutlich – man achte auf den weiteren Bindestrich – die ICT- & MINT-Welt, was ein erheblicher Unterschied ist. Aber neben den vielen formalen Fehlern sind es vor allem die semantischen Ungeheuerlichkeiten, die einem entgegenspringen und für Entgeisterung in den Medien – etwa in der NZZ oder in 20 Minuten – und in Blogs sorgen. So soll man bei der Ansprache einen „Mix“ aus „warmen, freundlichen Farben“, „beruhigenden, bodenständigen Farben“ und „frischen, lebendigen Farben“ bevorzugen (Emotions-Toolbox, Version 1.0). Ein Pfeil in der „FARBWELT DOS“ macht unmissverständlich klar, was damit gemeint ist, nämlich Pink in allen Nuancen. Da hilft auch der Hinweis nicht, es gehe „weder um eine einzelne Farbe noch um genaue Farbcodes, sondern um die emotionale Richtung in Abgrenzung zu den DON’TS Farben“ (Emotions-Toolbox, Version 1.0). Auch hier fehlt – wie in vielen anderen Komposita – der Bindestrich. Eine Korrektorat scheint man hier für überflüssig zu halten. „Beschreibender Stil mit vielen Adjektiven“ soll verwendet werden. „Einfache Sprache“. „Kurze Sätze, wenig Text“. Geboten ist natürlich „geschlechtergerechte Sprache“ (Emotions-Toolbox, Version 1.0). Wenn damit Gendersprache gemeint ist – diese wird von Frauen wie von Männern mehrheitlich abgelehnt. Stereotyper und sexistischer kann eine Broschüre kaum sein.
„Seit vielen Jahren wird Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW auf seinen Konferenzreisen immer wieder von seinen Studenten und Studentinnen begleitet. Diese sind Zweitautoren, manchmal auch Erstautoren der Artikel. Es handelt sich um Projekte, die der studierte Philosoph und promovierte Wirtschaftsinformatiker zum Teil über lange Zeiträume vorbereitet. In den meisten Fällen entstehen Artefakte aus der Maschinenethik, der Tier-Maschine-Interaktion und der Sozialen Robotik heraus, die aus ethischer, sozialwissenschaftlicher und wirtschaftswissenschaftlicher Perspektive reflektiert werden.“ Mit diesen Worten beginnt ein Beitrag der Hochschule für Wirtschaft FHNW, der am 27. Mai 2024 veröffentlicht wurde. Er geht auf mehrere Papers ein, die zusammen mit Studenten entstanden und in Proceedings veröffentlicht worden sind. Auch auf ein laufendes Projekt zu Robotern in Gefängnissen kommt die Sprache: „Manche Projekte seien mit Bachelorarbeiten verbunden, andere mit Masterarbeiten. In Ausnahmefällen sei eine Zusammenarbeit schon vor dem Abschluss möglich. Zurzeit besucht er zusammen mit Tamara Siegmann, die im Februar sein Wahlmodul zu sozialen Robotern belegt hatte, Schweizer Gefängnisse und führt Interviews mit Direktoren und Insassen zum Einsatz von Servicerobotern und sozialen Robotern.“ Der Artikel kann hier aufgerufen werden.
The paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel is now available as part of the „Proceedings of the AAAI 2024 Spring Symposium Series“. The Zurich-based scientist presented the paper at the symposium „Impact of GenAI on Social and Individual Well-being“ in March 2024. From the abstract: „This paper examines the question of how generative AI can improve the well-being of blind or visually impaired people. It refers to a current example, the Be My Eyes app, in which the Be My AI feature was integrated in 2023, which is based on GPT-4 from OpenAI. The author’s tests are described and evaluated. There is also an ethical and social discussion. The power of the tool, which can analyze still images in an amazing way, is demonstrated. Those affected gain a new independence and a new perception of their environment. At the same time, they are dependent on the world view and morality of the provider or developer, who prescribe or deny them certain descriptions. An outlook makes it clear that the analysis of moving images will mean a further leap forward. It is fair to say that generative AI can fundamentally improve the well-being of blind and visually impaired people and will change it in various ways.“ It was Oliver Bendel’s ninth consecutive appearance at the AAAI Spring Symposia, which this time consisted of eight symposia on artificial intelligence. The paper can be downloaded at ojs.aaai.org/index.php/AAAI-SS/article/view/31232.
The paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ by Stefanie Hauske and Oliver Bendel is now available as part of the „Proceedings of the AAAI 2024 Spring Symposium Series“. Oliver Bendel presented the paper at the symposium „Impact of GenAI on Social and Individual Well-being“ in March 2024. From the abstract: „This paper explores how generative AI (GenAI) can improve the well-being of learners within self-regulated learning (SRL) frameworks in the corporate context. In the ‚GenAI to Support SRL‘ section, it presents three custom versions of ChatGPT aimed at assisting learners. These so-called GPTs demonstrate the GenAI’s potential to actively support learners in SRL and positively influence their well-being. The ‚Discussion‘ and ‚Summary and Outlook‘ sections provide a balanced overview of the opportunities and risks associated with GenAI in the field of learning and highlight directions for future research. The results indicate that GenAI could improve the well-being of learners in SRL through providing personalized guidance, reducing feelings of stress, and increasing motivation and self-efficacy. At the same time, there are several challenges for companies and employees that need to be overcome.“ It was Oliver Bendel’s ninth consecutive appearance at the AAAI Spring Symposia, which this time consisted of eight symposia on artificial intelligence. The paper can be downloaded at ojs.aaai.org/index.php/AAAI-SS/article/view/31234.
Fig.: GPTs in the form of VLCs can help students (Image: DALL-E 3)
Jork Weismann ist ein international bekannter und preisgekrönter Modefotograf. Seine Porträts und Studien von Annie Leibovitz, Patti Smith, Georg Baselitz, Lang Lang, Kirsty Hume, Caroline de Maigret, Tatjana Patitz, Gisele Bündchen, Stella Lucia, Eva Longoria, Orlando Bloom, Justin Theroux, Luís Figo, Rupert Everett und Usher sind in Magazinen und Fotobänden erschienen. Einige Beispiele finden sich hier und hier. Von Jork Weismann stammt auch das offizielle Porträt des österreichischen Bundespräsidenten Alexander Van der Bellen. Es kann über dessen Website heruntergeladen werden. Für ein aktuelles Projekt hat der Modefotograf den Technikphilosophen und Wirtschaftsinformatiker Oliver Bendel in Windisch besucht. In dem drei Stunden dauernden Shooting mit zwei ganz unterschiedlichen Kameras entstanden eindrückliche Bilder. Mehrere davon sollen zusammen mit einem wissenschaftlichen Text von Oliver Bendel zur Schönheit künstlicher Frauen veröffentlicht werden.
Abb.: Oliver Bendel vor einem Hochhaus in Windisch (Foto: Jork Weismann)
Die Daimler und Benz Stiftung hat im Mai 2024 den Jahresbericht für das Jahr 2023 vorgelegt. Sie operiert inhaltlich unabhängig vom Konzern und gewährt Forschern völlige Freiheit. Sie ist – im Vergleich etwa zur Bertelsmann-Stiftung – klein, aber enorm umtriebig und eine Säule der Wissenschafts- und Innovationsförderung im deutschsprachigen Raum. Im Stiftungsrat sitzen vier Wissenschaftler, die die Arbeit der Stiftung begleiten. Dies sind Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Hartmut Hillmer (Universität Kassel), Prof. Dr. Ralf Poscher (Max-Planck-Institut zur Erforschung von Kriminalität, Sicherheit und Recht) und Prof. Dr. Tereza Tykvová (Universität St. Gallen). Den Vorstand bilden Prof. Dr. Julia Arlinghaus (Fraunhofer IFF) und Prof. Dr. Lutz H. Gade (Universität Heidelberg). Geschäftsführer ist Dr. Jörg Klein. Der Jahresbericht kann über www.daimler-benz-stiftung.de/cms/images/presse/publikationen/DB-Jahresbericht-2023.pdf heruntergeladen werden.
Das Sprachmodell Grok von xAI wurde am 4. November 2023 einer ausgewählten Gruppe von Benutzern präsentiert. Das Start-up von Elon Musk veröffentlichte am selben Tag eine Erklärung. Grok sei eine KI, die dem Hitchhiker’s Guide to the Galaxy nachempfunden ist und daher fast alles beantworten kann und, was noch viel schwieriger ist, sogar vorschlägt, welche Fragen man stellen sollte. Das Wort „Grok“ selbst stammt aus einem anderen berühmten Science-Fiction-Roman, nämlich „Stranger in a Strange Land“ (1961) von Robert A. Heinlein, der zu den wichtigsten Autoren in diesem Genre zählt. Wenn man als Marsianer etwas grokt, versteht man es vollständig, manchmal so sehr, dass man mit ihm verschmilzt. Im Mai 2024 wurde Grok in X integriert. Wenn man auf „Grok“ klickt, ist zu lesen: „Premium-Abonnent*innen können nun unsere fortschrittlichste KI, Grok, auf X nutzen.“ … Damit baut X – vormals Twitter – wieder einmal Sonderzeichen ins Wortinnere ein, wo sie nichts verloren haben – wie andere amerikanische Firmen, allen voran Microsoft. Es scheint nicht einfach zu sein, die Struktur der deutschen Sprache zu groken.
„Laut einem Urteil des High Court in London darf Julian Assange vor Gericht darlegen, warum eine Auslieferung an die USA aus seiner Sicht nicht rechtens wäre. Offen ist, ob der juristische Etappensieg auch einer möglichen politischen Lösung dienlich ist.“ (NZZ, 20. Mai 2024) Dies meldete die NZZ am 20. Mai 2024 in ihrem Artikel „Etappensieg für Wikileaks-Gründer“. Zum Hintergrund heißt es: „Assange wird vorgeworfen, mit der Whistleblowerin Chelsea Manning geheimes Material von amerikanischen Militäreinsätzen im Irak und in Afghanistan gestohlen und auf der Plattform Wikileaks veröffentlicht zu haben. Viele Aktivisten und Menschenrechtsorganisationen sehen Assange hingegen als Vorkämpfer für die Meinungs- und Pressefreiheit.“ (NZZ, 20. Mai 2024) Am Ende ihres Artikels wies die Schweizer Zeitung darauf hin, Joe Biden habe im April erklärt, man prüfe „ein Begehren des Parlaments und der Regierung Australiens, die Anklage gegen Assange fallenzulassen und den Wikileaks-Gründer in sein Heimatland ausreisen zu lassen“. „Ob die USA zu solchen Lösungen bereit wären, solange das juristische Auslieferungsverfahren in London andauert, ist offen.“ (NZZ, 20. Mai 2024) Weltweit fanden anlässlich des Urteils Demonstrationen statt, etwa in London und Mailand.
Abb.: Demonstration am 20. Mai 2024 in Mailand für Julian Assange
The article „‚Ick bin een Berlina‘: dialect proficiency impacts a robot’s trustworthiness and competence evaluation“ by Katharina Kühne, Erika Herbold, Oliver Bendel, Yuefang Zhou, and Martin H. Fischer has been granted the UFSKW Paper-of-the-Month Award for March 2024. All authors are researchers in the Potsdam Embodied Cognition Group (PECoG) at the University of Potsdam, with the exception of Oliver Bendel, who works at the FHNW School of Business and is an associated researcher in the group. „UFSKW“ stands for „Universitärer Forschungsschwerpunkt Kognitionswissenschaften“. It is based at the University of Potsdam. The UFSKW Paper of the Month provides a special stage for current cognitive science research at the UFSKW. It is chosen monthly by the selection committee from all submissions. The paper says about the background of the project: „Robots are increasingly used as interaction partners with humans. Social robots are designed to follow expected behavioral norms when engaging with humans and are available with different voices and even accents. Some studies suggest that people prefer robots to speak in the user’s dialect, while others indicate a preference for different dialects.“ The following results are mentioned: „We found a positive relationship between participants‘ self-reported Berlin dialect proficiency and trustworthiness in the dialect-speaking robot. Only when controlled for demographic factors, there was a positive association between participants‘ dialect proficiency, dialect performance and their assessment of robot’s competence for the standard German-speaking robot. Participants‘ age, gender, length of residency in Berlin, and device used to respond also influenced assessments. Finally, the robot’s competence positively predicted its trustworthiness.“ The article can be accessed at www.frontiersin.org/articles/10.3389/frobt.2023.1241519/full.
Fig.: NAO in Oliver Bendel’s office in Switzerland
Gabriela Bohler, Entrepreneurin im Bereich sozialer Roboter (www.smart-companion.ch), setzte von Herbst 2023 bis Frühjahr 2024 verschiedene Lernanwendungen mit Alpha Mini um. Das Projekt „Alpha Mini für die Schule“ – initiiert von Prof. Dr. Oliver Bendel Anfang 2023 und durchgeführt von Andrin Allemann von März bis August 2023 – findet damit seine Nachahmer. Gabriela Bohler hatte Kontakt mit den beiden aufgenommen. Bei einem gemeinsamen Videocall war auch das Zürcher Unternehmen raumCode zugegen. Dieses führte in ihrem Auftrag eine Anbindung von Alpha Mini – nun Robin genannt – an seine Robot Management Platform durch. Dabei konnten Ideen und Informationen aus dem Projekt „Alpha Mini für die Schule“ verwendet werden. Danach übertrug die Entrepreneurin ihre Applikationen (Kids, Agers, Education, Entertainment), die bereits auf NAO und Pepper laufen, auf Alpha Mini. Dieser bekam sogar ein eigenes Sofa – aber er wird keine Zeit haben, sich auszuruhen. Die Grundidee von Oliver Bendel war gewesen, eine Lernanwendung für Kinder zu schaffen, dabei aber keinen teuren sozialen Roboter wie Pepper zu verwenden, sondern einen günstigen wie Alpha Mini. Dafür wurde das Produkt von Ubtech mit einem MS Surface gekoppelt und eine App entwickelt, die auf dem sozialen Roboter installiert und für die Darstellung auf dem Touchscreen gespiegelt wurde. Prof. Dr. Oliver Bendel stellte das Projekt „Alpha Mini für die Schule“ unter dem englischen Titel „Alpha Mini as a Learning Partner in the Classroom“ bei der ICSR 2023 in Qatar vor. Das Paper ist in diesem Proceedingsband von Springer enthalten.
Abb.: Alpha Mini bekam sogar ein Sofa spendiert (Foto: Gabriela Bohler)
On May 13, 2024, OpenAI presented GPT-4o. It writes about it on its website: „GPT-4o (‚o‘ for ‚omni‘) is a step towards much more natural human-computer interaction – it accepts as input any combination of text, audio, and image and generates any combination of text, audio, and image outputs. It can respond to audio inputs in as little as 232 milliseconds, with an average of 320 milliseconds, which is similar to human response time (opens in a new window) in a conversation. It matches GPT-4 Turbo performance on text in English and code, with significant improvement on text in non-English languages, while also being much faster and 50% cheaper in the API. GPT-4o is especially better at vision and audio understanding compared to existing models.“ (Website OpenAI) The company is addressing the weaknesses of the previous model: GPT-4 „loses a lot of information – it can’t directly observe tone, multiple speakers, or background noises, and it can’t output laughter, singing, or express emotion.“ (Website OpenAI) It is precisely these weaknesses that the new model can overcome. „With GPT-4o, we trained a single new model end-to-end across text, vision, and audio, meaning that all inputs and outputs are processed by the same neural network. Because GPT-4o is our first model combining all of these modalities, we are still just scratching the surface of exploring what the model can do and its limitations.“ (Website OpenAI) A video shows how the language model processes video data. With this function, the Be My Eyes app could take another leap forward in its development. In the coming weeks and months, there will certainly be many interesting application possibilities. GPT-4o will be omnipresent.
Der ESC 2025 in der Schweiz könnte von HeidiBOT moderiert werden, einem humanoiden Roboter, der mit GPT-4o verbunden ist. Der Kopf könnte bei Hanson Robotics, RealDoll oder anderen Unternehmen in Auftrag gegeben werden. Es wäre zu überlegen, ob als Basis ein Figure 01 oder ein ähnliches Modell dienen könnte. Damit könnte sich HeidiBOT in natürlicher Weise auf der Bühne bewegen und selbst Teil einer Performance sein. Durch GPT-4o oder vergleichbare Sprachmodelle wäre sie in der Lage, einen schweizerdeutschen Dialekt, Hochdeutsch, Englisch und Französisch zu sprechen. Auch Rätoromanisch sollte zu hören sein, wie es bei @llegra der Fall war, einem Chatbot für Vallader. Die Schweiz könnte sich damit als wissenschaftlich hochkarätiges, innovationsfreudiges und zugleich traditionsbewusstes Land präsentieren. Kritiker werden das Menschliche und Verbindliche vermissen. Aber dieses könnte verstärkt von den Musikern übernommen werden, die oft nur noch Karikaturen ihrer selbst sind. Man könnte sie auf der Bühne zu Wort kommen und mit dem Publikum sprechen und diskutieren lassen. Auch eine menschliche Co-Moderation könnte diese Kritik auffangen. Eine andere Möglichkeit wäre, HeidiBOT als Avatar bzw. Pseudo- oder Quasihologramm umzusetzen, ähnlich wie die ABBAtare in London. HeidiBOT könnte – in welcher Form auch immer – wie Heidi aus dem Booklet „AMERICAN SMILE“ von Oliver Bendel aussehen. An ihrer Seite wäre natürlich eine Ziege. Und Peterli, wenn er brav ist.
Abb.: Heidi aus dem Booklet „American Smile“ (Bild: DALL-E 3)
Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish Girl, Maori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Ägyptischen zu bleiben – komplexe Strukturen aus Hieroglyphen. Cleop@tr@ ist spezialisiert auf diese Sprache. Zudem kennt sie sich mit Kultur und Geschichte des alten Ägypten aus. Im Moment scheinen die Hieroglyphen teilweise noch der Fantasie des Prototyps zu entspringen bzw. nicht darstellbar mit den vorhandenen Zeichensätzen zu sein.
Abb.: Cleop@tr@ muss noch an Reife gewinnen (Bild: Ideogram)
OpenAI plant neue Features für GPT-4 bzw. ChatGPT. So soll ein Sprachassistent wie Siri oder Alexa entstehen. Dies wäre allerdings kaum eine Nachricht wert, wenn man daran denkt, dass man sich mit ChatGPT und GPTs schon heute sprechen kann, wenn man ein Smartphone verwendet. Eine Möglichkeit ist, dass das multimodale Sprachmodell verstärkt auditive und visuelle Daten analysiert. So könnte es den Tonfall des Benutzers interpretieren. Futurezone machte am 12. Mai 2024 Andeutungen in dieser Richtung: „Bei einem Einsatz im Kundenservice könnte die KI etwa Sarkasmus heraushören.“ (Futurezone, 12. Mai 2024) Das Magazin führte weiter aus, dass das System auch Text in Echtzeit wird „übersetzen können, etwa von Schildern“. „Das könnte mit Googles Lens vergleichbar sein.“ (Futurezone, 12. Mai 2024) Auch solche Funktionen sind allerdings bereits von OpenAI und seinen Partnern bekannt. So erkennt und übersetzt die auf GPT-4 basierende App „Be My Eyes“ u.a. Beschriftungen von Packungen oder Texte in Büchern. Schließlich heißt es in dem Artikel: „Ein Blick in den neuen Code gibt auch einen Hinweis darauf, dass über ChatGPT künftig Anrufe getätigt werden könnten. Wie der Entwickler Ananay Arora auf X schreibt, dürfte die KI sowohl Telefon- als auch Videoanrufe durchführen können.“ (Futurezone, 12. Mai 2024) Dies erinnert wiederum an Google Duplex, ein Projekt von Alphabet, das mit großen Erwartungen gestartet, dann aber versandet war. Was immer am Anfang der Woche von Sam Altmann bekanntgegeben wird – es dürfte mit der Multimodalität des Sprachmodells zusammenhängen.
Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 12. Mai 2024 wurde – nach Irish Girl und Maori Girl – eine erste Version von Adelina erstellt. Der Name soll an die Lehrerin Adelina Méndez de la Torre erinnern, die sich für einen bilingualen Unterricht und den Erhalt der baskischen Sprache eingesetzt hat. Der Chatbot scheint diese dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Adelina ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.
Abb.: Adelina schreibt und spricht Baskisch (Bild: Ideogram)
The manuscript of the book „Non-Human Animals, Ethics and Engineering“ (alternative title „Animals, Ethics and Engineering“) was sent to the publisher Jenny Stanford in May 2024. It contains 16 chapters on this topic, including by Clara Mancini („Animal-Centered Technology and Sustainable Development“), Fiona French („Designing and Crafting Systems for Non-Human Animals“), and Leonie Bossert together with Thilo Hagendorff („Animals and AI: The Role of Animals in AI Research and Application“). In “An Investigation into the Encounter Between Social Robots and Animals” (Chapter 12), Oliver Bendel “delves into the evolving landscape of social robots designed to interact with animals, dissecting the intricate dynamics of these interactions and their ethical ramifications” (Information from the editors). The philosopher of technology also presents his own projects, such as concepts and prototypes of animal-friendly machines, developed in the context of machine ethics, animal-machine interaction, and social robotics. The editors are Rosalyn W. Berne and Madeline A. Kibler from the University of Virginia. The book is scheduled for publication in late summer or fall 2024.
Um ihre Züge frei von Graffitis zu halten und Vandalismus vorzubeugen, testete die Deutsche Bahn einen Monat lang in München den vierbeinigen Roboter Spot von Boston Dynamics. Dieser hat laut BR24 „keinen Sprayer erwischt, der sich auf einem Waggon verewigen wollte“. „Es könnte also sein, dass Spot Sprayer abschreckte, neue Graffitis seien nicht entdeckt worden.“ (Heise, 9. Mai 2024) Belege gibt es dafür allerdings nicht. Spot sollte, so die damalige Pressemitteilung vom 15. März 2024, eigenständig über Abstellanlagen patrouillieren und KI-gestützt unbefugte Personen oder andere Unregelmäßigkeiten erkennen. Er kann grundsätzlich schwieriges Gelände bewältigen, und das rund um die Uhr: „Selbst Stufen, Schienen oder Schotter sind für ihn kein Problem. Mit Hilfe seiner Sensoren und Kameras kann er Kollisionen mit Menschen oder Gegenständen vermeiden und behält auch nachts jederzeit den Überblick.“ (Pressemitteilung DB, 15. März 2024) Was die Autonomie anbetreffe, „gebe es Besserungsbedarf“, und „noch vor der Detailauswertung stehe bereits fest, dass die Bahn Spot zum jetzigen Stand nicht dauerhaft Züge überwachen lassen will“ (Heise, 9. Mai 2024). Das ist aber nicht das endgültige Ende von Spot an den Gleisen. Die Bahn will ihn „noch einmal testen, um weitere Erkenntnisse zu sammeln“ (Heise, 9. Mai 2024).
Abb.: Spot an den Gleisen (Foto: Deutsche Bahn AG/Thomas Kiewning)
Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori (offiziell „Māori“ geschrieben) und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 9. Mai 2024 wurde – eine Woche nach Irish Girl – eine erste Version von Maori Girl erstellt. Sie scheint die polynesische Sprache des indigenen Volks in Neuseeland dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.
Abb.: Maori Girl schreibt und spricht Maori (Bild: Ideogram)
Wie die Frankfurter Allgemeine meldet, läuft der oscarnominierte Animationsfilm „Robot Dreams“ im Kino an. Es ist die Geschichte eines einsamen Hunds namens Dog. „Abends läuft bei Dog die Glotze, und es gibt Käse-Makkaroni aus der Mikrowelle.“ (FAZ, 8. Mai 2024) In der Werbung erfährt er vom humanoiden Amica 2000. „Einmal zusammengebaut, wird der Roboter mit den Spaghetti-Armen und -Beinen schnell zu Dogs bestem Freund.“ (FAZ, 8. Mai 2024) Die beiden flanieren durchs alte New York und gehen an den Strand von Coney Island. Dort kann sich der Roboter – wenige Stunden vor der Schließung – plötzlich nicht mehr bewegen. Er muss zurückbleiben und Dog in sein Zuhause und in seine Einsamkeit zurückkehren. Die Zeit zieht sich wie der Käse in den Makkaroni, die Dog alleine isst. Der Roboter befreundet sich derweil mit einer Vogelfamilie. Und beide träumen auf ihre Art vom Wiedersehen. Die FAZ schreibt: „In seiner komplexen Einfachheit ist ‚Robot Dreams‘ ein Familienfilm im besten Sinne: ein sympathischer Film über zwei nichtmenschliche Außenseiter im urbanen Dschungel, der das Menschlichste überhaupt in eine -generationenübergreifende Bildsprache übersetzt.“ (FAZ, 8. Mai 2024) Roboter sind auch nur Menschen. Hunde erst recht.
In ihrer Strategie 2035 hat die FHNW drei Zukunftsfelder definiert, nämlich New Work, Future Health und Zero Emission. Prof. Dr. Oliver Bendel hielt am 6. Mai 2024 in Olten vor dem Fachhochschulrat einen Vortrag zum Thema „Robotik und New Work“. „Der Fachhochschulrat trägt die strategische Führungsverantwortung und übt die Aufsicht über die FHNW aus. Er regelt die Organisation der FHNW und überwacht die Qualität der Leistungen der FHNW.“ (Website FHNW) Prof. Dr. Oliver Bendel erklärte zunächst das Konzept von New Work und ging dann auf neue Entwicklungen in Robotik und Künstlicher Intelligenz ein. Am Ende formulierte er Fragen, die sich mit Blick auf New Work stellen. Kern des Vortrags war die Vorstellung von Vierbeinern wie Spot und Unitree Go2 sowie Zweibeinern wie Unitree H1, Figure 01 und Atlas in seiner elektrischen Version. Vorgestellt wurden die Merkmale und Einsatzbereiche. Die genannten Zweibeiner können als Vorstufen zu universalen Robotern oder Allzweckrobotern gelten. Sie werden von den Firmen als „general-purpose robots“ oder „all-purpose robots“ vermarktet, ohne schon für alle Zwecke geeignet zu sein. Der Vortrag stieß auf reges Interesse und mündete in eine angeregte Diskussion.
Abb.: Der Vortrag fand am Campus Olten statt (Foto: Pati Grabowicz)
„Die parlamentarische Technikfolgenabschätzung oder Technologiefolgenabschätzung zielt auf Analyse und Bewertung der Wirkungen und Folgen einer Technik bzw. Technologie ab, insbesondere in prospektiver Absicht, und ist trotz (oder auch wegen) der kaum noch zu übersehenden Problemgebiete und der kaum noch zu bewältigenden Komplexität nach wie vor ein wichtiges Instrument bei der Beratung der Politik. Sie wird durch TA-Einrichtungen des Parlaments oder außerhalb des Parlaments betrieben, in manchen Ländern wie in Finnland und Griechenland sogar von Mitgliedern des Parlaments selbst.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel zur parlamentarischen Technikfolgenabschätzung. Es werden TA-Einrichtungen in den deutschsprachigen Ländern aufgezählt und – nach der Betonung der interdisziplinären Herangehensweise – Themen und Schwerpunkte genannt. Der Wissenschaftsfreiheit gehören die letzten Zeilen. Der ganze Beitrag – erschienen ist er am 6. Mai 2024 – kann hier aufgerufen werden.
Abb.: Auch der Einsatz von Robotern kann bewertet werden
According to the WHO, hand hygiene saves millions of lives every year when done at the right time during healthcare. The World Day of Hand Hygiene was established by the organization and is celebrated on May 5th of each year. Dr. Amol Deshmukh is researching how children can be encouraged to wash their hands with the help of social robots. He presented his findings at the ICSR in Qatar in December 2023. The paper by him and his co-authors is entitled „Enhancing Hand Hygiene Practices Through a Social Robot-Assisted Intervention in a Rural School in India“. From the abstract: „This paper discusses pilot deployment of a social robot ‚WallBo‘ that investigated the effectiveness in promoting and encouraging handwashing practices among children in a rural school in India. The results suggest an overall 85.06% handwashing compliance, 51.60% improvement from the baseline handwashing compliance and an overall ~ 50% knowledge improvement about handwashing. We also present students’ perception about ‚WallBo‘ and feedback from the pupils and teachers.“ (Abstract) The chapter in the proceedings is available via link.springer.com/chapter/10.1007/978-981-99-8715-3_21.
Fig.: Dr. Amol Deshmukh during his presentation at Qatar University