Der 28. März 2023 war der zweite Tag des Symposiums „Socially Responsible AI for Well-being“ im Rahmen der AAAI 2023 Spring Symposia. Veranstaltungsort ist normalerweise die Stanford University. Aus personellen Gründen wurde die Konferenz in diesem Jahr ins Hyatt Regency in San Francisco verlegt. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW stellte am Morgen das Paper „Increasing Well-being through Robotic Hugs“ vor, das von ihm, Andrea Puljic, Robin Heiz, Furkan Tömen und Ivan De Paola verfasst wurde. Das Team hatte einen Umarmungsroboter namens HUGGIE gebaut und an über 130 Probanden getestet. Danach hielten Lea Peier und er ihren Vortrag „How Can Bar Robots Enhance the Well-being of Guests?“. Sie gingen auf zwei Barroboter ein, die in der Schweiz im Betrieb sind bzw. waren. Lea Peier hatte im Rahmen ihrer Abschlussarbeit an der Hochschule für Wirtschaft FHNW die wohl erste empirische Untersuchung zu Barrobotern durchgeführt. Beide Vorträge weckten das Interesse der Zuhörer, die vor allem aus Japan und den USA stammten. Informationen zur Konferenz sind über aaai.org/conference/spring-symposia/sss23/ erhältlich.
Am 27. März 2023 begann das Symposium „Socially Responsible AI for Well-being“ im Rahmen der AAAI 2023 Spring Symposium Series. Die traditionsreiche Konferenz wurde ausnahmsweise von der Stanford University ins Hyatt Regency SFO Airport verlegt. In seinem Eröffnungsvortrag erklärte Takashi Kido, einer der beiden Organisatoren, was Responsible AI ist, und erwähnte die Begriffe „Accountability“, „Responsibility“ und „Transparency“. Der Fokus des Symposiums ist Well-being und Fairness. Takashi Kido erwähnte den Vortrag „Should Social Robots in Retail Manipulate Customers?“ von Prof. Dr. Oliver Bendel beim Symposium „How Fair is Fair? Achieving Wellbeing AI“ von 2022, der auf dem gleichnamigen Paper von Oliver Bendel und Liliana Alves beruhte. Er leitete dann über zum Begriff “Socially Responsible AI“, wobei er folgende Diskussion benutzte: „Socially Responsible AI is about human responsibility for the development of intelligent systems along fundamental human principles and values, to ensure human flourishing and well-being in a sustainable world, considering for humans and AI ideal relationships“. Am Ende durften auch Überlegungen zu ChatGPT nicht fehlen. Es schloss sich eine intensive Diskussion über den Chatbot an, der zugleich ein Contentgenerator ist. Das Faszinierende ist, dass dieses Thema Laien und Experten gleichermaßen aufwühlt. Informationen zur Konferenz sind über aaai.org/conference/spring-symposia/sss23/ erhältlich.
Der Zukunftsrat des deutschen Bundeskanzlers Olaf Scholz hat im Dezember 2022 Impulse für den Innovationsstandort Deutschland diskutiert. Man war sich laut Bundesministerium für Bildung und Forschung (BMBF) einig, dass die Robotik hohe Potenziale bietet und die Beherrschung der damit zusammenhängenden Technologien auch eine Frage der Wettbewerbsfähigkeit sowie der technologischen Souveränität ist. Man will nun zwei zentrale Handlungsempfehlungen des Zukunftsrats zur Robotik, nämlich „Spitzenforschung und Transfer stärken“ und „Talente gewinnen“, umsetzen. Um dies zu erreichen, lud das BMBF ausgewiesene Experten zu einem Fachgespräch ein, das am 27. März 2023 in Bonn stattfindet. Es gilt, Themen für Schwerpunkte in der Forschung und Ansätze zur Gewinnung von Spitzenkräften zu entwickeln. Auch Prof. Dr. Oliver Bendel, Philosoph und Wirtschaftsinformatiker aus Zürich, wurde angefragt. Da er zur gleichen Zeit in San Francisco bei den AAAI Spring Symposia zwei Vorträge hält (einen zu Barrobotern, zusammen mit Lea Peier, einen anderen zu Umarmungsrobotern), wurde er vom BMBF gebeten, seinen Input schriftlich zu formulieren. Auf sechs Seiten ging er auf Potenziale von Basistechnologien, die Integration von Robotern in komplexe Strukturen, aktuelle Forschungsfragen in der Robotik sowie Vertrauenswürdigkeit im Kontext robotischer Systeme ein. Sein Fokus lag dabei auf Servicerobotern und sozialen Robotern. Das Dokument liegt dem BMBF seit 15. März 2023 vor und wird beim Fachgespräch vor Ort ausgehändigt.
Abb.: Oliver Bendel bei einem Dreh mit 3sat (Foto: Sara Zarubica)
Im Rahmen des Themenwochenendes „Wenn der Mensch zur Maschine wird“ fanden am 5. März 2023 am Zentrum Paul Klee zur Ausstellung „Paul Klee. Vom Rausch der Technik“ zwei Gespräche statt. „Cyborgs – die besseren Menschen?“ war der Titel des ersten, zwischen Prof. Dr. Oliver Bendel (Wirtschaftsinformatiker und Technikphilosoph) und Fabienne Eggelhöfer (Chefkuratorin). Das zweite mit dem Titel „Siri spricht über Klee“ führte Jane Mumford (Kabarettistin, Komikerin, Musikerin und Illustratorin) mit dem Sprachassistenten von Apple. Sie bezog auch ChatGPT ein, wobei die Stimme von einem Schauspieler geliehen wurde. Im Zusammenhang mit dem System von OpenAI stellte sie drei Haikus aus dem Band „Dass es nur Kunst war, verdeckte die Kunst“ von Oliver Bendel vor. Mit Hilfe geeigneter Prompts hatte er ChatGPT erstaunliche Ergebnisse entlockt. Das Publikum spendete nach beiden Gesprächen lautstarken Applaus.
Adrian Lobe stellte einige Fragen an Oliver Bendel, die sich auf Generative AI bezogen. Im Fokus waren KI-basierte Bildgeneratoren, die inzwischen fotorealistische Abbildungen erschaffen können. Solche legte der Journalist dem in Zürich lebenden Professor vor und wollte von ihm wissen, wie er diese Retortenmenschen aus ethischer Sicht bewertet. Die Antwort begann mit den folgenden Worten: „Es spricht zunächst nichts dagegen, mit Hilfe von KI-basierten Bildgeneratoren fiktive Frauen und Männer zu erschaffen, also Avatare oder Hologramme. Man schadet niemandem, wenn die Bilder auf dem Bildschirm oder in einem Gerät erscheinen. Problematischer sind Deep Fakes, die reale Personen teilweise oder gesamthaft abbilden. Sie können die Menschenwürde verletzen, vor allem bei sexuellen Darstellungen. Aus ästhetischer Sicht ist es interessant, Menschen auf die Welt zu bringen, die man selbst schön findet, die man aber weder in den Medien noch im Alltag antrifft. Es wird ein Mensch gemacht, hat Wagner in ‚Faust II‘ ausgerufen, als Mephistopheles zu ihm getreten ist. Allerdings war es nur ein kleiner Homunkulus. Nun kann man seinen Traum verwirklichen und eine realistische Figur nach seinen Wünschen kreieren. Das ist auch aus ethischer Sicht relevant – denn es kann zu einem guten, erfüllten Leben beitragen. Vielleicht werden einem bestimmte Wünsche auch erst klar. Man versteht besser, was man will und was man nicht will, was man schön findet und was nicht. Man lernt sich besser kennen und kann auch anderen mitteilen, was man will und schön findet. Nur werden sich nicht alle Wünsche erfüllen lassen. Und eine Partnerschaft ist auch kein Wunschkonzert.“ Es folgten durchaus kritische Anmerkungen zur Praxis des Bildergenerierens sowie weitere Antworten auf weitere Fragen. Einzelne Statements wurden in den Artikel „Sieht unheimlich echt aus!“ (auch: „Unheimlich echt!“) übernommen, der am 27. Februar 2023 in ca. 20 Schweizer Zeitungen erschienen ist, etwa in der Aargauer Zeitung, in der Luzerner Zeitung und im St. Galler Tagblatt, und auf den in der Folge etwa bei 20 Minuten Bezug genommen wurde.
Einige Banken erlauben beim Kontozugang die Authentifizierung durch die Stimme des Kunden. Dazu gehört z.B. PostFinance in der Schweiz. Auf der Website heißt es: „Im Kontaktcenter von PostFinance können wir Sie anhand Ihrer Stimme authentifizieren. Nachdem wir einmalig von Ihnen einen Stimmabdruck angelegt haben, erkennen wir Sie bei allen folgenden Anrufen anhand Ihrer Stimme. Das unterstützt die Sicherheit und spart Zeit.“ (Website PostFinance) Seit einigen Jahren kann man mit wenigen Minuten der Aufnahme einer individuellen Stimme eine synthetische Stimme generieren und sie beliebige Inhalte sagen lassen. Auch die Sprechweise wird imitiert. Dafür stehen kostenpflichtige und kostenlose KI-Tools zur Verfügung. Auch bei Sprachassistenten verbreitet sich die Funktion – man denke etwa an Bixby von Samsung. Oliver Bendel veröffentlichte im Juli 2017 in AI & Society seinen Artikel „The Synthetization of Human Voices“ und beschrieb genau solche Verfahren. Joseph Cox berichtete in seinem Artikel „How I Broke Into a Bank Account With an AI-Generated Voice“ (Vice, 23. Februar 2023), dass er erfolgreich das System ausgetrickst hat: „I couldn’t believe it – it had worked. I had used an AI-powered replica of a voice to break into a bank account. After that, I had access to the account information, including balances and a list of recent transactions and transfers.“ (Vice, 23. Februar 2023) Fingerabdruck und Iriserkennung zur Authentifizierung sind seit längerer Zeit problembehaftet. Inzwischen sollte man sich auch den Einsatz seiner Stimme gut überlegen.
Abb.: Die eigene Stimme kann schnell synthetisiert werden
Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Heutzutage gibt es Chatbots und Generative-KI-Systeme wie ChatGPT, die auf Machine Learning beruhen und die immer wieder die Unwahrheit sagen, allerdings ohne dass ihnen die Absicht dazu vermittelt wurde. So werden Angaben zu Personen hinzugedichtet und Quellen erfunden. Zu diesem Thema befragte Technology Review den Informations- und Maschinenethiker aus Zürich. Dabei ging es auch um seine damalige Forschung zu Münchhausen-Maschinen. Mit Chatbots, Sprachassistenten und sozialen Robotern befasst sich Oliver Bendel bereits seit einem Vierteljahrhundert. Sie waren auch der Gegenstand seiner Doktorarbeit, die er an der Universität St. Gallen verfasste und die Ende 2002 abgeschlossen und Anfang 2003 angenommen wurde. Das Interview wurde am 22. Februar 2023 veröffentlicht und kann hier abgerufen werden.
Abb.: Oliver Bendel bei einem Panel der Deutschlandstiftung (Foto: Deutschlandstiftung Integration)
„Was sollte Ihrer Einschätzung nach zum Thema ‚Bewusste Künstliche Intelligenz‘ diskutiert werden, geschehen oder unterbleiben? Welche Forschungsansätze und Narrative gehören weiterentwickelt, aufgelöst und ersetzt, welche Irrwege endlich beendet, und welche Ansätze und Nischen sollten deutlich mehr Aufmerksamkeit erhalten? Aus welchen Gründen wird derzeit überhaupt über Künstliches Bewusstsein gesprochen, und was halten Sie für vielversprechend, möchte man ‚Bewusstsein‘ künstlich bewirken?“ Diese Fragen stellte Ende 2020 das KIT – Karlsruher Institut für Technologie verschiedenen Experten auf dem Gebiet. Oliver Bendel reichte im Frühjahr 2021 den Beitrag „Soziale Roboter und ihr Sprung in die Zukunft“ ein. Er stellte die drei Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) in einen Zusammenhang und klärte, welchen Gegenstand sie jeweils haben und welchen Ursprung oder welches Vorbild dieser wiederum hat. Dann zeigte er auf, wie die Soziale Robotik die drei Disziplinen einbezieht und ausnutzt. Der Band soll 2023 bei KIT Scientific Publishing unter dem Titel „Künstliche Intelligenz und Bewusstsein – Statements 2021“ erscheinen. Der Beitrag kann hier als Preprint heruntergeladen werden.
Die Medien interessieren sich seit Jahren stark für die Sicht der Technikphilosophie und der Informations-, Roboter- und Maschinenethik auf soziale Roboter und ähnliche Systeme. Im Juni und Juli 2022 waren zwei Fernsehsender an der Hochschule für Wirtschaft FHNW, um die Arbeit von Prof. Dr. Oliver Bendel kennenzulernen und Bilder und O-Töne einzufangen. BILD LIVE hat einen Beitrag („Hey, Puppe!“) zum Cybrothel in Berlin gemacht, 3sat eine Doku zur Mensch-Maschine-Interaktion und zur Sozialen Robotik. Diese wird am 2. März 2023 unter dem Titel „Mein Avatar und ich“ ausgestrahlt. Im Ankündigungstext heißt es: „Waren Maschinen früher nur Helfer, werden sie heute zu Weggefährten. Der Mensch spricht mit seinem Auto oder mit Alexa. Akzeptieren wir die Technik mehr, je ähnlicher sie uns wird?“ (Website 3sat) Seit Januar 2022 zeigt ARTE die Doku „Werden wir Roboter lieben?“ von Tanja Küchle. Darin wird ebenfalls auf soziale Roboter eingegangen. Die Ausschnitte aus dem Interview mit Oliver Bendel führen durch den Film. Online ist dieser über www.arte.tv/de/videos/101938-004-A/42-die-antwort-auf-fast-alles/ aufrufbar. Auf die neue Doku von Ingolf Baur und seinem Team darf man ebenfalls gespannt sein. Informationen zum Programm auf 3sat sind über www.3sat.de/programm verfügbar.
Abb.: Oliver Bendel beim Dreh mit 3sat (Foto: Sara Zarubica)
„Wenn der Mensch zur Maschine wird. Gespräche mit und über Siri, Roboter und Cyborgs“ – so lautet der Titel eines Themenwochenendes, das im Zentrum Paul Klee (ZPK) in Bern stattfindet, als Ergänzung zur Ausstellung „Paul Klee. Vom Rausch der Technik“. Der deutsche Maler, der in Münchenbuchsee bei Bern geboren wurde, lebte laut Website des ZPK in einer Zeit großer „technologischer Transformationen“. „Die neuen Errungenschaften stellten die Wahrnehmung der Menschen von Materie, Raum und Zeit infrage. Röntgenstrahlen, Telefone, Elektrizität lösten das gewohnte Weltbild auf. Darauf reagierten auch Künstler wie Paul Klee.“ (Website ZPK) Für Sonntag, den 5. März 2023, hat Fabienne Eggelhöfer, die Chefkuratorin des bekannten Museums, Prof. Dr. Oliver Bendel eingeladen. Sie geht mit ihm der Frage „Cyborgs – die besseren Menschen?“ nach. Über Cyborgs, Animal Enhancement und Human Enhancement sowie Biohacking und Bodyhacking hat der Wirtschaftsinformatiker und Technikphilosoph bereits mehrmals publiziert und referiert. Zuletzt erschienen seine Buchbeiträge „Chips, Devices, and Machines within Humans: Bodyhacking as Movement, Enhancement and Adaptation“ (Narr, 2021) und „Bodyhacking als Phänomen und Trend“ (Springer Vieweg, 2022). Auf der Architekturbiennale in Venedig hatte er Ende 2021 auf Einladung des Salon Suisse zu „Human and Animal Enhancement in the Context of Architecture“ vorgetragen. Weitere Informationen zum Gespräch im ZPK sind hier erhältlich. Zusätzlich steht ein Flyer zur Verfügung.
Jasmine Lu and Pedro Lopes of the University of Chicago published a paper in late 2022 describing the integration of an organism – the single-celled slime mold Physarum Polycephalum – into a wearable. From the abstract: „Researchers have been exploring how incorporating care-based interactions can change the user’s attitude & relationship towards an interactive device. This is typically achieved through virtual care where users care for digital entities. In this paper, we explore this concept further by investigating how physical care for a living organism, embedded as a functional component of an interactive device, also changes user-device relationships. Living organisms differ as they require an environment conducive to life, which in our concept, the user is responsible for providing by caring for the organism (e.g., feeding it). We instantiated our concept by engineering a smartwatch that includes a slime mold that physically conducts power to a heart rate sensor inside the device, acting as a living wire. In this smartwatch, the availability of heart-rate sensing depends on the health of the slime mold – with the user’s care, the slime mold becomes conductive and enables the sensor; conversely, without care, the slime mold dries and disables the sensor (resuming care resuscitates the slime mold).“ (Lu and Lopes 2022) The paper „Integrating Living Organisms in Devices to Implement Care-based Interactions“ can be downloaded here.
Artikel 5 Absatz 3 Satz 1 des Grundgesetzes für die Bundesrepublik Deutschland bestimmt: „Kunst und Wissenschaft, Forschung und Lehre sind frei. Die Freiheit der Lehre entbindet nicht von der Treue zur Verfassung.“ Ähnlich lautet Artikel 20 der Bundesverfassung der Schweizerischen Eidgenossenschaft: „Die Freiheit der wissenschaftlichen Lehre und Forschung ist gewährleistet.“ Artikel 17 des Staatsgrundgesetzes über die allgemeinen Rechte der Staatsbürger schützt in Österreich die Freiheit der Wissenschaft („Die Wissenschaft und ihre Lehre ist frei.“). Allerdings wird in Deutschland, in Österreich und in der Schweiz die Wissenschaftsfreiheit – die Forschungs-, Lehr- und Lernfreiheit umfasst – immer mehr verletzt, durch Vorgaben von Hochschul- und Studiengangleitungen, durch Sprachleitfäden für Mitglieder der Hochschulen und durch Druck von Aktivisten. Im Nomos-Verlag ist der Band „Wissenschaftsfreiheit: Warum dieses Grundrecht zunehmend umkämpft ist“ erschienen. In der Verlagsinformation heißt es: „Im letzten Jahrzehnt hat sich, was die Wertschätzung und Definition von Wissenschaftsfreiheit betrifft, eine wachsende Kluft an Hochschulen aufgetan. Auf der einen Seite stehen diejenigen, für die Wissenschaftsfreiheit ein grundsätzlich schützenswertes individuelles Grundrecht ist. Ihnen gegenüber stehen diejenigen, die den Schutz von Forschung und Lehre unter einen weltanschaulichen Vorbehalt stellen. Insbesondere identitätspolitisch motivierte Hochschulangehörige greifen zu den Mitteln der moralischen Diskreditierung, sozialen Ausgrenzung und institutionellen Bestrafung, um ihre Weltsicht durchzusetzen. Dieser Band analysiert die Erscheinungsformen und Folgen dieser politisierten und moralisierten Wissenschaftsausrichtung.“ (Verlagsinformation Nomos) Die Beiträge stammen von Russell A. Berman, Christian von Coelln, Michael Esfeld, Marie-Luisa Frick, Barbara Holland-Cunz, Sandra Kostner, Stefan Luft, Arne Pautsch, Inken Prohl, Richard Traunmüller, Vojin Saša Vukadinović und Alexander Zinn. Das Buch kann über www.nomos-shop.de/isbn/978-3-8487-8429-5 bezogen werden.
Abb.: Auch in der Schweiz ist die Wissenschaftsfreiheit bedroht
Why is your baby crying? And what if artificial intelligence (AI) could answer that question for you? „If there was a flat little orb the size of a dessert plate that could tell you exactly what your baby needs in that moment? That’s what Q-bear is trying to do.“ (Mashable, January 3, 2023) That’s what tech magazine Mashable wrote in a recent article. At CES 2023, the Taiwanese company qbaby.ai demonstrated its AI-powered tool which aims to help parents resolve their needs in a more targeted way. „The soft silicone-covered device, which can be fitted in a crib or stroller, uses Q-bear’s patented tech to analyze a baby’s cries to determine one of four needs from its ‚discomfort index‘: hunger, a dirty diaper, sleepiness, and need for comfort. Q-bear’s translation comes within 10 seconds of a baby crying, and the company says it will become more accurate the more you use the device.“ (Mashable, January 3, 2023) Whether the tool really works remains to be seen – presumably, baby cries can be interpreted more easily than animal languages. Perhaps the use of the tool is ultimately counterproductive because parents forget to trust their own intuition. The article „CES 2023: The device that tells you why your baby is crying“ can be accessed via mashable.com/article/ces-2023-why-is-my-baby-crying.
Das Sonntagsblatt hat mit Prof. Dr. Oliver Bendel ein Interview zu KI und Sozialer Robotik geführt. Unter anderem ging es um Roboter als Subjekte und Objekte der Moral. Der Informations- und Maschinenethiker hält nichts davon, Robotern moralische Rechte zuzugestehen. Er knüpft solche an Empfindungs- und Leidensfähigkeit bzw. Bewusstsein. Nach seiner Ansicht verläuft ein tiefer Graben zwischen Lebewesen und Dingen, und es sei gefährlich, diesen einebnen zu wollen. Auch von Pflichten möchte er nicht sprechen, höchstens von Verpflichtungen, die wir Robotern auferlegen, noch besser von Aufgaben, die sie erledigen müssen, unter Beachtung moralischer Regeln. Sogenannte moralische Maschinen sind neue, merkwürdige, unvollständige Subjekte der Moral. Sie haben kein Bewusstsein, keine Intuition, keine Empathie, keinen freien Willen, aber sie können – als autonome Maschinen alleingelassen in geschlossenen, halboffenen oder offenen Welten – verschiedene Optionen erwägen und eine von ihnen auswählen. Dies ist eine funktionale Moral, die allenfalls mit der Moral mit Fundamentalisten zu tun hat – aber im Robozän kann sie eine Bereicherung darstellen, vor allem wenn Maschinen auf Menschen oder Tiere treffen, etwa als soziale Roboter. Das Interview kann in schriftlicher Form über www.sonntagsblatt.de/artikel/maschinenethiker-oliver-bendel-gpt3-pflegeroboter nachgelesen werden. Zudem gibt es einen Podcast von 45 Minuten Länge.
Abb.: Oliver Bendel bei einem Dreh mit 3sat (Foto: Sara Zarubica)
The Association for the Advancement of Artificial Intelligence (AAAI) is pleased to present the AAAI 2023 Spring Symposia, to be held at the Hyatt Regency, San Francisco Airport, California, March 27-29. According to the organizers, Stanford University cannot act as host this time because of insufficient staff. Symposia of particular interest from a philosophical point of view are „AI Climate Tipping-Point Discovery“, „AI Trustworthiness Assessment“, „Computational Approaches to Scientific Discovery“, „Evaluation and Design of Generalist Systems (EDGeS): Challenges and methods for assessing the new generation of AI“, and „Socially Responsible AI for Well-being“. According to AAAI, symposia generally range from 40–75 participants each. „Participation will be open to active participants as well as other interested individuals on a first-come, first-served basis.“ (Website AAAI) Over the past decade, the conference has become one of the most important venues in the world for discussions on robot ethics, machine ethics, and AI ethics. It will be held again at History Corner from 2024. Further information via www.aaai.org/Symposia/Spring/sss23.php.
On December 13th, 2022, the hybrid workshop „Realization of Avatar-Symbiotic Society“ was held at the ICSR. It was organized by Dr. Takahiro Miyashita (ATR) and Prof. Dr. Takashi Yoshimi (Shibaura-IT). The description of the workshop was as follows: „This workshop aims at presenting the ongoing progress of the challenges on the Moonshot (MS) human-centered long-term R&D program. It will discuss by focusing on the goal 1 of the MS dealing with the future realization of an avatar-symbiotic society and cybernetic avatars (CAs). In the workshop, semi-autonomous tele-operated robots and CG agents are called CAs. The participants will discuss with speakers who are researchers related to CAs‘ technology about the avatar-symbiotic society which enables to freely and actively participate in society for every person.“ (Website ICSR) The first lecture entitled „Avatar and the future society“ was given by Prof. Dr. Hiroshi Ishiguro (Osaka University). He introduced Erica, Telenoid, and Hugvie, among others. Hugvie is a technically expandable doll that can be hugged. He also introduced his „Avatar Infrastructure“: „Anyone, including the elderly and people with disabilities, will be able to freely participate in various activities with abilities beyond ordinary people while expanding their physical, cognitive, and perceptual abilities using a large number of CAs.“ Prof. Dr. Oliver Bendel mentioned to Hiroshi Ishiguro that two of his former students, Nhi Tran Hoang Yen and Thang Hoang Vu from Ho Chi Minh City, interpreted his Hugvie as a female figure and designed a male figur (Gendering Hugvie) as part of a project on social robots. The roboticist from Osaka replied that his Hugvie doll had no gender, but noted the reception with interest. Other presentations with exciting discussions followed. More information on the conference via www.icsr2022.it.
After an hiatus of six years, Minding Animals will return, with a conference tentatively scheduled to be held 11 – 17 July, 2024. This was announced by the organizers in a message dated December 19, 2022. „Just like the postponed 2021 conference, Minding Animals 5 (MAC5) will be hosted by the Centre for Compassionate Conservation (CfCC) in the Transdisciplinary School at the University of Technology, Sydney (UTS).“ (Message from Minding Animals International) The organizers refer to the Minding Animals Bulletin 53 regarding the vision of the conference and the preparation of the authors. „We believe that the greatest threat posed to the planet, to all planetary life, human or nonhuman animal, plant or otherwise, including the current pandemic, is the intersection of animal agriculture and the climate crisis. Hence, the urgency and criticality of climate as the key theme.“ (Minding Animals Bulletin 53) Possible subtopics include „The biodiversity crisis and climate change“, „Rewilding and compassionate conservation“, „The animal industrial complex“, „Animals, the circular economy and sustainable food systems“, and „Animals in development and food sovereignty“.
On the morning of December 15, 2022, the session „Ethics, Gender & Trust in Social Robotics“ was held at ICSR 2022. Chairs were Giulia Perugia and Oliver Bendel. Dimitri Lacroix started the session with „I designed it, so I trust it: the influence of customization on psychological ownership and trust toward robots“. He showed that in line with the predictions of the authors, customization significantly increases psychological ownership and trust toward the robot. JeeLoo Liu gave a talk on the topic of „Human-in-the-Loop Ethical AI for Care Robots and Confucian Virtue Ethics“. She explicated how Confucian virtue ethics can respond to human expectations of what kind of virtuous care robots we want in our society. Jean Choi spoke about „Effects of Realistic Appearance and Consumer Gender on Pet Robot Adoption“. By adopting theories from marketing and consumer research, the authors hypothesized that pet robots with lifelike appearance would be preferred to pet robots with machinelike appearances. They also predicted that the positive effect of lifelike appearance would be reduced for female consumers. According to the researchers, the experimental results confirmed the formulated hypotheses. The last talk was „Ambivalent Stereotypes Towards Gendered Robots: The (Im)mutability of Bias Towards Female and Neutral Robots“ by Stefano Guidi. According to the team, the results disclosed that female robots activate paternalistic stereotypes, while male robots do not. Moreover, they reveal that the ambivalence of these stereotypes is stronger in men than in women. The analyses also showed that neutral robots activate paternalistic stereotypes in men and envious stereotypes in women. More information on the conference via www.icsr2022.it.
Fig.: JeeLoo Liu during her presentation (Photo: Marc Heimann)
At the end of the ACI conference, the „Paper Session 6“ was held, which was titled „Investigating Human-Animal Relations“. Sarah Webber (University of Melbourne) gave a talk on „Watching Animal-Computer Interaction: Effects on Perceptions of Animal Intellect“. In the experiment, people observed orangutans interacting with computer applications. It was examined how they changed their judgments regarding the animals‘ intelligence and behavior. The talk that followed came from Alexandra Morgan (Northumbria University) and was titled „Blind dogs need guides too: towards technological support for blind dog caregiving“. She addressed the needs of blind dogs and showed what gadgets are on the market to assist them. Her team developed an app called „My Blind Dogo“ that could help owners of blind dogs. The session ended with a talk on „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ by Oliver Bendel (University of Applied Sciences and Arts Northwestern Switzerland). He presented an integrated system with cameras, robots, and drones that Ali Yürekkirmaz and he had designed. The ACI took place from 5 to 8 December 2022 in Newcastle upon Tyne. It is the world’s leading conference on animal-computer interaction. More information on the conference via www.aciconf.org/aci2022.
On the last day of the ACI Conference (December 8, 2022), „Session 5: Sensors & Signals, Part II: Electric Boogaloo“ started after the lunch break. Carlos Alberto Aguilar-Lazcano (CICESE-UT3) gave a talk on the topic „Towards a monitoring and emergency alarm system activated by the barking of assistant dogs“. The next presentation was „WAG’D: Towards a Wearable Activity and Gait Detection Monitor for Sled Dogs“ by Arianna Mastali (Georgia Institute of Technology). According to her, studies have shown orthopedic injuries to be most common among sled dogs. These like to move very much, but repeatedly exceed their capabilities. To solve this problem, the team has developed a technical solution, a special wearable, with the help of which data on the condition of the animals are generated. „Spatial and Temporal Analytic Pipeline for Evaluation of Potential Guide Dogs Using Location and Behavior Data“ was the title of the next talk, given by David L. Roberts (North Carolina State University), followed by “Comparing Accelerometry and Computer Vision Sensing Modalities for High-Resolution Canine Tail Wagging Interpretation”, given by Devon Martin (North Carolina State University). More information on the conference via www.aciconf.org/aci2022.
After the keynote on the morning of December 8, 2022, ACI2020 continued with „Paper Session 4: Sensors & Signals, Part I: Origin Stories“. David L. Roberts (North Carolina State University) presented on „Motion-Resilient ECG Signal Reconstruction from a Wearable IMU through Attention Mechanism and Contrastive Learning“. The next talk, „TamagoPhone: A framework for augmenting artificial incubators to enable vocal interaction between bird parents and eggs“, was given by Rebecca Kleinberger (Massachusetts Institute of Technology & Northeastern University). The starting point of her research was that some birds have pre-hatching vocal communication. The last presentation before the lunch break that was given online was „Simultaneous Contact-Free Physiological Sensing of Human Heart Rate and Canine Breathing Rate for Animal Assisted Interactions: Experimental and Analytical Approaches“ by Timothy Holder and Mushfiqur Rahman (North Carolina State University). More information on the conference via www.aciconf.org/aci2022.
The fourth day of the ACI2022 conference – December 8, 2022 – began with a keynote by Carys L. Williams (DogsTrust), titled „Time Savers or Toys? Realities of Animal Technology in Industry“. „Carys is a mixed-methods Research Officer at the UK’s largest dog welfare charity, Dogs Trust. Carys’ work has focused on practical and applicable dog behaviour and welfare research to improve the lives of dogs, especially those in Dogs Trust’s 22 rehoming centres (around 12,000 dogs a year!). For the last 2 years Carys has been project lead for the Dogs Trust Post Adoption Support longitudinal research project. She has additionally supported the charity’s move to collect more and better dog data, helping build exciting bespoke digital systems. Carys has also spent over a decade in the zoo industry and is currently a volunteer invertebrate keeper at ZSL London Zoo.“ (Website ACI2022) Carys L. Williams started her keynote with a quote from Vladimir Dinets (University of Tennessee): „What is the best games console for my spider?“ … She then turned to real-world issues, such as supporting the welfare of dogs through technological means. More information on the conference via www.aciconf.org/aci2022.