Abstract of „Robots in Policing“

In January 2023, the Proceedings of Robophilosophy 2022 were published. Included is the paper „Robots in Policing“ by Oliver Bendel. From the abstract: „This article is devoted to the question of how robots are used in policing and what opportunities and risks arise in social terms. It begins by briefly explaining the characteristics of modern police work. It puts service robots and social robots in relation to each other and outlines relevant disciplines. The article also lists types of robots that are and could be relevant in the present context. It then gives examples from different countries of the use of robots in police work and security services. From these, it derives the central tasks of robots in this area and their most important technical features. A discussion from social, ethical, and technical perspectives seeks to provide clarity on how robots are changing the police as a social institution and with social actions and relationships, and what challenges need to be addressed.“ (Abstract) Robots in policing is a topic that has not received much attention. However, it is likely to become considerably more topical in the next few years. More information about the conference on cas.au.dk/en/robophilosophy/conferences/rpc2022.

Fig.: The conference poster at the University of Helsinki

Why is Your Baby Crying?

Why is your baby crying? And what if artificial intelligence (AI) could answer that question for you? „If there was a flat little orb the size of a dessert plate that could tell you exactly what your baby needs in that moment? That’s what Q-bear is trying to do.“ (Mashable, January 3, 2023) That’s what tech magazine Mashable wrote in a recent article. At CES 2023, the Taiwanese company qbaby.ai demonstrated its AI-powered tool which aims to help parents resolve their needs in a more targeted way. „The soft silicone-covered device, which can be fitted in a crib or stroller, uses Q-bear’s patented tech to analyze a baby’s cries to determine one of four needs from its ‚discomfort index‘: hunger, a dirty diaper, sleepiness, and need for comfort. Q-bear’s translation comes within 10 seconds of a baby crying, and the company says it will become more accurate the more you use the device.“ (Mashable, January 3, 2023) Whether the tool really works remains to be seen – presumably, baby cries can be interpreted more easily than animal languages. Perhaps the use of the tool is ultimately counterproductive because parents forget to trust their own intuition. The article „CES 2023: The device that tells you why your baby is crying“ can be accessed via mashable.com/article/ces-2023-why-is-my-baby-crying.

Fig.: Is this baby crying?

Proceedings of Robophilosophy 2022

In January 2023, the proceedings of Robophilosophy 2022 were published, under the title „Social Robots in Social Institutions“. „This book presents the Proceedings of Robophilosophy 2022, the 5th event in the biennial Robophilosophy conference series, held in Helsinki, Finland, from 16 to 19 August 2022. The theme of this edition of the conference was Social Robots in Social Institutions, and it featured international multidisciplinary research from the humanities, social sciences, Human-Robot Interaction, and social robotics. The 63 papers, 41 workshop papers and 5 posters included in this book are divided into 4 sections: plenaries, sessions, workshops and posters, with the 41 papers in the ‚Sessions‘ section grouped into 13 subdivisions including elderly care, healthcare, law, education and art, as well as ethics and religion. These papers explore the anticipated conceptual and practical changes which will come about in the course of introducing social robotics into public and private institutions, such as public services, legal systems, social and healthcare services, or educational institutions.“ (Website IOS Press) The proceedings contain the paper „Robots in Policing“ by Oliver Bendel and the poster „Tamagotchi on our couch: Are social robots perceived as pets?“ by Katharina Kühne, Melinda A. Jeglinski-Mende, and Oliver Bendel. More information via www.iospress.com/catalog/books/social-robots-in-social-institutions.

Fig.: At the University of Helsinki

21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik

Seit 2012 sind auf Initiative von Oliver Bendel 21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Die letzten Entwicklungen waren ein Konzept von Ali Yürekkirmaz für ein System mit Gesichtserkennung zur Identifizierung von Bären, das von den Teilnehmern der ACI 2022 in Newcastle upon Tyne diskutiert wurde, und das CARE-MOME, präsentiert von Oliver Bendel und Marc Heimann auf der ICSR 2022 in Florenz. Beide Proceedings erscheinen Anfang 2023. In den nächsten Tagen wird das Projekt mit @ve beendet, einem auf GPT-3 basierenden Chatbot für Latein. Man kann mit ihr in dieser toten Sprache plaudern, die dann ganz lebendig erscheint, und ihr auf Deutsch verschiedene Fragen, etwa zur Grammatik, stellen. Der Entwickler Karim N’diaye stellt das Projekt am 19. Januar 2023 an der Hochschule für Wirtschaft FHNW in kleiner Runde vor. In weiteren Projekten will man sich ausgestorbenen und gefährdeten Sprachen widmen. Eine aktualisierte Übersicht zu allen Artefakten ist auf informationsethik.net und maschinenethik.net zu finden.

Abb.: Die aktualisierte Übersicht zu den Artefakten

Roboter haben weder Rechte noch Pflichten

Das Sonntagsblatt hat mit Prof. Dr. Oliver Bendel ein Interview zu KI und Sozialer Robotik geführt. Unter anderem ging es um Roboter als Subjekte und Objekte der Moral. Der Informations- und Maschinenethiker hält nichts davon, Robotern moralische Rechte zuzugestehen. Er knüpft solche an Empfindungs- und Leidensfähigkeit bzw. Bewusstsein. Nach seiner Ansicht verläuft ein tiefer Graben zwischen Lebewesen und Dingen, und es sei gefährlich, diesen einebnen zu wollen. Auch von Pflichten möchte er nicht sprechen, höchstens von Verpflichtungen, die wir Robotern auferlegen, noch besser von Aufgaben, die sie erledigen müssen, unter Beachtung moralischer Regeln. Sogenannte moralische Maschinen sind neue, merkwürdige, unvollständige Subjekte der Moral. Sie haben kein Bewusstsein, keine Intuition, keine Empathie, keinen freien Willen, aber sie können – als autonome Maschinen alleingelassen in geschlossenen, halboffenen oder offenen Welten – verschiedene Optionen erwägen und eine von ihnen auswählen. Dies ist eine funktionale Moral, die allenfalls mit der Moral mit Fundamentalisten zu tun hat – aber im Robozän kann sie eine Bereicherung darstellen, vor allem wenn Maschinen auf Menschen oder Tiere treffen, etwa als soziale Roboter. Das Interview kann in schriftlicher Form über www.sonntagsblatt.de/artikel/maschinenethiker-oliver-bendel-gpt3-pflegeroboter nachgelesen werden. Zudem gibt es einen Podcast von 45 Minuten Länge.

Abb.: Oliver Bendel bei einem Dreh mit 3sat (Foto: Sara Zarubica)

CfP for the AAAI 2023 Spring Symposia

The Association for the Advancement of Artificial Intelligence (AAAI) is pleased to present the AAAI 2023 Spring Symposia, to be held at the Hyatt Regency, San Francisco Airport, California, March 27-29. According to the organizers, Stanford University cannot act as host this time because of insufficient staff. Symposia of particular interest from a philosophical point of view are „AI Climate Tipping-Point Discovery“, „AI Trustworthiness Assessment“, „Computational Approaches to Scientific Discovery“, „Evaluation and Design of Generalist Systems (EDGeS): Challenges and methods for assessing the new generation of AI“, and „Socially Responsible AI for Well-being“. According to AAAI, symposia generally range from 40–75 participants each. „Participation will be open to active participants as well as other interested individuals on a first-come, first-served basis.“ (Website AAAI) Over the past decade, the conference has become one of the most important venues in the world for discussions on robot ethics, machine ethics, and AI ethics. It will be held again at History Corner from 2024. Further information via www.aaai.org/Symposia/Spring/sss23.php.

Fig.: View of San Francisco

Hugvie as a Female Figure

On December 13th, 2022, the hybrid workshop „Realization of Avatar-Symbiotic Society“ was held at the ICSR. It was organized by Dr. Takahiro Miyashita (ATR) and Prof. Dr. Takashi Yoshimi (Shibaura-IT). The description of the workshop was as follows: „This workshop aims at presenting the ongoing progress of the challenges on the Moonshot (MS) human-centered long-term R&D program. It will discuss by focusing on the goal 1 of the MS dealing with the future realization of an avatar-symbiotic society and cybernetic avatars (CAs). In the workshop, semi-autonomous tele-operated robots and CG agents are called CAs. The participants will discuss with speakers who are researchers related to CAs‘ technology about the avatar-symbiotic society which enables to freely and actively participate in society for every person.“ (Website ICSR) The first lecture entitled „Avatar and the future society“ was given by Prof. Dr. Hiroshi Ishiguro (Osaka University). He introduced Erica, Telenoid, and Hugvie, among others. Hugvie is a technically expandable doll that can be hugged. He also introduced his „Avatar Infrastructure“: „Anyone, including the elderly and people with disabilities, will be able to freely participate in various activities with abilities beyond ordinary people while expanding their physical, cognitive, and perceptual abilities using a large number of CAs.“ Prof. Dr. Oliver Bendel mentioned to Hiroshi Ishiguro that two of his former students, Nhi Tran Hoang Yen and Thang Hoang Vu from Ho Chi Minh City, interpreted his Hugvie as a female figure and designed a male figur (Gendering Hugvie) as part of a project on social robots. The roboticist from Osaka replied that his Hugvie doll had no gender, but noted the reception with interest. Other presentations with exciting discussions followed. More information on the conference via www.icsr2022.it.

Fig.: Nhi Tran Hoang Yen with Hugvie

The Minding Animals Conference Returns

After an hiatus of six years, Minding Animals will return, with a conference tentatively scheduled to be held 11 – 17 July, 2024. This was announced by the organizers in a message dated December 19, 2022. „Just like the postponed 2021 conference, Minding Animals 5 (MAC5) will be hosted by the Centre for Compassionate Conservation (CfCC) in the Transdisciplinary School at the University of Technology, Sydney (UTS).“ (Message from Minding Animals International) The organizers refer to the Minding Animals Bulletin 53 regarding the vision of the conference and the preparation of the authors. „We believe that the greatest threat posed to the planet, to all planetary life, human or nonhuman animal, plant or otherwise, including the current pandemic, is the intersection of animal agriculture and the climate crisis. Hence, the urgency and criticality of climate as the key theme.“ (Minding Animals Bulletin 53) Possible subtopics include „The biodiversity crisis and climate change“, „Rewilding and compassionate conservation“, „The animal industrial complex“, „Animals, the circular economy and sustainable food systems“, and „Animals in development and food sovereignty“.

Fig.: The conference will take place in Sidney

Was ist Bluewashing?

„Beim Bluewashing handelt es sich um Marketingmaßnahmen, bei denen Unternehmen, Verbände und Verbünde mit Hilfe von moralisch und sozial verbrämten Kampagnen, Botschaften und Bekenntnissen ihr Image verbessern wollen. Der Begriff ist eine Anspielung auf das Corporate Design der UNO und ihren umstrittenen United Nations Global Compact, mit dem sich einige Firmen ‚reingewaschen‘ haben. Verwandt ist das Bluewashing mit dem Greenwashing.“ Mit diesen Worten beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler, der am 5. Dezember 2022 erschienen ist. In einem nächsten Abschnitt wird näher auf den Zusammenhang zwischen Bluewashing und Greenwashing eingegangen. Im dritten Abschnitt heißt es: „Beim Bluewashing kann ein Missbrauch von ethischen Kodizes (die zu allgemein gehalten oder nicht überprüft werden) und sozialen Standards  (die zu wenig streng formuliert sind) stattfinden. Dies schadet deren Ruf und konterkariert deren Zweck. Die Wirtschaftsethik hinterfragt Bluewashing und Greenwashing und unterbreitet in der Unternehmensethik Vorschläge für eine ernst gemeinte und widerspruchsfreie Corporate Social Responsibility (CSR).“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/bluewashing-124778 aufgerufen werden.

Abb.: Was ist Bluewashing?

Die Erweiterung, Veränderung und Verbesserung des Roboters

„Robot Enhancement ist die Erweiterung und damit einhergehende Veränderung oder Verbesserung des Roboters durch den Benutzer bzw. eine Firma, etwa in funktionaler, ästhetischer, ethischer oder ökonomischer Hinsicht. Das Wort wurde in Anlehnung an ‚Human Enhancement‘ und ‚Animal Enhancement‘ gebildet, und man kann damit sowohl das Arbeitsgebiet als auch den Gegenstand bezeichnen.“ Mit diesen Worten führte Prof. Dr. Oliver Bendel im Februar 2021 im Gabler Wirtschaftslexikon in das Robot Enhancement ein. In einem Beitrag für ICTkommunikation, der am 21. Mai 2021 erschienen ist, entwarf er dann das Arbeitsgebiet des Robot Enhancement und gab Beispiele für die Anwendung: Pepper von Aldebaran wird eingekleidet und mit Accessoires ausgestattet, wie der in Dubai als Polizeiroboter eingesetzte REEM von PAL Robotics. AIBO, ein Roboterhund von Sony, wird mit Fell überzogen. Damit ein Umarmungsroboter wie HUGGIE riecht, reibt man ihn mit Duftstoffen ein. Oder man überzieht einen Metall- oder Plastikkopf mit Silikonhaut oder verlängert vorhandene Gliedmaßen. Im Dezember 2022 ist bei Mentis das Buch „Mensch-Maschine-Interaktion: Konzeptionelle, soziale und ethische Implikationen neuer Mensch-Technik-Verhältnisse“ erschienen, herausgegeben von Orsolya Friedrich, Johanna Seifert und Sebastian Schleidgen. Darin enthalten ist ein Beitrag von Oliver Bendel mit dem Titel „Möglichkeiten und Herausforderungen des Robot Enhancement“. Es handelt sich um die bislang ausführlichste Abhandlung zu diesem Arbeitsgebiet und seinem Gegenstand. Weitere Informationen über www.mentis.de/edcollbook/title/61544.

Abb.: Der Roboter ARI von PAL Robotics bei der ICSR 2022

Warum geben LaMDA und ChatGPT so unterschiedliche Antworten?

Raffael Schuppisser, stellvertretender Chefredakteur der Aargauer Zeitung, interviewte Prof. Dr. Oliver Bendel zu Chatbots, die auf Machine Learning basieren. Ihn interessierte u.a., warum LaMDA und ChatGPT so unterschiedliche Antworten geben, etwa auf die Frage, ob sie eine Person sind oder ein Bewusstsein haben. Der Informations- und Maschinenethiker erläuterte: „Chatbots dieser Art beruhen auf Sprachmodellen. Dazu gehören GPT-3 (im Falle von ChatGPT) und Language Model for Dialogue Applications (im Falle von LaMDA). Die Sprachmodelle unterscheiden sich voneinander. Zudem werden sie unterschiedlich trainiert. Daher reagieren sie unterschiedlich auf Anfragen. Sie können mit dem Chatbot beliebige Gespräche führen. Er wird immer anders antworten. Er ruft eben nicht einfach Aussagen aus einer Wissensbasis ab, sondern kreiert sie jeweils neu. Es ist möglich, dass man ihn so trainiert hat, dass er abstreitet, eine Person zu sein oder Bewusstsein zu haben. Die Menschen, die ihn trainiert haben, hätten dann solche Antworten für gut und richtig befunden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert. Man kann dieses Vorgehen auch mit einer Wissensbasis kombinieren, etwa wenn es darauf ankommt, dass der Chatbot auf eine Frage hin eine bestimmte Antwort gibt oder dieselbe Aussage wiederholt trifft. So ist es einem Erfinder eines Chatbots vielleicht wichtig, dass die Angaben zu seiner Person immer korrekt und konsistent sind und auch nicht zu viel verraten wird. Wir haben unseren GOODBOT von 2013 immer wieder betonen lassen, dass er nur eine Maschine ist. Das lief allein über die feste Programmierung. Wir haben damals kein maschinelles Lernen benutzt.“ Oliver Bendel führte in weiteren Antworten aus, dass Maschinen kein echtes Bewusstsein haben können und ein solches immer nur simulieren. Am 14. und 15. Dezember 2022 griffen 22 Schweizer Zeitungen die Ausführungen auf, neben der Aargauer Zeitung etwa das St. Galler Tagblatt und die Luzerner Zeitung.

Abb.: Ein Dialog mit ChatGPT

Ethics, Gender & Trust in Social Robotics

On the morning of December 15, 2022, the session „Ethics, Gender & Trust in Social Robotics“ was held at ICSR 2022. Chairs were Giulia Perugia and Oliver Bendel. Dimitri Lacroix started the session with „I designed it, so I trust it: the influence of customization on psychological ownership and trust toward robots“. He showed that in line with the predictions of the authors, customization significantly increases psychological ownership and trust toward the robot. JeeLoo Liu gave a talk on the topic of „Human-in-the-Loop Ethical AI for Care Robots and Confucian Virtue Ethics“. She explicated how Confucian virtue ethics can respond to human expectations of what kind of virtuous care robots we want in our society. Jean Choi spoke about „Effects of Realistic Appearance and Consumer Gender on Pet Robot Adoption“. By adopting theories from marketing and consumer research, the authors hypothesized that pet robots with lifelike appearance would be preferred to pet robots with machinelike appearances. They also predicted that the positive effect of lifelike appearance would be reduced for female consumers. According to the researchers, the experimental results confirmed the formulated hypotheses. The last talk was „Ambivalent Stereotypes Towards Gendered Robots: The (Im)mutability of Bias Towards Female and Neutral Robots“ by Stefano Guidi. According to the team, the results disclosed that female robots activate paternalistic stereotypes, while male robots do not. Moreover, they reveal that the ambivalence of these stereotypes is stronger in men than in women. The analyses also showed that neutral robots activate paternalistic stereotypes in men and envious stereotypes in women. More information on the conference via www.icsr2022.it.

Fig.: JeeLoo Liu during her presentation (Photo: Marc Heimann)

Posterpräsentation zum CARE-MOMO

Die ICSR ist neben der Robophilosophy die bedeutendste Konferenz zur Sozialen Robotik. Dieses Jahr war Florenz der Veranstaltungsort. Prof. Dr. Oliver Bendel und Marc Heimann waren mit ihrem Paper „The CARE-MOMO Project“ vertreten. Sie stellten es gleich am ersten Tag (13. Dezember 2022) beim Workshop „Robot Companionship: Applications and Challenges“ in einem Vortrag vor. Zudem hatten sie am Donnerstag (15. Dezember 2022) eine Posterpräsentation dazu. Das CARE-MOMO wurde von Marc Heimann an der Hochschule für Wirtschaft FHNW umgesetzt. Es soll den Assistenzroboter Lio von F&P Robotics erweitern. Es baut auf dem MOME von 2019/2020 auf, das auf der Robophilosophy präsentiert wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen und sozialen Vorstellungen und grundsätzlichen Haltungen übertragen. Implementiert wurde ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Weitere Informationen zur Konferenz sind über www.icsr2022.it erhältlich.

Abb.: Marc Heimann bei der Posterpräsentation

Das CARE-MOMO bei der ICSR 2022

Am 13. Dezember 2022 begann die ICSR, neben der Robophilosophy die bedeutendste Konferenz zur Sozialen Robotik. Oliver Bendel und Marc Heimann sind mit ihrem Paper „The CARE-MOMO Project“ vertreten. Sie stellten es gleich am Morgen beim Workshop „Robot Companionship: Applications and Challenges“ in einem Vortrag vor. Zudem haben sie am Donnerstag (15. Dezember 2022) eine Posterpräsentation dazu. Mithilfe des Moralmoduls, das das bewährte Moralmenü enthält, können Pflegebedürftige ihre moralischen und sozialen Vorstellungen auf einen Pflegeroboter wie Lio von F&P Robotics übertragen. Der Vortrag fand viel Anklang im vollbesetzten Raum, auch beim Chair, der den Ansatz sehr interessant fand, wie er mehrmals betonte. Das Programm des Workshops kann hier heruntergeladen werden. Weitere Informationen zur Konferenz, die dieses Jahr in Florenz stattfindet, sind über www.icsr2022.it erhältlich.

Abb.: Oliver Bendel mit ARI von PAL Robotics bei der ICSR 2022 (Foto: Marc Heimann)

Der Lebensraum von Menschen und Tieren

„In ihrem Lebensraum sind Lebewesen dauerhaft oder vorübergehend, um aufzuwachsen und sich fortzupflanzen, sich zu verständigen, Wasser und Nahrung zu beschaffen und Schutz zu finden. In der Biologie werden u.a. Biotop (Lebensgemeinschaft von Lebewesen verschiedener Arten als natürliches oder künstliches Ökosystem), Habitat (Lebensraum von Lebewesen bestimmter Arten dieses Biotops) und Biosphäre (Lebensraum aller Lebewesen der Erde) unterschieden.“ Mit diesen Worten beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler, der am 5. Dezember 2022 erschienen ist. In einem nächsten Abschnitt wird auf die Entwicklung eingegangen, in einem weiteren die Perspektive der Ökologie und der Ethik eingenommen. Am Ende heißt es: „Immer bewusster wird den Menschen auch, dass sie den Lebensraum von Tieren und Pflanzen bedrohen und diese besser geschützt werden müssen, um die Artenvielfalt zu erhalten. Umweltethik, Bioethik und Medizinethik sind bei den Herausforderungen ebenso gefragt wie Wirtschaftsethik und Politikethik.“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/lebensraum-124738 aufgerufen werden.

Abb.: Der Lebensraum von Tieren und Pflanzen ist bedroht

Grundlagen zu Brain-Computer-Interfaces

„Ein Brain-Computer-Interface (BCI), dt. ‚Gehirn-Computer-Schnittstelle‘ oder ‚Hirn-Computer-Schnittstelle‘, ist eine spezielle Mensch-Maschine-Schnittstelle oder auch Tier-Maschine-Schnittstelle. Die elektrische Aktivität des Gehirns wird nichtinvasiv mittels Elektroden auf der Haut (Haube auf dem Kopf) oder invasiv mittels implantierter Elektroden aufgezeichnet und dann mit einem Computer analysiert und in Steuersignale transformiert.“ Mit diesen Worten beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler, der am 5. Dezember 2022 erschienen ist. In einem nächsten Abschnitt wird auf die Anwendungen eingegangen, in einem weiteren die Perspektive der Ethik eingenommen. Am Ende heißt es: „Risiken sind aus Sicht der Informationsethik die Überwachung von Personen, etwa die Kontrolle darüber, ob jemand aufmerksam oder schläfrig ist, und das Abgreifen von persönlichen Daten (Messwerten) und anderen Daten (wie Passwörtern), aus Sicht der Medizinethik die Verletzung des Gehirns bei invasiven Verfahren, die Veränderung des Gehirns bei aktiven BCI und die Beeinträchtigung der sensorischen und motorischen Fähigkeiten. Die Wirtschaftsethik (speziell die Unternehmensethik) nimmt sich der Frage an, inwieweit Gehirn-Computer-Schnittstellen in Produktion, Logistik und Büro eingesetzt werden können und sollen.“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/brain-computer-interface-124767 aufgerufen werden.

Abb.: Eine junge Frau macht ein EEG

Recognizing and Protecting Bears

At the end of the ACI conference, the „Paper Session 6“ was held, which was titled „Investigating Human-Animal Relations“. Sarah Webber (University of Melbourne) gave a talk on „Watching Animal-Computer Interaction: Effects on Perceptions of Animal Intellect“. In the experiment, people observed orangutans interacting with computer applications. It was examined how they changed their judgments regarding the animals‘ intelligence and behavior. The talk that followed came from Alexandra Morgan (Northumbria University) and was titled „Blind dogs need guides too: towards technological support for blind dog caregiving“. She addressed the needs of blind dogs and showed what gadgets are on the market to assist them. Her team developed an app called „My Blind Dogo“ that could help owners of blind dogs. The session ended with a talk on „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ by Oliver Bendel (University of Applied Sciences and Arts Northwestern Switzerland). He presented an integrated system with cameras, robots, and drones that Ali Yürekkirmaz and he had designed. The ACI took place from 5 to 8 December 2022 in Newcastle upon Tyne. It is the world’s leading conference on animal-computer interaction. More information on the conference via www.aciconf.org/aci2022.

Fig.: A detail from the ACI poster

Towards Happy and Healthy Sled Dogs

On the last day of the ACI Conference (December 8, 2022), „Session 5: Sensors & Signals, Part II: Electric Boogaloo“ started after the lunch break. Carlos Alberto Aguilar-Lazcano (CICESE-UT3) gave a talk on the topic „Towards a monitoring and emergency alarm system activated by the barking of assistant dogs“. The next presentation was „WAG’D: Towards a Wearable Activity and Gait Detection Monitor for Sled Dogs“ by Arianna Mastali (Georgia Institute of Technology). According to her, studies have shown orthopedic injuries to be most common among sled dogs. These like to move very much, but repeatedly exceed their capabilities. To solve this problem, the team has developed a technical solution, a special wearable, with the help of which data on the condition of the animals are generated. „Spatial and Temporal Analytic Pipeline for Evaluation of Potential Guide Dogs Using Location and Behavior Data“ was the title of the next talk, given by David L. Roberts (North Carolina State University), followed by “Comparing Accelerometry and Computer Vision Sensing Modalities for High-Resolution Canine Tail Wagging Interpretation”, given by Devon Martin (North Carolina State University). More information on the conference via www.aciconf.org/aci2022.

Fig.: Sled dogs in the nature

Vocal Interaction Between Bird Parents and Eggs

After the keynote on the morning of December 8, 2022, ACI2020 continued with „Paper Session 4: Sensors & Signals, Part I: Origin Stories“. David L. Roberts (North Carolina State University) presented on „Motion-Resilient ECG Signal Reconstruction from a Wearable IMU through Attention Mechanism and Contrastive Learning“. The next talk, „TamagoPhone: A framework for augmenting artificial incubators to enable vocal interaction between bird parents and eggs“, was given by Rebecca Kleinberger (Massachusetts Institute of Technology & Northeastern University). The starting point of her research was that some birds have pre-hatching vocal communication. The last presentation before the lunch break that was given online was „Simultaneous Contact-Free Physiological Sensing of Human Heart Rate and Canine Breathing Rate for Animal Assisted Interactions: Experimental and Analytical Approaches“ by Timothy Holder and Mushfiqur Rahman (North Carolina State University). More information on the conference via www.aciconf.org/aci2022.

Fig.: An ostrich cub next to some eggs

Realities of Animal Technology in Industry

The fourth day of the ACI2022 conference – December 8, 2022 – began with a keynote by Carys L. Williams (DogsTrust), titled „Time Savers or Toys? Realities of Animal Technology in Industry“. „Carys is a mixed-methods Research Officer at the UK’s largest dog welfare charity, Dogs Trust. Carys’ work has focused on practical and applicable dog behaviour and welfare research to improve the lives of dogs, especially those in Dogs Trust’s 22 rehoming centres (around 12,000 dogs a year!). For the last 2 years Carys has been project lead for the Dogs Trust Post Adoption Support longitudinal research project. She has additionally supported the charity’s move to collect more and better dog data, helping build exciting bespoke digital systems. Carys has also spent over a decade in the zoo industry and is currently a volunteer invertebrate keeper at ZSL London Zoo.“ (Website ACI2022) Carys L. Williams started her keynote with a quote from Vladimir Dinets (University of Tennessee): „What is the best games console for my spider?“ … She then turned to real-world issues, such as supporting the welfare of dogs through technological means. More information on the conference via www.aciconf.org/aci2022.

Fig.: Carys L. Williams during her keynote

Dogs, Parrots, and other Animals

The ACI2022 conference continued on the afternoon of December 7, 2022 after the coffee break („Paper Session 3: Learning From and With Each Other​“). Cristóbal Sepulveda Álvarez (Universidad de Chile) gave a talk on the topic „Measuring Digitally Comparative Abilities Between Discreet and Continuous Quantities through a Digital Enrichment Application“. He showed a parrot that had to choose different quantities on a touch screen. Dirk van der Linden (Northumbria University) was present on behalf of Jasmine Forester-Owen (Northumbria University). He spoke about „Noisy technology, anxious dogs: can technology support caregiving in the home?“. In their prototype, they combine noise detection and body language identification in dogs. Jérémy Barbay (Universidad de Chile) gave the last three presentations of the day: „Comparing Symbolic and Numerical Counting Times between Humans and Non-Humans Through a Digital Life Enrichment Application“, „Popping Up Balloons for Science: a Research Proposal“, and „A Loggable Aid to Speech (for Human and Non-Human Animals): A Research Proposal“. More information on the conference via www.aciconf.org.

Fig.: A detail from the poster of the ACI

Do AI Models „Like“ Black Dogs?

The ACI2022 conference continued on the afternoon of December 7, 2022. „Paper Session 2: Recognising Animals & Animal Behaviour“ began with a presentation by Anna Zamansky (University of Haifa). The title was „How Can Technology Support Dog Shelters in Behavioral Assessment: an Exploratory Study“. Her next talk was also about dogs: „Do AI Models ‚Like‘ Black Dogs? Towards Exploring Perceptions of Dogs with Vision-Language Models“. She went into detail about OpenAI’s CLIP model, among other things. CLIP is a neural network which learns visual concepts from natural language supervision. She raised the question: „How can we use CLIP to investigate adoptability?“ Hugo Jair Escalante (INAOE) then gave a presentation on the topic „Dog emotion recognition from images in the wild: DEBIw dataset and first results“. Emotion recognition using face recognition is still in its infancy with respect to animals, but impressive progress is already being made. The last presentation in the afternoon before the coffee break was „Detecting Canine Mastication: A Wearable Approach“ by Charles Ramey (Georgia Institute of Technology). He raised the question: „Can automatic chewing detection measure how detection canines are coping with stress?“. More information on the conference via www.aciconf.org.

Fig.: A black dog