Einige Banken erlauben beim Kontozugang die Authentifizierung durch die Stimme des Kunden. Dazu gehört z.B. PostFinance in der Schweiz. Auf der Website heißt es: „Im Kontaktcenter von PostFinance können wir Sie anhand Ihrer Stimme authentifizieren. Nachdem wir einmalig von Ihnen einen Stimmabdruck angelegt haben, erkennen wir Sie bei allen folgenden Anrufen anhand Ihrer Stimme. Das unterstützt die Sicherheit und spart Zeit.“ (Website PostFinance) Seit einigen Jahren kann man mit wenigen Minuten der Aufnahme einer individuellen Stimme eine synthetische Stimme generieren und sie beliebige Inhalte sagen lassen. Auch die Sprechweise wird imitiert. Dafür stehen kostenpflichtige und kostenlose KI-Tools zur Verfügung. Auch bei Sprachassistenten verbreitet sich die Funktion – man denke etwa an Bixby von Samsung. Oliver Bendel veröffentlichte im Juli 2017 in AI & Society seinen Artikel „The Synthetization of Human Voices“ und beschrieb genau solche Verfahren. Joseph Cox berichtete in seinem Artikel „How I Broke Into a Bank Account With an AI-Generated Voice“ (Vice, 23. Februar 2023), dass er erfolgreich das System ausgetrickst hat: „I couldn’t believe it – it had worked. I had used an AI-powered replica of a voice to break into a bank account. After that, I had access to the account information, including balances and a list of recent transactions and transfers.“ (Vice, 23. Februar 2023) Fingerabdruck und Iriserkennung zur Authentifizierung sind seit längerer Zeit problembehaftet. Inzwischen sollte man sich auch den Einsatz seiner Stimme gut überlegen.
Abb.: Die eigene Stimme kann schnell synthetisiert werden
Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Heutzutage gibt es Chatbots und Generative-KI-Systeme wie ChatGPT, die auf Machine Learning beruhen und die immer wieder die Unwahrheit sagen, allerdings ohne dass ihnen die Absicht dazu vermittelt wurde. So werden Angaben zu Personen hinzugedichtet und Quellen erfunden. Zu diesem Thema befragte Technology Review den Informations- und Maschinenethiker aus Zürich. Dabei ging es auch um seine damalige Forschung zu Münchhausen-Maschinen. Mit Chatbots, Sprachassistenten und sozialen Robotern befasst sich Oliver Bendel bereits seit einem Vierteljahrhundert. Sie waren auch der Gegenstand seiner Doktorarbeit, die er an der Universität St. Gallen verfasste und die Ende 2002 abgeschlossen und Anfang 2003 angenommen wurde. Das Interview wurde am 22. Februar 2023 veröffentlicht und kann hier abgerufen werden.
Abb.: Oliver Bendel bei einem Panel der Deutschlandstiftung (Foto: Deutschlandstiftung Integration)
„Was sollte Ihrer Einschätzung nach zum Thema ‚Bewusste Künstliche Intelligenz‘ diskutiert werden, geschehen oder unterbleiben? Welche Forschungsansätze und Narrative gehören weiterentwickelt, aufgelöst und ersetzt, welche Irrwege endlich beendet, und welche Ansätze und Nischen sollten deutlich mehr Aufmerksamkeit erhalten? Aus welchen Gründen wird derzeit überhaupt über Künstliches Bewusstsein gesprochen, und was halten Sie für vielversprechend, möchte man ‚Bewusstsein‘ künstlich bewirken?“ Diese Fragen stellte Ende 2020 das KIT – Karlsruher Institut für Technologie verschiedenen Experten auf dem Gebiet. Oliver Bendel reichte im Frühjahr 2021 den Beitrag „Soziale Roboter und ihr Sprung in die Zukunft“ ein. Er stellte die drei Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) in einen Zusammenhang und klärte, welchen Gegenstand sie jeweils haben und welchen Ursprung oder welches Vorbild dieser wiederum hat. Dann zeigte er auf, wie die Soziale Robotik die drei Disziplinen einbezieht und ausnutzt. Der Band soll 2023 bei KIT Scientific Publishing unter dem Titel „Künstliche Intelligenz und Bewusstsein – Statements 2021“ erscheinen. Der Beitrag kann hier als Preprint heruntergeladen werden.
Die Medien interessieren sich seit Jahren stark für die Sicht der Technikphilosophie und der Informations-, Roboter- und Maschinenethik auf soziale Roboter und ähnliche Systeme. Im Juni und Juli 2022 waren zwei Fernsehsender an der Hochschule für Wirtschaft FHNW, um die Arbeit von Prof. Dr. Oliver Bendel kennenzulernen und Bilder und O-Töne einzufangen. BILD LIVE hat einen Beitrag („Hey, Puppe!“) zum Cybrothel in Berlin gemacht, 3sat eine Doku zur Mensch-Maschine-Interaktion und zur Sozialen Robotik. Diese wird am 2. März 2023 unter dem Titel „Mein Avatar und ich“ ausgestrahlt. Im Ankündigungstext heißt es: „Waren Maschinen früher nur Helfer, werden sie heute zu Weggefährten. Der Mensch spricht mit seinem Auto oder mit Alexa. Akzeptieren wir die Technik mehr, je ähnlicher sie uns wird?“ (Website 3sat) Seit Januar 2022 zeigt ARTE die Doku „Werden wir Roboter lieben?“ von Tanja Küchle. Darin wird ebenfalls auf soziale Roboter eingegangen. Die Ausschnitte aus dem Interview mit Oliver Bendel führen durch den Film. Online ist dieser über www.arte.tv/de/videos/101938-004-A/42-die-antwort-auf-fast-alles/ aufrufbar. Auf die neue Doku von Ingolf Baur und seinem Team darf man ebenfalls gespannt sein. Informationen zum Programm auf 3sat sind über www.3sat.de/programm verfügbar.
Abb.: Oliver Bendel beim Dreh mit 3sat (Foto: Sara Zarubica)
„Wenn der Mensch zur Maschine wird. Gespräche mit und über Siri, Roboter und Cyborgs“ – so lautet der Titel eines Themenwochenendes, das im Zentrum Paul Klee (ZPK) in Bern stattfindet, als Ergänzung zur Ausstellung „Paul Klee. Vom Rausch der Technik“. Der deutsche Maler, der in Münchenbuchsee bei Bern geboren wurde, lebte laut Website des ZPK in einer Zeit großer „technologischer Transformationen“. „Die neuen Errungenschaften stellten die Wahrnehmung der Menschen von Materie, Raum und Zeit infrage. Röntgenstrahlen, Telefone, Elektrizität lösten das gewohnte Weltbild auf. Darauf reagierten auch Künstler wie Paul Klee.“ (Website ZPK) Für Sonntag, den 5. März 2023, hat Fabienne Eggelhöfer, die Chefkuratorin des bekannten Museums, Prof. Dr. Oliver Bendel eingeladen. Sie geht mit ihm der Frage „Cyborgs – die besseren Menschen?“ nach. Über Cyborgs, Animal Enhancement und Human Enhancement sowie Biohacking und Bodyhacking hat der Wirtschaftsinformatiker und Technikphilosoph bereits mehrmals publiziert und referiert. Zuletzt erschienen seine Buchbeiträge „Chips, Devices, and Machines within Humans: Bodyhacking as Movement, Enhancement and Adaptation“ (Narr, 2021) und „Bodyhacking als Phänomen und Trend“ (Springer Vieweg, 2022). Auf der Architekturbiennale in Venedig hatte er Ende 2021 auf Einladung des Salon Suisse zu „Human and Animal Enhancement in the Context of Architecture“ vorgetragen. Weitere Informationen zum Gespräch im ZPK sind hier erhältlich. Zusätzlich steht ein Flyer zur Verfügung.
Jasmine Lu and Pedro Lopes of the University of Chicago published a paper in late 2022 describing the integration of an organism – the single-celled slime mold Physarum Polycephalum – into a wearable. From the abstract: „Researchers have been exploring how incorporating care-based interactions can change the user’s attitude & relationship towards an interactive device. This is typically achieved through virtual care where users care for digital entities. In this paper, we explore this concept further by investigating how physical care for a living organism, embedded as a functional component of an interactive device, also changes user-device relationships. Living organisms differ as they require an environment conducive to life, which in our concept, the user is responsible for providing by caring for the organism (e.g., feeding it). We instantiated our concept by engineering a smartwatch that includes a slime mold that physically conducts power to a heart rate sensor inside the device, acting as a living wire. In this smartwatch, the availability of heart-rate sensing depends on the health of the slime mold – with the user’s care, the slime mold becomes conductive and enables the sensor; conversely, without care, the slime mold dries and disables the sensor (resuming care resuscitates the slime mold).“ (Lu and Lopes 2022) The paper „Integrating Living Organisms in Devices to Implement Care-based Interactions“ can be downloaded here.
Artikel 5 Absatz 3 Satz 1 des Grundgesetzes für die Bundesrepublik Deutschland bestimmt: „Kunst und Wissenschaft, Forschung und Lehre sind frei. Die Freiheit der Lehre entbindet nicht von der Treue zur Verfassung.“ Ähnlich lautet Artikel 20 der Bundesverfassung der Schweizerischen Eidgenossenschaft: „Die Freiheit der wissenschaftlichen Lehre und Forschung ist gewährleistet.“ Artikel 17 des Staatsgrundgesetzes über die allgemeinen Rechte der Staatsbürger schützt in Österreich die Freiheit der Wissenschaft („Die Wissenschaft und ihre Lehre ist frei.“). Allerdings wird in Deutschland, in Österreich und in der Schweiz die Wissenschaftsfreiheit – die Forschungs-, Lehr- und Lernfreiheit umfasst – immer mehr verletzt, durch Vorgaben von Hochschul- und Studiengangleitungen, durch Sprachleitfäden für Mitglieder der Hochschulen und durch Druck von Aktivisten. Im Nomos-Verlag ist der Band „Wissenschaftsfreiheit: Warum dieses Grundrecht zunehmend umkämpft ist“ erschienen. In der Verlagsinformation heißt es: „Im letzten Jahrzehnt hat sich, was die Wertschätzung und Definition von Wissenschaftsfreiheit betrifft, eine wachsende Kluft an Hochschulen aufgetan. Auf der einen Seite stehen diejenigen, für die Wissenschaftsfreiheit ein grundsätzlich schützenswertes individuelles Grundrecht ist. Ihnen gegenüber stehen diejenigen, die den Schutz von Forschung und Lehre unter einen weltanschaulichen Vorbehalt stellen. Insbesondere identitätspolitisch motivierte Hochschulangehörige greifen zu den Mitteln der moralischen Diskreditierung, sozialen Ausgrenzung und institutionellen Bestrafung, um ihre Weltsicht durchzusetzen. Dieser Band analysiert die Erscheinungsformen und Folgen dieser politisierten und moralisierten Wissenschaftsausrichtung.“ (Verlagsinformation Nomos) Die Beiträge stammen von Russell A. Berman, Christian von Coelln, Michael Esfeld, Marie-Luisa Frick, Barbara Holland-Cunz, Sandra Kostner, Stefan Luft, Arne Pautsch, Inken Prohl, Richard Traunmüller, Vojin Saša Vukadinović und Alexander Zinn. Das Buch kann über www.nomos-shop.de/isbn/978-3-8487-8429-5 bezogen werden.
Abb.: Auch in der Schweiz ist die Wissenschaftsfreiheit bedroht
Why is your baby crying? And what if artificial intelligence (AI) could answer that question for you? „If there was a flat little orb the size of a dessert plate that could tell you exactly what your baby needs in that moment? That’s what Q-bear is trying to do.“ (Mashable, January 3, 2023) That’s what tech magazine Mashable wrote in a recent article. At CES 2023, the Taiwanese company qbaby.ai demonstrated its AI-powered tool which aims to help parents resolve their needs in a more targeted way. „The soft silicone-covered device, which can be fitted in a crib or stroller, uses Q-bear’s patented tech to analyze a baby’s cries to determine one of four needs from its ‚discomfort index‘: hunger, a dirty diaper, sleepiness, and need for comfort. Q-bear’s translation comes within 10 seconds of a baby crying, and the company says it will become more accurate the more you use the device.“ (Mashable, January 3, 2023) Whether the tool really works remains to be seen – presumably, baby cries can be interpreted more easily than animal languages. Perhaps the use of the tool is ultimately counterproductive because parents forget to trust their own intuition. The article „CES 2023: The device that tells you why your baby is crying“ can be accessed via mashable.com/article/ces-2023-why-is-my-baby-crying.
Das Sonntagsblatt hat mit Prof. Dr. Oliver Bendel ein Interview zu KI und Sozialer Robotik geführt. Unter anderem ging es um Roboter als Subjekte und Objekte der Moral. Der Informations- und Maschinenethiker hält nichts davon, Robotern moralische Rechte zuzugestehen. Er knüpft solche an Empfindungs- und Leidensfähigkeit bzw. Bewusstsein. Nach seiner Ansicht verläuft ein tiefer Graben zwischen Lebewesen und Dingen, und es sei gefährlich, diesen einebnen zu wollen. Auch von Pflichten möchte er nicht sprechen, höchstens von Verpflichtungen, die wir Robotern auferlegen, noch besser von Aufgaben, die sie erledigen müssen, unter Beachtung moralischer Regeln. Sogenannte moralische Maschinen sind neue, merkwürdige, unvollständige Subjekte der Moral. Sie haben kein Bewusstsein, keine Intuition, keine Empathie, keinen freien Willen, aber sie können – als autonome Maschinen alleingelassen in geschlossenen, halboffenen oder offenen Welten – verschiedene Optionen erwägen und eine von ihnen auswählen. Dies ist eine funktionale Moral, die allenfalls mit der Moral mit Fundamentalisten zu tun hat – aber im Robozän kann sie eine Bereicherung darstellen, vor allem wenn Maschinen auf Menschen oder Tiere treffen, etwa als soziale Roboter. Das Interview kann in schriftlicher Form über www.sonntagsblatt.de/artikel/maschinenethiker-oliver-bendel-gpt3-pflegeroboter nachgelesen werden. Zudem gibt es einen Podcast von 45 Minuten Länge.
Abb.: Oliver Bendel bei einem Dreh mit 3sat (Foto: Sara Zarubica)
The Association for the Advancement of Artificial Intelligence (AAAI) is pleased to present the AAAI 2023 Spring Symposia, to be held at the Hyatt Regency, San Francisco Airport, California, March 27-29. According to the organizers, Stanford University cannot act as host this time because of insufficient staff. Symposia of particular interest from a philosophical point of view are „AI Climate Tipping-Point Discovery“, „AI Trustworthiness Assessment“, „Computational Approaches to Scientific Discovery“, „Evaluation and Design of Generalist Systems (EDGeS): Challenges and methods for assessing the new generation of AI“, and „Socially Responsible AI for Well-being“. According to AAAI, symposia generally range from 40–75 participants each. „Participation will be open to active participants as well as other interested individuals on a first-come, first-served basis.“ (Website AAAI) Over the past decade, the conference has become one of the most important venues in the world for discussions on robot ethics, machine ethics, and AI ethics. It will be held again at History Corner from 2024. Further information via www.aaai.org/Symposia/Spring/sss23.php.
On December 13th, 2022, the hybrid workshop „Realization of Avatar-Symbiotic Society“ was held at the ICSR. It was organized by Dr. Takahiro Miyashita (ATR) and Prof. Dr. Takashi Yoshimi (Shibaura-IT). The description of the workshop was as follows: „This workshop aims at presenting the ongoing progress of the challenges on the Moonshot (MS) human-centered long-term R&D program. It will discuss by focusing on the goal 1 of the MS dealing with the future realization of an avatar-symbiotic society and cybernetic avatars (CAs). In the workshop, semi-autonomous tele-operated robots and CG agents are called CAs. The participants will discuss with speakers who are researchers related to CAs‘ technology about the avatar-symbiotic society which enables to freely and actively participate in society for every person.“ (Website ICSR) The first lecture entitled „Avatar and the future society“ was given by Prof. Dr. Hiroshi Ishiguro (Osaka University). He introduced Erica, Telenoid, and Hugvie, among others. Hugvie is a technically expandable doll that can be hugged. He also introduced his „Avatar Infrastructure“: „Anyone, including the elderly and people with disabilities, will be able to freely participate in various activities with abilities beyond ordinary people while expanding their physical, cognitive, and perceptual abilities using a large number of CAs.“ Prof. Dr. Oliver Bendel mentioned to Hiroshi Ishiguro that two of his former students, Nhi Tran Hoang Yen and Thang Hoang Vu from Ho Chi Minh City, interpreted his Hugvie as a female figure and designed a male figur (Gendering Hugvie) as part of a project on social robots. The roboticist from Osaka replied that his Hugvie doll had no gender, but noted the reception with interest. Other presentations with exciting discussions followed. More information on the conference via www.icsr2022.it.
After an hiatus of six years, Minding Animals will return, with a conference tentatively scheduled to be held 11 – 17 July, 2024. This was announced by the organizers in a message dated December 19, 2022. „Just like the postponed 2021 conference, Minding Animals 5 (MAC5) will be hosted by the Centre for Compassionate Conservation (CfCC) in the Transdisciplinary School at the University of Technology, Sydney (UTS).“ (Message from Minding Animals International) The organizers refer to the Minding Animals Bulletin 53 regarding the vision of the conference and the preparation of the authors. „We believe that the greatest threat posed to the planet, to all planetary life, human or nonhuman animal, plant or otherwise, including the current pandemic, is the intersection of animal agriculture and the climate crisis. Hence, the urgency and criticality of climate as the key theme.“ (Minding Animals Bulletin 53) Possible subtopics include „The biodiversity crisis and climate change“, „Rewilding and compassionate conservation“, „The animal industrial complex“, „Animals, the circular economy and sustainable food systems“, and „Animals in development and food sovereignty“.
On the morning of December 15, 2022, the session „Ethics, Gender & Trust in Social Robotics“ was held at ICSR 2022. Chairs were Giulia Perugia and Oliver Bendel. Dimitri Lacroix started the session with „I designed it, so I trust it: the influence of customization on psychological ownership and trust toward robots“. He showed that in line with the predictions of the authors, customization significantly increases psychological ownership and trust toward the robot. JeeLoo Liu gave a talk on the topic of „Human-in-the-Loop Ethical AI for Care Robots and Confucian Virtue Ethics“. She explicated how Confucian virtue ethics can respond to human expectations of what kind of virtuous care robots we want in our society. Jean Choi spoke about „Effects of Realistic Appearance and Consumer Gender on Pet Robot Adoption“. By adopting theories from marketing and consumer research, the authors hypothesized that pet robots with lifelike appearance would be preferred to pet robots with machinelike appearances. They also predicted that the positive effect of lifelike appearance would be reduced for female consumers. According to the researchers, the experimental results confirmed the formulated hypotheses. The last talk was „Ambivalent Stereotypes Towards Gendered Robots: The (Im)mutability of Bias Towards Female and Neutral Robots“ by Stefano Guidi. According to the team, the results disclosed that female robots activate paternalistic stereotypes, while male robots do not. Moreover, they reveal that the ambivalence of these stereotypes is stronger in men than in women. The analyses also showed that neutral robots activate paternalistic stereotypes in men and envious stereotypes in women. More information on the conference via www.icsr2022.it.
Fig.: JeeLoo Liu during her presentation (Photo: Marc Heimann)
At the end of the ACI conference, the „Paper Session 6“ was held, which was titled „Investigating Human-Animal Relations“. Sarah Webber (University of Melbourne) gave a talk on „Watching Animal-Computer Interaction: Effects on Perceptions of Animal Intellect“. In the experiment, people observed orangutans interacting with computer applications. It was examined how they changed their judgments regarding the animals‘ intelligence and behavior. The talk that followed came from Alexandra Morgan (Northumbria University) and was titled „Blind dogs need guides too: towards technological support for blind dog caregiving“. She addressed the needs of blind dogs and showed what gadgets are on the market to assist them. Her team developed an app called „My Blind Dogo“ that could help owners of blind dogs. The session ended with a talk on „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ by Oliver Bendel (University of Applied Sciences and Arts Northwestern Switzerland). He presented an integrated system with cameras, robots, and drones that Ali Yürekkirmaz and he had designed. The ACI took place from 5 to 8 December 2022 in Newcastle upon Tyne. It is the world’s leading conference on animal-computer interaction. More information on the conference via www.aciconf.org/aci2022.
On the last day of the ACI Conference (December 8, 2022), „Session 5: Sensors & Signals, Part II: Electric Boogaloo“ started after the lunch break. Carlos Alberto Aguilar-Lazcano (CICESE-UT3) gave a talk on the topic „Towards a monitoring and emergency alarm system activated by the barking of assistant dogs“. The next presentation was „WAG’D: Towards a Wearable Activity and Gait Detection Monitor for Sled Dogs“ by Arianna Mastali (Georgia Institute of Technology). According to her, studies have shown orthopedic injuries to be most common among sled dogs. These like to move very much, but repeatedly exceed their capabilities. To solve this problem, the team has developed a technical solution, a special wearable, with the help of which data on the condition of the animals are generated. „Spatial and Temporal Analytic Pipeline for Evaluation of Potential Guide Dogs Using Location and Behavior Data“ was the title of the next talk, given by David L. Roberts (North Carolina State University), followed by “Comparing Accelerometry and Computer Vision Sensing Modalities for High-Resolution Canine Tail Wagging Interpretation”, given by Devon Martin (North Carolina State University). More information on the conference via www.aciconf.org/aci2022.
After the keynote on the morning of December 8, 2022, ACI2020 continued with „Paper Session 4: Sensors & Signals, Part I: Origin Stories“. David L. Roberts (North Carolina State University) presented on „Motion-Resilient ECG Signal Reconstruction from a Wearable IMU through Attention Mechanism and Contrastive Learning“. The next talk, „TamagoPhone: A framework for augmenting artificial incubators to enable vocal interaction between bird parents and eggs“, was given by Rebecca Kleinberger (Massachusetts Institute of Technology & Northeastern University). The starting point of her research was that some birds have pre-hatching vocal communication. The last presentation before the lunch break that was given online was „Simultaneous Contact-Free Physiological Sensing of Human Heart Rate and Canine Breathing Rate for Animal Assisted Interactions: Experimental and Analytical Approaches“ by Timothy Holder and Mushfiqur Rahman (North Carolina State University). More information on the conference via www.aciconf.org/aci2022.
The fourth day of the ACI2022 conference – December 8, 2022 – began with a keynote by Carys L. Williams (DogsTrust), titled „Time Savers or Toys? Realities of Animal Technology in Industry“. „Carys is a mixed-methods Research Officer at the UK’s largest dog welfare charity, Dogs Trust. Carys’ work has focused on practical and applicable dog behaviour and welfare research to improve the lives of dogs, especially those in Dogs Trust’s 22 rehoming centres (around 12,000 dogs a year!). For the last 2 years Carys has been project lead for the Dogs Trust Post Adoption Support longitudinal research project. She has additionally supported the charity’s move to collect more and better dog data, helping build exciting bespoke digital systems. Carys has also spent over a decade in the zoo industry and is currently a volunteer invertebrate keeper at ZSL London Zoo.“ (Website ACI2022) Carys L. Williams started her keynote with a quote from Vladimir Dinets (University of Tennessee): „What is the best games console for my spider?“ … She then turned to real-world issues, such as supporting the welfare of dogs through technological means. More information on the conference via www.aciconf.org/aci2022.
The ACI2022 conference continued on the afternoon of December 7, 2022 after the coffee break („Paper Session 3: Learning From and With Each Other“). Cristóbal Sepulveda Álvarez (Universidad de Chile) gave a talk on the topic „Measuring Digitally Comparative Abilities Between Discreet and Continuous Quantities through a Digital Enrichment Application“. He showed a parrot that had to choose different quantities on a touch screen. Dirk van der Linden (Northumbria University) was present on behalf of Jasmine Forester-Owen (Northumbria University). He spoke about „Noisy technology, anxious dogs: can technology support caregiving in the home?“. In their prototype, they combine noise detection and body language identification in dogs. Jérémy Barbay (Universidad de Chile) gave the last three presentations of the day: „Comparing Symbolic and Numerical Counting Times between Humans and Non-Humans Through a Digital Life Enrichment Application“, „Popping Up Balloons for Science: a Research Proposal“, and „A Loggable Aid to Speech (for Human and Non-Human Animals): A Research Proposal“. More information on the conference via www.aciconf.org.
The ACI2022 conference continued on the afternoon of December 7, 2022. „Paper Session 2: Recognising Animals & Animal Behaviour“ began with a presentation by Anna Zamansky (University of Haifa). The title was „How Can Technology Support Dog Shelters in Behavioral Assessment: an Exploratory Study“. Her next talk was also about dogs: „Do AI Models ‚Like‘ Black Dogs? Towards Exploring Perceptions of Dogs with Vision-Language Models“. She went into detail about OpenAI’s CLIP model, among other things. CLIP is a neural network which learns visual concepts from natural language supervision. She raised the question: „How can we use CLIP to investigate adoptability?“ Hugo Jair Escalante (INAOE) then gave a presentation on the topic „Dog emotion recognition from images in the wild: DEBIw dataset and first results“. Emotion recognition using face recognition is still in its infancy with respect to animals, but impressive progress is already being made. The last presentation in the afternoon before the coffee break was „Detecting Canine Mastication: A Wearable Approach“ by Charles Ramey (Georgia Institute of Technology). He raised the question: „Can automatic chewing detection measure how detection canines are coping with stress?“. More information on the conference via www.aciconf.org.
ACI2022 continued on December 7 with Paper Sessions. Number 1 was „Designing for Human-Animal Relations“. Clara Mancini from The Open University gave a talk on the topic „Politicising Animal-Computer Interaction: an Approach to Political Engagement with Animal-Centred Design“. She is one of the pioneers in the discipline of animal-computer interaction. This was followed by Dirk van der Linden’s presentation „Animal-centered design needs dignity: a critical essay on ACI’s core concept“. The scientist from the Northumbria University referred to the Swiss law, which assumes the dignity of living beings – animals as well as plants, it should be added. Minori Tsuji from Future University Hakodate spoke about the „Investigation on Enhancement of the Sense of Life in Safari Park Online Tours with Animal Breathing Reproduction System“. Visitors can touch artifacts with different breathing frequencies. The final contribution in the morning came from Jennifer Cunha (Parrot Kindergarten) and Corinne Renguette (Indiana University-Purdue University). It was about „A Framework for Training Animals to Use Touchscreen Devices for Discrimination Tasks“. The scientists taught various animals, such as a parrot, a rat, and a dog, how to use tablets. More information on the conference via www.aciconf.org.
ACI2022 – the leading conference on animal-computer interaction – kicked off on December 5, 2022 at Northumbria University in Newcastle upon Tyne. After the workshop „Animal Centered Research beyond ACI: Exploring the Applicability of Animal Centered Principles to All Animal Research“ was held on the first day, the workshop „Exploring other sensibilities – beyond human senses and aesthetics“ was held on the second day. „This workshop aims to facilitate human participants to become more aware of other animals‘ sensory and aesthetic sensibilities, raising points for discussion and future research within ACI. For all animals, being able to make sense of the environment is crucial in order to gain control and make informed choices, as well as to achieve competence in daily activities. Although human perception is limited by evolution, technology can enable us to perceive signals that may be meaningful for other species, thereby gaining insight and possibly empathy. Moreover, pursuing a multi-species perspective may foster inclusive approaches to design that aim to achieve a lighter environmental impact by taking into account the sensory experiences of other species.“ (Website ACI2022) The workshop used innovative methods to achieve the goal. „We will offer participants a range of activities to challenge human senses and sense-making abilities, and then invite them to collaboratively design and test a system that incorporates some animal-centred sensory stimulation inspired by the activities previously undertaken.“ (Website ACI2022) The participants mastered the tasks with great commitment and great pleasure. The entire conference program is available at www.aciconf.org/conference-program.
GEO hat Oliver Bendel zu Brain-Computer-Interfaces befragt. Das Interview ist am 30. November 2022 erschienen. Worum es grundsätzlich geht, hat der Informations- und Maschinenethiker u.a. in seinem Buch „450 Keywords Digitalisierung“ beschrieben: „Ein Brain-Computer-Interface (engl. ‚brain-computer interface‘) ist eine Mensch-Maschine- oder Tier-Maschine-Schnittstelle, über die Gehirn und Computer verbunden werden. Zentral sind dabei elektrophysiologische und hämodynamische Verfahren. Mit Hilfe des BCI, wie man es verkürzend nennt, ist es z.B. möglich, spezielle Rollstühle, Hightechprothesen oder Objekte in Spielanwendungen zu steuern oder – unter Verwendung von neuronalen Signalen – Sprache zu synthetisieren. Beim Cybathlon, einem internationalen Wettkampf, bei dem Behinderte gegeneinander antreten, können entsprechende Disziplinen bestaunt werden. Im Deutschen spricht man auch von Gehirn-Computer-Schnittstelle. Der Beitrag mit dem Titel „Gehirnchips von Elon Musk: Wie gefährlich sind solche Implantate?“ kann über www.geo.de/wissen/forschung-und-technik/gehirnchips-von-elon-musks-firma-neuralink–chancen-und-risiken-32869872.html aufgerufen werden.