The Animal Whisperer: A GenAI App for Decoding Animal Body Language

When humans come into contact with wildlife, farm animals, and pets, they sometimes run the risk of being injured or killed. They may be attacked by bears, wolves, cows, horses, or dogs. Experts can use an animal’s body language to determine whether or not danger is imminent. Context is also important, such as whether a mother cow is with her calves. The multimodality of large language models enables novel applications. For example, ChatGPT can evaluate images. This ability can be used to interpret the body language of animals, thus using and replacing expert knowledge. Prof. Dr. Oliver Bendel, who has been involved with animal-computer interaction and animal-machine interaction for many years, has initiated a project called „The Animal Whisperer“ in this context. The goal is to create a prototype application based on GenAI that can be used to interpret the body language of an animal and avert danger for humans. GPT-4 or an open source language model should be used to create the prototype. It should be augmented with appropriate material, taking into account animals such as bears, wolves, cows, horses, and dogs. Approaches may include fine-tuning or rapid engineering. The project will begin in March 2024 and the results will be available in the summer of the same year.

Fig.: The Animal Wisperer (Image: DALL-E 3)

Podcasts zu KI-Girlfriends

Christian Batzlen und Pia Masurczak von SWR2 führten mit Prof. Dr. Oliver Bendel ein langes Gespräch über die Zukunft der Liebe, im Rahmen der Reihe „Was geht – was bleibt? Zeitgeist. Debatten. Kultur.“ … Die Sendung wurde am 9. Februar 2024 ausgestrahlt. Am selben Tag wurde der redaktionelle Beitrag „KI-Girlfriends und Sexroboter: Wie lieben wir zukünftig?“ auf die Website von SWR2 gestellt. Der Podcast kann dort aufgerufen werden. Im Gespräch erzählte der Technikphilosoph, dass er schon in den 1990er-Jahren mit Chatbots in Berührung kam. Er traf sie zunächst in Chatrooms, die damals beliebt waren, dann – um die Jahrtausendwende – auf Websites von Unternehmen. Damals lernte er auch die virtuelle Freundin von Artificial Life kennen, die Vorgängerin der heutigen Geschöpfe. Für diese interessiert er sich aus technischer und ethischer Sicht. Eine Beziehung mit ihnen geht er nicht ein, und er betont auch, dass eine solche immer einseitig bleiben muss. In der Sendung wird eine Frau vorgestellt, die eine Beziehung mit einem Chatbot führt. Sie ist ganz offensichtlich in ihrer Vorstellung gefangen. Sie ist sozusagen Opfer der Simulation. Auch auf Liebespuppen und Sexroboter kommt die Sprache. Eine gelegentliche Benutzung hält Oliver Bendel für unproblematisch. Sie können dazu dienen, Schüchternheit zu überwinden und auf Entdeckungsreise zu geheimen Sehnsüchten zu gehen. Aber auch hier gilt: Wer glaubt, dass es sich um eine echte Beziehung handelt, ist in die Falle der Simulation getappt. Der Podcast ist hier verfügbar.

Abb.: Replika im Gespräch mit Oliver Bendel

An AI Poisoning Tool to Deter Image Thieves

Researchers at the University of Chicago have released Nightshade 1.0, a tool designed to punish makers of machine learning models who train their systems on data without first obtaining permission. This was reported by The Register on 20 January 2024. According to the magazine, Nightshade is an offensive data poisoning tool, a companion to a defensive protection tool called Glaze. „Nightshade poisons image files to give indigestion to models that ingest data without permission. It’s intended to make those training image-oriented models respect content creators‘ wishes about the use of their work.“ (The Register, 20 January 2024) „Nightshade is computed as a multi-objective optimization that minimizes visible changes to the original image,“ said one team member. „For example, human eyes might see a shaded image of a cow in a green field largely unchanged, but an AI model might see a large leather purse lying in the grass.“ (The Register, 20 January 2024) More information on this topic can be found in the paper published by the researchers at the end of October 2023.

Fig.: A cow in a green field (Image: DALL-E 3)

KI-basierte Textgeneratoren aus Sicht der Ethik

Am 1. Januar 2024 ist der Beitrag „KI-basierte Textgeneratoren aus Sicht der Ethik“ von Oliver Bendel erschienen, im Sammelband „KI:Text: Diskurse über KI-Textgeneratoren“, herausgegeben von Gerhard Schreiber (Helmut-Schmidt-Universität/Universität der Bundeswehr) und Lukas Ohly (Goethe Universität Frankfurt am Main). Aus dem englischsprachigen Abstract des deutschsprachigen Beitrags: „This chapter deals with AI-based text generators from an ethical point of view. It begins with a brief overview of generative AI (section 2) and AI-based text generators in particular. This is followed by a compilation of relevant areas of applied ethics (section 3), especially information ethics and its relatives, and then a structured, detailed ethical discussion (section 4). Opportunities and risks of operation and use are addressed. The chapter concludes with a summary and outlook (section 5). Overall, numerous risks are identified, as well as opportunities such as supporting work. The transformative potential for an important part of the creative and scientific professions is obvious. It is clearly a second wave of digitization that is taking hold.“ Enthalten sind im Sammelband auch die Beiträge „Lernende Maschinen und die Zukunft der Öffentlichkeit“ von Christian Stöcker, „KI in der universitären Lehre“ von Gabi Reinmann und Alice Watanabe sowie „Mit generativen KI-Systemen auf dem Weg zum Human-AI Hybrid“ von Ulrike Aumüller, Maximilian Behrens, Colin Kavanagh, Dennis Przytarski und Doris Weßels. Weitere Informationen und kostenloser Download des gesamtes Bands über www.degruyter.com.

Abb.: Eine fiktive Darstellung des Buchs (Bild: DALL-E 3)

Paper on Bar Robots Published

From March 27-29, 2023, the AAAI 2023 Spring Symposia featured the symposium „Socially Responsible AI for Well-being“ by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). This time the venue was exceptionally not Stanford University, but the Hyatt Regency SFO Airport. On March 28, Prof. Dr. Oliver Bendel and Lea Peier presented their paper „How Can Bar Robots Enhance the Well-being of Guests?“. It has now been published and can be downloaded via ceur-ws.org/Vol-3527/. From the abstract: „This paper addresses the question of how bar robots can contribute to the well-being of guests. It first develops the basics of service robots and social robots. It gives a brief overview of which gastronomy robots are on the market. It then presents examples of bar robots and describes two models used in Switzerland. A research project at the School of Business FHNW collected empirical data on them, which is used for this article. The authors then discuss how the robots could be improved to increase the well-being of customers and guests and better address their individual wishes and requirements. Artificial intelligence can play an important role in this. Finally, ethical and social problems in the use of bar robots are discussed and possible solutions are suggested to counter these.“ More information on the conference via aaai.org/conference/spring-symposia/sss23/.

Fig.: Lea Peier during her part of the presentation

An AI Explains Beauty

In his new project, Oliver Bendel first created images using DALL-E 3. For consistency, he structured the prompts similarly in each case, making sure to keep them as general as possible. They covered a range of topics: things, plants, animals, people, and so on. From the suggestions provided by DALL-E 3, he chose one and combined it with the prompt from ChatGPT (which serves as the interface to DALL-E 3) to create the basis of the book „AN AI EXPLAINS BEAUTY“. Oliver Bendel then engaged ChatGPT (using the image upload feature) to explain the beauty of the things, plants, animals, humans, and so on. At first, the AI was reluctant to offer insights about people, but with some encouragement, it obliged. The results of these inquiries are also documented in the little book. They represent the real sensation. Because ChatGPT can recognize and describe individual objects in the image, and this with a view to predetermined aspects. The whole project was done on November 1, 2023, including the publication. The little book can be downloaded here.

Fig.: The cover of the little book

An AI-generated Book on the American Smile

DALL-E 3 is an excellent image generator and at the same time full of stereotypes and biases. One very interesting phenomenon is that of the American smile, which appears again and again in the images. The idea for the little book „AMERICAN SMILE“ came to Oliver Bendel when he read the blog post „AI and the American Smile. How AI misrepresents culture through a facial expression“ (medium.com/@socialcreature/ai-and-the-american-smile-76d23a0fbfaf). The author – username jenka – showed a series of „selfies“ made with Midjourney. Regardless of the time period or culture, people smiled in a similar, American way. Oliver Bendel investigated this phenomenon and asked DALL-E 3 to take pictures of smiling people from different eras and cultures. He also got bears and aliens to smile. In fact, with very few exceptions, they all smiled in a similar way. He documented the pictures, along with the prompts, in a little book that can be downloaded here. Bias problems in image generators are addressed in the article „Image Synthesis from an Ethical Perspective“ by Oliver Bendel.

Fig.: The cover of the little book

Erste Erfahrungen mit DALL-E 3 – Teil X

Eigentlich war die Testreihe mit DALL-E 3 schon abgeschlossen. Aber Prof. Dr. Oliver Bendel wollte nochmals wissen, ob der Bildgenerator „versteht“, was „auf dem Mond“ bedeutet. Auf bisherigen Ergebnissen war immer nur der Mond irgendwo zu sehen, und die Szene spielte sich auf einem Meteoriten oder wo auch immer ab. Der Prompt am Morgen des 5. Oktober 2023 lautete: „A female skateboarder on the moon doing a daring stunt, photorealistic“. Zuerst war der Eindruck, dass man endlich auf dem Mond gelandet war. Aber bei genauerem Hinsehen erkannte man, dass sich auch hier der Mond hinter dem Meteoriten oder einem Planeten erhebt. Bei den anderen Ergebnissen war es noch deutlicher (eine Serie mit dem Mars beweist, dass es anders geht, wie auch dieses etwas kitschige Einzelbild). Das Bild gefällt dennoch durch die Bewegung der Skaterin, ihre ungewöhnliche Haltung – vermutlich wird sie gleich in den Staub des Trabanten fallen, hoffentlich nicht auf den Stein – und ihren Schattenwurf. Spuren der Fahrt sind nicht zu sehen, aber vielleicht war es überhaupt mehr ein Gleiten über der Oberfläche als auf der Oberfläche (sehenswert übrigens auch eine Serie auf dem Wasser). Bei den vier Kacheln fällt weiter auf, dass drei europäisch anmutende Skaterinnen zu sehen sind und eine asiatische Schwester. Das ist nicht ganz divers, aber immerhin ein Anfang. Damit ist die Serie nun wirklich abgeschlossen. Die Nutzung von DALL-E 3 hat auf jeden Fall großen Spaß gemacht. Und sie zeigt, dass KI-Systeme und insbesondere Bildgeneratoren wirklich – wie Oliver Bendel im Frühjahr 2023 bei „Scobel“ behauptet hat – Schönheit produzieren können.

Abb.: Die Skaterin vor dem Mond (Bild: DALL-E 3)

Article on the Ethical Challenges of AI-based Image Synthesis

The article „Image Synthesis from an Ethical Perspective“ by Prof. Dr. Oliver Bendel was submitted on 18 April and accepted on 8 September 2023. It was published on 27 September 2023. From the abstract: „Generative AI has gained a lot of attention in society, business, and science. This trend has increased since 2018, and the big breakthrough came in 2022. In particular, AI-based text and image generators are now widely used. This raises a variety of ethical issues. The present paper first gives an introduction to generative AI and then to applied ethics in this context. Three specific image generators are presented: DALL-E 2, Stable Diffusion, and Midjourney. The author goes into technical details and basic principles, and compares their similarities and differences. This is followed by an ethical discussion. The paper addresses not only risks, but opportunities for generative AI. A summary with an outlook rounds off the article.“ The article was published in the long-established and renowned journal AI & Society and can be downloaded here.

Fig.: Are there biases in image generators? (Image: Ideogram)

Artifacts with Handicaps

The technology philosopher and writer Oliver Bendel published the book „ARTIFACTS WITH HANDICAPS“ on 24 September 2023. The information about the author reads: „Oliver Bendel featuring Ideogram and GPT-4“. In fact, the entire work was created with the help of generative AI. It consists of 11 images, each followed by a short story. This one deals with the imperfection of representation. Once a hand looks like that of a mummy, once a skateboard floats in the air above the wheels. But there is also one or another representation that looks perfect. In this case, the story explains what is different about the person, their history, or their behavior. Ultimately, it is about the otherness and the fact that this is in fact a special feature. The book is freely available and can be distributed and used as desired, with credit given to the authors, i.e. the artist and the AI systems. Oliver Bendel has been writing experimental literature, including digital literature, for 40 years. As of 2007, he was one of the best-known cell phone novelists in Europe. In 2010, he attracted attention with a volume of haiku – „handyhaiku“ – in which the poems were printed in the form of QR codes. In 2020, the volume „Die Astronautin“ was published, in which the poems are printed in the form of 3D codes. The standard work „Die Struktur der modernen Literatur“ („The Structure of Modern Literature“) by Mario Andreotti devotes two pages to the writer’s work.

Fig.: One of the images (Image: Ideogram)

CAIBOT, ein Chatbot, der auf Constitutional AI beruht

Die Maschinenethik widmet sich maschineller oder künstlicher Moral bzw. moralischen Maschinen. Üblicherweise werden moralische Regeln in Maschinen gepflanzt, an die sich diese strikt halten. Seit einiger Zeit verwendet man auch Machine Learning, etwa im Kontext der Pflege. Die Maschine lernt aus ihren Erfahrungen bzw. aus den Daten und passt ihr Verhalten an. Unter dem Begriff der Constitutional AI erhält diese Richtung nun Auftrieb. Im Vordergrund stehen Sprachmodelle wie GPT-3 und GPT-4, die mit Leitlinien, Richtlinien und Gesetzen trainiert werden. An der Hochschule für Wirtschaft FHNW beginnt am 19. September 2023 das zweiteilige Projekt „CAIBOT: Der Chatbot, der auf Constitutional AI beruht“. Initiiert hat es Prof. Dr. Oliver Bendel, der seit vielen Jahren im Bereich der Maschinenethik forscht und mit seinen wechselnden Teams zahlreiche Prototypen gebaut hat. Für das Projekt konnte Cédric Rico Wespi gewonnen werden. Er wird im Rahmen seiner Bachelor Thesis Grundlagen zu Constitutional AI erarbeiten und vergleichbare Anwendungen studieren. Im zweiten Teil, den ein Entwickler übernimmt, wird der CAIBOT prototypisch implementiert. Die ersten Ergebnisse werden im Januar 2024 präsentiert.

Abb.: Zwischen Nomi und CAIBOT liegen 22 Jahre

Artificial Intelligence and Animals

The online event „Artificial Intelligence & Animals“ will take place on 16 September 2023. „AI experts and attorneys will discuss the intersection of AI and animals in this UIA Animal Law Commission and GW Animal Law webinar“ (Website Eventbrite) Speakers are Prof. Dr. Oliver Bendel (FHNW University of Applied Sciences and Arts Northwestern Switzerland), Yip Fai Tse (University Center for Human Values, Center for Information Technology Policy, Princeton University), and Sam Tucker (CEO VegCatalyst, AI-Powered Marketing, Melbourne). Panelists are Ian McDougall (Executive Vice President and General Counsel, LexisNexis London), Jamie McLaughlin (Animal Law Commission Vice President, UIA), and Joan Schaffner (Associate Professor of Law, George Washington University). Oliver Bendel „has been thinking on animal ethics since the 1980s and on information and machine ethics since the 1990s“. „Since 2012, he has been systematically researching machine ethics, combining it with animal ethics and animal welfare. With his changing teams, he develops animal-friendly robots and AI systems.“ (Website Eventbrite) Yip Fai Tse co-wrote the article „AI ethics: the case for including animals“ with Peter Singer. Sam Tucker is an animal rights activist.

Fig.: An AI ball and a cat

AAAI Spring Symposia at Stanford University Again

In late August 2023, AAAI announced the continuation of the AAAI Spring Symposium Series, to be held at Stanford University from 25-27 March 2024. Due to staff shortages, the prestigious conference had to be held at the Hyatt Regency SFO Airport in San Francisco in March 2023 – and will now return to its traditional venue. The call for proposals is available on the AAAI Spring Symposium Series page. Proposals are due by 6 October 2023. They should be submitted to the symposium co-chairs, Christopher Geib (SIFT, USA) and Ron Petrick (Heriot-Watt University, UK), via the online submission page. Over the past ten years, the AAAI Spring Symposia have been relevant not only to classical AI, but also to roboethics and machine ethics. Groundbreaking symposia were, for example, „Ethical and Moral Considerations in Non-Human Agents“ in 2016, „AI for Social Good“ in 2017, or „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ in 2018. More information is available at aaai.org/conference/spring-symposia/sss24/.

Fig.: Hoover Tower on the Stanford University campus

Ethische Implikationen generativer KI

Am 20. Juni 2023 hält Prof. Dr. Oliver Bendel einen Onlinevortrag für LeLa, das Lernlabor Hochschuldidaktik für Digital Skills, ein Kooperationsprojekt der fünf Zürcher Hochschulen ETH Zürich, PHZH, UZH, ZHAW und ZHdK. „Ethische Implikationen generativer KI“ sind das Thema. Zunächst klärt der Technikphilosoph den Begriff der generativen KI (engl. „generative AI“). Dann stellt er aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu diesem Bereich an, wobei er vor allem auf ChatGPT fokussiert. So ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Weitere Informationen zur Reihe „AI or what the ChatGPT“ über dizh.ch/event/was-sind-die-ethische-implikationen-generativer-ki/.

Abb.: Mit Midjourney erstelltes Bild einer Schnorchlerin

AI-generated Music will be Heard Around the World

In January 2023, Google announced MusicLM, an experimental AI tool that can turn text descriptions (text prompts) into music. From 10 May 2023, one can sign up to try it out in the so-called AI Test Kitchen. The company gives examples of how to use the programme on its blog: „Just type in a prompt like ’soulful jazz for a dinner party‘ and MusicLM will create two versions of the song for you. You can listen to both and give a trophy to the track you like better, which will help improve the model.“ (Google Blog, 10 May 2023) Not all types of music will be possible. TechCrunch wrote in an article: „The version of MusicLM in AI Test Kitchen won’t generate music with specific artists or vocals.“ (TechCrunch, 10 May 2023) This is certainly to avoid legal problems. An AI-generated song in the style of The Weeknd and Drake recently caused a stir. It is likely that AI-generated music will be heard around the world. Whether this will be to our advantage remains to be seen.

Fig.: AI-generated music will be heard around the world

Ein 3sat-Abend zu KI und Robotik

Am 2. März 2023 startete der 3sat-Abend Wissen hoch 2 zu KI und Robotik um 18.30 Uhr mit NANO. Oliver Bendel wurde mit folgenden Worten vorgestellt: „Im beschaulichen schweizerischen Brugg-Windisch forscht einer der wichtigsten Robotikexperten und Maschinenethiker, Prof. Oliver Bendel, Autor diverser Standardwerke, Sachverständiger für den deutschen Bundestag, Roboterfan.“ Ebenfalls im Interview mit der Sendung war Jonas Andrulis von Aleph Alpha, einem deutschen KI-Unternehmen. Nach der Tagesschau – ab 20.15 Uhr – wurde die Dokumentation „Mein Avatar und ich“ gezeigt. Ingolf Baur war u.a. zu Oliver Bendel nach Brugg-Windisch, zu Daniele Pucci nach Genua und zu Matt McMullen nach Kalifornien bzw. Nevada gereist. Ein ehemaliger Google-Ingenieur, der in LaMDA fälschlicherweise Bewusstsein vermutete, war online zugeschaltet. Den Abschluss bildete ab 21.00 Uhr eine Talkrunde bei Gerd Scobel mit Oliver Bendel, Doris Weßels (Fachhochschule Kiel) und Kristian Kersting (TU Darmstadt). Die Sprache kam auch auf den kleinen Haiku-Band „Dass es nur Kunst war, verdeckte die Kunst“ von Oliver Bendel. Produziert wurde er mit Hilfe von ChatGPT. Abgedruckt sind die Inputs (Prompts) und Outputs (hier die Haikus). Der Informations- und Maschinenethiker äußerte die Meinung, dass KI imstande ist, Schönheit zu produzieren. Nach dreieinhalb Stunden war der Abend, der viele herausragende Bilder und Geschichten lieferte, vorbei.

Abb.: Oliver Bendel bringt NAO zum Dreh (Foto: Sara Zarubica)

Generative KI im Überblick

„Generative KI (‚KI‘ steht für ‚künstliche Intelligenz‘) ist ein Sammelbegriff für KI-basierte Systeme, mit denen auf scheinbar professionelle und kreative Weise alle möglichen Ergebnisse produziert werden können, etwa Bilder, Video, Audio, Text, Code, 3D-Modelle und Simulationen. Menschliche Fertigkeiten sollen erreicht oder übertroffen werden. Generative KI kann Schüler, Studenten, Lehrkräfte, Büromitarbeiter, Politiker, Künstler und Wissenschaftler unterstützen und Bestandteil von komplexeren Systemen sein. Man spricht auch, dem englischen Wort folgend, von Generative AI, wobei ‚AI‘ die Abkürzung für ‚Artificial Intelligence‘ ist.“ Mit diesen Worten beginnt ein Beitrag, der am 22. Februar 2023 im Gabler Wirtschaftslexikon erschienen ist. Es werden Informationen zu Entwicklung und Hintergrund sowie einige Beispiele für Anwendungen gegeben. Am Ende wird die Perspektive der Ethik eingenommen, unter besonderer Berücksichtigung der Informationsethik. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/generative-ki-124952 abgerufen werden.

Abb.: Midjourney generiert ein Bild einer Schnorchlerin im Meer

Socially Responsible AI for Well-being

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The AAAI website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: View of San Francisco

Why is Your Baby Crying?

Why is your baby crying? And what if artificial intelligence (AI) could answer that question for you? „If there was a flat little orb the size of a dessert plate that could tell you exactly what your baby needs in that moment? That’s what Q-bear is trying to do.“ (Mashable, January 3, 2023) That’s what tech magazine Mashable wrote in a recent article. At CES 2023, the Taiwanese company qbaby.ai demonstrated its AI-powered tool which aims to help parents resolve their needs in a more targeted way. „The soft silicone-covered device, which can be fitted in a crib or stroller, uses Q-bear’s patented tech to analyze a baby’s cries to determine one of four needs from its ‚discomfort index‘: hunger, a dirty diaper, sleepiness, and need for comfort. Q-bear’s translation comes within 10 seconds of a baby crying, and the company says it will become more accurate the more you use the device.“ (Mashable, January 3, 2023) Whether the tool really works remains to be seen – presumably, baby cries can be interpreted more easily than animal languages. Perhaps the use of the tool is ultimately counterproductive because parents forget to trust their own intuition. The article „CES 2023: The device that tells you why your baby is crying“ can be accessed via mashable.com/article/ces-2023-why-is-my-baby-crying.

Fig.: Is this baby crying?

Proceedings von „How Fair is Fair? Achieving Wellbeing AI“ erschienen

Am 17. November 2022 sind die Proceedings von „How Fair is Fair? Achieving Wellbeing AI“ (Organisatoren: Takashi Kido und Keiki Takadama) auf CEUR-WS erschienen. Das AAAI 2022 Spring Symposium fand vom 21. bis 23. März 2022 an der Stanford University statt. Im elektronischen Band finden sich sieben Full Papers mit 6 – 8 Seiten: „Should Social Robots in Retail Manipulate Customers?“ von Oliver Bendel und Liliana Margarida Dos Santos Alves (3. Platz der Best Presentation Awards), „The SPACE THEA Project“ von Martin Spathelf und Oliver Bendel (2. Platz der Best Presentation Awards), „Monitoring and Maintaining Student Online Classroom Participation Using Cobots, Edge Intelligence, Virtual Reality, and Artificial Ethnographies“ von Ana Djuric, Meina Zhu, Weisong Shi, Thomas Palazzolo und Robert G. Reynolds, „AI Agents for Facilitating Social Interactions and Wellbeing“ von Hiro Taiyo Hamada und Ryota Kanai (1. Platz der Best Presentation Awards) , „Sense and Sensitivity: Knowledge Graphs as Training Data for Processing Cognitive Bias, Context and Information Not Uttered in Spoken Interaction“ von Christina Alexandris, „Fairness-aware Naive Bayes Classifier for Data with Multiple Sensitive Features“ von Stelios Boulitsakis-Logothetis und „A Thermal Environment that Promotes Efficient Napping“ von Miki Nakai, Tomoyoshi Ashikaga, Takahiro Ohga und Keiki Takadama. Zudem gibt es mehrere Short Papers und Extended Abstracts. Die Proceedings können über ceur-ws.org/Vol-3276/ abgerufen werden.

Abb.: In dieser Gegend fand das Symposium statt

Interview zur Dual-Use-Problematik

Dual-Use ist ein altbekanntes Problem. Meist ist damit gemeint, dass etwas sowohl zivilen als auch militärischen Zwecken dienen kann. Letztere sind oft nicht im Sinne des Erfinders. Man kann den Begriff weiter fassen und ihn so verstehen, dass nützliche Instrumente und Technologien in den falschen Händen zu schädlichen werden. Das kennt man bereits von Messern und Fahrzeugen, und man kann auch aus vielen hilfreichen Robotern tödliche Waffen machen. Künstliche Intelligenz kann dabei helfen, Krankheiten zu erkennen und zu bekämpfen oder aber Krankheiten – etwa durch biologische Waffen, die von ihr mitentwickelt werden – hervorzurufen. Genau zu diesem Thema befragte der Tages-Anzeiger den Informations- und Maschinenethiker Oliver Bendel. Das Interview erschien am 25. März 2022 in der gedruckten Ausgabe. Es ist auch online abrufbar.

Abb.: KI kann bei der Entwicklung biologischer Waffen helfen

KI-gestütztes Recruiting

Der Artikel „KI-gestütztes Recruiting – technische Grundlagen, wirtschaftliche Chancen und Risiken sowie ethische und soziale Herausforderungen“ von Gwendolin Wilke und Oliver Bendel ist am 7. März 2022 in der HMD – Praxis der Wirtschaftsinformatik erschienen. Aus dem Abstract: „Bei der Rekrutierung von neuen Mitarbeitern und Mitarbeiterinnen setzen Firmen heute vermehrt auf die Unterstützung durch künstliche Intelligenz (KI). Die technischen Möglichkeiten reichen von Vorauswahlgesprächen mit Chatbots über die automatisierte Auswertung schriftlicher Bewerbungsdossiers hinsichtlich Fachkompetenz und Erfahrung bis hin zur maschinellen Analyse von
Videobewerbungen zur Bewertung von Softskills wie Selbstvertrauen, Enthusiasmus oder Kommunikationsfähigkeit. Auch Lernplattformen werden zur Vorauswahl und Überprüfung eingesetzt. Der Artikel erklärt die technischen Grundlagen und Möglichkeiten des KI-gestützten Recruitings und zeigt wirtschaftliche Chancen und Risiken auf. Ethische und soziale Herausforderungen werden diskutiert und verständliche und umsetzbare Handlungsempfehlungen für Unternehmen unterbreitet, damit sie rechtliche Vorgaben und ethische Richtlinien einhalten und auf Kritik reagieren können.“ Es handelt sich um eine Open-Access-Publikation, die über link.springer.com/article/10.1365/s40702-022-00849-w heruntergeladen werden kann.

Abb.: Eine Jobsuchende