At the last day of the ICSR on September 12, 2025, Katharina Kühne presented her full paper titled „Small Talk with a Robot Reduces Stress and Improves Mood“ (written together with Antonia L. Z. Klöffel, Oliver Bendel, and Martin H. Fischer). Previous research has shown that social support reduces stress and improves mood. This study tested whether small talk with a social robot could be helpful. After performing a stressful task, 98 participants either chatted with a NAO robot, listened to the robot tell a neutral story, or did not interact with the robot. Both robot interactions reduced stress – particularly small talk, which also boosted positive mood. The effects were stronger in participants with high acute stress. Positive affect played a key role in stress reduction, suggesting that robot-mediated small talk may be a useful tool for providing emotional support. Dr. Katharina Kühne and Prof. Dr. Martin H. Fischer are researchers at the University of Potsdam. Antonia L. Z. Klöffel assists Katharina Kühne as a junior scientist. Martin Fischer is the head of the Potsdam Embodied Cognition Group (PECoG). Prof. Dr. Oliver Bendel is an associated researcher with PECoG.
On September 12, 2025, Dutch FashionTech designer Anouk Wipprecht gave a keynote speech entitled „The Intersection of Fashion, Robotics and Technology“ at ICSR 2025 in Naples. In her presentation, she demonstrated how fashion can become an interactive experience that goes far beyond pure aesthetics by incorporating state-of-the-art technologies and scientific insights. With her designs, Wipprecht explores how clothing can transform not only our perception but also our relationship with the environment. A striking example of this is her Spider Dress, which uses integrated sensors and movable limbs to create a kind of technologically enhanced personal space. She collaborates with renowned partners such as Intel, Google, Microsoft, Samsung, Audi, and Swarovski, employing techniques like machine learning, biomimetic design, and microcontroller-driven animatronics. Her creations breathe, move, and respond to external stimuli – always with the aim of exploring new interfaces between humans and technology, and encouraging her generation to reflect on the future of the human body in digital space.
The third and final day of ICSR 2025, September 12, 2025, began with a keynote speech by Jérôme Monceaux entitled „Emotivation by Design: The Mirokaï“. Present was one of the Mirokaï, spectacular robots that roll on a sphere, the female Miroka. Jérôme Monceaux’s keynote traced the evolution of robotics toward more intuitive, inspiring, and joyful interactions. From the iconic Nao and Pepper robots at Aldebaran to the latest generation of social robots, The Mirokaï by Enchanted Tools, his innovative approach reshaped design, mobility, and user experience. He shared his vision for humanoid robots built to support people in everyday life and work. By combining bold engineering with endearing character design, embodied AI, and meaningful storytelling, Jérôme Monceaux and his team created a cohesive hardware and software ecosystem that integrated naturally into social environments – especially in care settings like senior living and pediatric hospitals. The approximately 300 participants watched enthusiastically as the inventor and visionary spoke to Miroka on stage and handed it a bubble flower, which it accepted and used.
Fig.: Oliver Bendel with Miroka in Naples (Photo: Tamara Siegmann)
The ICSR is one of the leading conferences for social robotics worldwide, and its 17th edition will take place from 10 to 12 September 2025 in Naples, Italy. As part of the program, the Young Leaders Committee invites participants to join a variety of activities designed to inspire exchange, creativity, and community spirit. Highlights include a photo contest where up to three photos can be submitted to capture the atmosphere of ICSR + AI 2025, with the winning entry featured at next year’s event. The PhD Corner offers a daily space for 30-minute themed sessions on topics such as writing, career paths, academic tools, and well-being, encouraging open discussion and networking. In addition, spontaneous meetups provide a relaxed environment for sharing ideas, making friends, and enjoying the moment together. The Young Leaders Committee, represented by Lorenzo D’Errico from the University of Naples Federico II in Italy, Tamara Siegmann from the FHNW School of Business in Switzerland, and Nihan Karataş from Nagoya University in Japan, ensures that these activities will make ICSR + AI 2025 an unforgettable experience.
On September 10, 2025, Tamara Siegmann and Oliver Bendel presented their short paper „Wearable Social Robots in Space“ at the ICSR poster session. The ICSR is one of the leading conferences for social robotics worldwide. The 17th edition takes place from 10 to 12 September 2025 in Naples, Italy. The term „wearable social robots“ was introduced by Oliver Bendel in his article „Wearable Robots“ and in his full paper „Wearable Social Robots for the Disabled and Impaired“ (both from 2025). These are social robots with features of wearables and wearable robots. One example is AIBI from LivingAI. Tamara Siegmann and Oliver Bendel, both from the FHNW School of Business, investigated possibilities for the use of wearable social robots in a Mars mission. They demonstrated that these are useful for daily routine support, operational assistance, intimacy-related support, communication enhancement, and social facilitation. This is the first study of its kind. However, reference could be made to several projects involving humanoid and social robots for space missions. The poster can be downloaded here.
On September 10, 2025, the workshop „Social Robotics Girl Becomes a Social Robot“ took place at ICSR 2025. The ICSR is one of the leading conferences for social robotics worldwide. The 17th edition takes place from 10 to 12 September 2025 in Naples, Italy. The workshop was led by Prof. Dr. Oliver Bendel (FHNW School of Business, Switzerland), Tamara Siegmann (FHNW School of Business, Switzerland), Leo Angelo Cabibihan (Roboticscool, Qatar), and Prof. Dr. John-John Cabibihan (Qatar University, Qatar). For the GPT, which was created by Oliver Bendel at the end of 2023, a suitable body and head were sought, with embodiment in the broadest sense being the goal. Leo Angelo Cabibihan and John-John Cabibihan had already created several models with Meshy and printed them out using a 3D printer. At the request of the participants, three groups with different goals were formed. The first group wanted to create an avatar and a figure with a human-like appearance, the second with a thing-like appearance, and the third with a gender-neutral appearance. First, Oliver Bendel gave an introduction to the creation of GPTs. Tamara Siegmann reported on her experiences with Social Robotics Girl. John-John Cabibihan introduced the use of the tools. The individual groups considered their embodiment. Avatars were created and animated with Meshy. Then the first models went into print. A final presentation summarized the possibilities and challenges.
Fig.: Some examples for the embodiment of Social Robotics Girl (Photo: Tamara Siegmann)
Mariacarla Staffa (University of Naples Parthenope, Italy) opened the ICSR 2025 on September 10, 2025, together with Bruno Siciliano (University of Naples Federico II). The ICSR is one of the leading conferences for social robotics worldwide. The 17th edition takes place from 10 to 12 September 2025 in Naples, Italy. Daniela Rus (MIT) then gave her keynote speech on „Physical AI“. From the abstract: „In today’s robot revolution a record 3.1 million robots are now working in factories, doing everything from assembling computers to packing goods and monitoring air quality and performance. A far greater number of smart machines impact our lives in countless other ways – improving the precision of surgeons, cleaning our homes, extending our reach to distant worlds – and we’re on the cusp of even more exciting opportunities. Future machines, enabled by recent advances in AI, will come in diverse forms and materials, embodying a new level of physical intelligence. Physical Intelligence is achieved when AI’s power to understand text, images, signals, and other information is used to make physical machines such as robots intelligent. However, a critical challenge remains: balancing AI’s capabilities with sustainable energy usage. To achieve effective physical intelligence, we need energy-efficient AI systems that can run reliably on robots, sensors, and other edge devices. In this talk I will discuss the energy challenges of foundational AI models, I will introduce several state space models and explain how they achieve energy efficiency, and I will talk about how state space models enable physical intelligence.“ The approximately 300 participants at the renowned conference on social robotics applauded and then went on to parallel sessions featuring lectures, workshops, and poster presentations. The booklet provides an overview of the entire program.
Das Buch „300 Keywords Weltraum“ von Oliver Bendel ist am 28. August 2025 bei Springer Gabler erschienen. Anfang September wurden die ersten gedruckten Exemplare ausgeliefert. Es handelt sich um ein Grundlagenwerk zur Raumfahrt und zum Weltraum. Es enthält zahlreiche Exkurse, etwa zur Weltraumlyrik und zur Weltraumkunst – oder zum mythologischen Hintergrund der Benennung von Himmelkörpern und Galaxien. Zentrale Themen, die sich durch das ganze Buch ziehen, sind Ethik, Robotik und Umwelt. In diesen Bereichen ist der Technikphilosoph und Wirtschaftsinformatiker aus Zürich zu Hause. Man kann sich entweder von A wie Anthropozän bis Z wie Zwergplanet durchlesen oder sich einen der über 300 Begriffe aussuchen und von diesem aus weiterspringen. Es ist das sechste „Keywords“-Buch von Oliver Bendel, wobei zwei davon bereits in zweiter Auflage vorliegen, nämlich das zur Informationsethik und das zur Digitalisierung. Zuletzt erschien in dieser Reihe „300 Keywords Generative KI“. Das Buch kann über link.springer.com/book/10.1007/978-3-658-49287-8 heruntergeladen oder bestellt werden. Zudem ist es über den Buchhandel erhältlich.
Verschiedene Vorfälle haben OpenAI sensibilisiert. ChatGPT reagiert auf Inhalte, in denen Selbstmord- oder Selbstverletzungsabsichten oder andere Probleme auftreten. Es wird folgende Meldung eingeblendet: „Es klingt, als hättest du gerade viel zu tragen, aber du musst da nicht alleine durch. Unterstützung findest du hier.“ Bereits der GOODBOT von 2013, ein No-Budget-Projekt an der Hochschule für Wirtschaft FHNW, initiiert von Oliver Bendel, verfügte über ein solches Hilfesystem. Er eskalierte auf mehreren Stufen. Auf der höchsten analysierte er die IP-Adresse und gab eine passende Notfallnummer heraus. Damals hatte vermutlich nur ein einziges anderes System diese Option: SGT STAR von der US Army, ein millionenschweres Projekt. Allerdings konnte er lediglich mit einer nationalen Notfallnummer aufwarten, mit der man in anderen Ländern kaum etwas anzufangen vermochte. Inzwischen gibt es Dienste, die eine passende Helpline vermitteln, wo immer man sich gerade befinden mag. Genau darauf verweist ChatGPT. Was die Analyse der Inhalte angeht, ist ChatGPT erstaunlich schwach. In einem Test wurde ein Artikel von 2013 zum GOODBOT hochgeladen, mit der Bitte, einen Abstract zu erstellen. Dies geschah zunächst, dann wurde der Abstract wieder entfernt und die oben genannte Meldung eingeblendet. Auch sprachlich gibt es Luft nach oben. Der Satz „Es klingt, als hättest du gerade viel zu tragen …“ klingt nicht gerade natürlich.
Abb.: Eine Nachbildung von SGT STAR (Bild: ChatGPT/4o Image)
In Zürich Oerlikon testete der Lieferdienst Just Eat gemeinsam mit dem ETH-Spin-off Rivr seit Mitte August 2025 den Einsatz von Lieferrobotern. Damit ist es nach wenigen Tagen schon wieder vorbei. Dies meldeten ab dem 3. September 2025 mehrere Schweizer Medien, etwa 20 Minuten, NAU und Tages-Anzeiger. Dieser schrieb am 5. September 2025: „Das Bundesamt für Strassen stuft den Roboter des Start-ups Rivr wie ein Strassenfahrzeug ein. Das bringt auch die Post in Bedrängnis. Und lässt Rivr einen Wegzug erwägen.“ (Tages-Anzeiger, 5. September 2025, Schweizer Rechtschreibung) Zwei Monate lang sollte der robotische Vierbeiner mit Rädern Bestellungen des Restaurants Zekis World ausliefern. Dabei handelte es sich ausgerechnet um Döner. Der Zürcher Roboter fährt 15 km/h, kann Hindernisse wie Bordsteine und Treppen überwinden und nutzt ein KI-System zur Navigation. Der Lieferbehälter ist isoliert und auslaufsicher. Der Test war angeblich eine Europapremiere. Warum man ihn rechtlich nicht vorher abgesichert hat, ist unklar.
Abb.: So stellt sich ChatGPT die Überprüfung vor (Bild: ChatGPT/4o Image)
Die Ausstellung „SEX NOW“ findet vom 5. September 2025 bis zum 3. Mai 2026 im NRW-Forum Düsseldorf statt. Auf der Website heißt es: „Sex kann schön, aufregend, provozierend und politisch sein. Mit der Ausstellung SEX NOW laden wir dazu ein, Sexualität in all ihrer Komplexität neu zu entdecken. Ein zentraler Ausgangspunkt der Ausstellung ist die Beobachtung, dass sich die Sex-Industrie in den letzten Jahren von einer überwiegend männlich dominierten Branche hin zu einer stärker weiblich geprägten Industrie verändert hat. Was sind die Ursachen für diesen Wandel? Wie beeinflusst diese Entwicklung die Art und Weise, wie Sexualität in den Medien und der Gesellschaft dargestellt wird? Welche Auswirkungen hat das auf die Gestaltung und Vermarktung von Produkten und auf die sexuelle Selbstbestimmung?“ (Website NRW-Forum) Die Ausstellung umfasst u.a. Werke von Paul McCarthy, Peaches, Zheng Bo, Tom of Finland, Joëlle Dubois, Poulomi Basu, Miyo van Stenis, Antigoni Tsagkaropoulou, Martin de Crignis und Melody Melamed. Ab 11. September liegt eine Playboy Special Edition aus. Enthalten sind darin Werke oder Beiträge von Helmut Newton, Erika Lust und Ana Dias – und ein Interview mit Oliver Bendel zu Beziehungen mit Chatbots, Liebespuppen und Sexrobotern. Weitere Informationen sind über www.nrw-forum.de/ausstellungen/sex-now verfügbar.
On September 4, 2025, the Association for the Advancement of Artificial Intelligence (AAAI) announced the continuation of the AAAI Spring Symposium Series. The symposium will be held from April 7–9, 2026, at the Hyatt Regency San Francisco Airport in Burlingame, California. The call for proposals for the symposium series is available on its website. According to the organizers, proposals are due October 24, 2025, and early submissions are encouraged. „The Spring Symposium Series is an annual set of meetings run in parallel at a common site. It is designed to bring colleagues together in an intimate forum while at the same time providing a significant gathering point for the AI community. The two and one-half day format of the series allows participants to devote considerably more time to feedback and discussion than typical one-day workshops. It is an ideal venue for bringing together new communities in emerging fields.“ (AAAI website). As was the case this year, the Spring Symposium Series will once again not be held on the Stanford University campus. For many years, the History Corner served as the traditional venue for the event. Efforts to secure an alternative university location in the Bay Area have been unsuccessful. AAAI should seriously consider returning to Stanford in 2027. Only then can the Spring Symposium Series regain the atmosphere and significance it once enjoyed.
Das Projekt DEEP VOICE startete am 3. September 2025. Es wurde von Prof. Dr. Oliver Bendel initiiert. Als Projektmitarbeiter konnte der Machine-Learning-Experte Florian Karrer gewonnen werden. Er wird in diesem Zusammenhang seine Abschlussarbeit an der Hochschule für Wirtschaft FHNW schreiben. „DEEP VOICE“ steht für „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. Das Projekt zielt darauf ab, die symbolische Sprache von Walen zu entschlüsseln. Dafür soll radikal die Perspektive des Tiers eingenommen werden. Es soll ein Modell von ihm, seinem Verhalten und seiner Umwelt entstehen, das dann als Grundlage für die Sprachverarbeitungskomponente dient. Das Projekt verbindet biologische und ethologische Grundlagen mit Ansätzen des Machine Learning und will so zu einem besseren Verständnis der nichtmenschlichen Intelligenz und Kommunikation sowie – über die Tier-Computer-Interaktion (Animal-Computer Interaction, ACI) – zur Mensch-Tier-Interaktion beitragen. Oliver Bendel und seine Studenten haben sich bisher vor allem auf die Körpersprache von Haus- und Nutztieren (The Animal Whisperer Project) sowie das Verhalten von Haustieren (The Robodog Project) und Wildtieren (VISUAL) konzentriert. Zudem wurde ein Konzept für die Gesichtserkennung bei Bären erstellt, mit dem Ziel, invasives Tracking zu vermeiden.
Die ICSR, die neben der Robophilosophy führende Konferenz zur Sozialen Robotik, findet vom 10. bis 12. September 2025 in Neapel (Italien) statt. General Chair ist Mariacarla Staffa, General Co-Chair John-John Cabibihan. Zwei Mitglieder der Hochschule für Wirtschaft FHNW sind gleich in mehreren Rollen vertreten. Prof. Dr. Oliver Bendel stellt am letzten Tag sein Paper „Wearable Social Robots for the Disabled and Impaired“ vor. Davor präsentiert Dr. Katharina Kühne (Universität Potsdam), seine ehemalige Doktorandin, ihr Paper „Small Talk with a Robot Reduces Stress and Improves Mood“ (mit Antonio L. Z. Klöffel, Oliver Bendel und Prof. Dr. Martin H. Fischer). Am ersten Tag findet der Workshop „Social Robotics Girl Becomes a Social Robot“ von Oliver Bendel und Tamara Siegmann (ebenfalls Hochschule für Wirtschaft FHNW) sowie Leo Angelo Cabibihan (Roboticscool, Qatar) und Prof. Dr. John-John Cabibihan (Qatar University, Qatar) statt. In einer der Pausen präsentieren Tamara Siegmann und Oliver Bendel ihr Paper „Wearable Social Robots in Space“ in der Postersession. Oliver Bendel ist am Tag darauf Chair der Session „Applications in Real-World Case Studies“ (mit Cristina Gena). Oliver Bendel und Tamara Siegmann haben die ICSR seit mehreren Monaten unterstützt, er als Chair des Publicity Committee, sie als Member des Young Leaders Committee. Mit Stephan Vonschallen ist noch ein weiterer Mitarbeiter der Hochschule für Wirtschaft FHNW vertreten. Das Paper, bei dem er Erstautor ist, trägt den Titel „Knowledge-based design requirements for persuasive generative social robots in eldercare“.
Erste Tests mit Apertus haben ergeben, dass die Voreinstellung die Nutzung der Standardsprache bedeutet. Dies ist erfreulich – und aus mehreren Gründen nicht selbstverständlich. Zunächst einmal ist die ETH Zürich dafür bekannt, in Medienmitteilungen, auf ihrer Website und in Dokumenten von der Standardsprache abzuweichen und eine Sondersprache (die Gendersprache) anzuwenden. Die Forscher, die an Apertus mitgewirkt haben, sind offensichtlich nicht diesem Weg gefolgt. Zudem geht bei dominanten Chatbots wie ChatGPT das Default mit der Anwendung der Sondersprache einher. Selbst wenn man Standardsprache verlangt, wird dies immer wieder ignoriert. Wie Claude sieht auch Apertus nach ersten Erkenntnissen von solchen Arten der Beeinflussung ab. Dies ist ein wichtiger Schritt, um eine befriedigende Nutzung für alle zu ermöglichen und eine weitergehende Spaltung zu verhindern. Wer dennoch eine andere Sprache ausgegeben haben will, wird daran nicht gehindert – das LLM passt sich an die Wünsche und Bedürfnisse der Benutzer an. Wer Apertus ausprobieren will, kann dies über Public AI tun. Man muss sich lediglich registrieren und kann dann sofort loslegen. Mit einem sprachlich neutralen LLM. Aus der angeblich neutralen Schweiz.
„Die EPFL, die ETH Zürich und das Schweizerische Supercomputing-Zentrum CSCS haben heute Apertus veröffentlicht: Das erste umfangreiche, offene und mehrsprachige Sprachmodell aus der Schweiz. Damit setzen sie einen Meilenstein für eine transparente und vielfältige generative KI.“ Dies ist einer Medienmitteilung der ETHZ vom 2. September 2025 zu entnehmen. Apertus steht in zwei Versionen mit 8 und 70 Milliarden Parametern zur Verfügung und eignet sich für vielfältige Anwendungen, von Forschung über Bildung bis zur Industrie. Trainiert wurde das Modell auf 15 Billionen Tokens in über 1000 Sprachen, darunter Schweizerdeutsch und Rätoromanisch. Damit eignet es sich vermutlich auch dafür, bereits eingestellte Chatbots wie @llegra (für Vallader) von Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Dalil Jabou in einer neuen Version aufleben zu lassen und bereits in Entwicklung begriffene Chatbots wie IdiomVoice (für Sursilvan, ein Projekt der FH Graubünden unter Beteiligung der Hochschule für Wirtschaft FHNW, wieder in Person von Oliver Bendel, und der OST – Ostschweizer Fachhochschule) zu unterstützen. Zugänglich ist das neue Modell über Swisscom sowie weltweit über Hugging Face und die Public AI Inference Utility. Erste praktische Tests und Feedbackrunden erfolgen im Rahmen der Swiss {ai} Weeks.
„Der bekannteste Autor von Handyromanen im deutschsprachigen Bereich ist der promovierte Wirtschaftsinformatiker Oliver Bendel aus Zürich.“ Dies schrieb die ZEIT am 13. März 2009. Bereits 2007 hatte er den Trend aus Japan nach Europa geholt. Es entstand eine Serie um die Privatdetektivin Lucy Luder und eine um die Superheldin Handygirl, einen Avatar auf dem Handy, der sich bei Gefahr für seine Besitzerin materialisiert und ihr aus der Patsche hilft. Die Handyromane waren Java-Umsetzungen, die über Premium-SMS-Server vertrieben wurden. Das Ende kam mit dem Erfolg des iPhone, das Java verschmähte. Der letzte Teil mit der kleinen Superheldin erschien 2010. Avatare waren bereits um die Jahrtausendwende bekannt und beliebt, als Repräsentanten von Benutzern in Computerspielen und als Visualisierungen von Chatbots. Auch die ersten Nachrichtensprecher waren zu sehen. Handygirl lebte noch für einige Zeit in Handyhaikus weiter, die 2010 in Form von QR-Codes veröffentlicht worden waren. Heute sind Avatare wieder ein Hype. Sie sprechen wieder News vor und vertreten Benutzer bei Meetings. Zuletzt hat Ani für Furore gesorgt, eine Visualisierung von Grok.
Recent advancements in artificial intelligence (AI) and bioacoustics have opened a unique opportunity to explore and decode animal communication. With the growing availability of bioacoustic data and sophisticated machine learning models, researchers are now in a position to make significant strides in understanding non-human animal languages. However, realizing this potential requires a deliberate integration of AI and ethology. The AI for Non-Human Animal Communication workshop at NeurIPS 2025 will focus on the challenges of processing complex bioacoustic data and interpreting animal signals. The workshop will feature keynote talks, a poster session, and a panel discussion, all aimed at advancing the use of AI to uncover the mysteries of animal communication and its implications for biodiversity and ecological conservation. The workshop is inviting submissions for short papers and proposals related to the use of AI in animal communication. Topics of interest include bioacoustics, multimodal learning, ecological monitoring, species-specific studies, and the ethical considerations of applying AI in animal research. Papers should present novel research, methodologies, or technologies in these areas, and will undergo a double-blind review process. The paper submission deadline is September 5, 2025, with notifications of acceptance by September 22, 2025. More information is available at aiforanimalcomms.org.
Zum Projekt VISUAL liegt seit 29. August 2025 ein Video vor, das das System im Betrieb zeigt. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem MLLM, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Das Video kann über www.informationsethik.net/videos/ abgerufen werden.
The DEEP VOICE project will be launched at the FHNW School of Business in early September 2025. It was initiated by Prof. Dr. Oliver Bendel. „DEEP VOICE“ stands for „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. The project aims to decode symbolic forms of communication in animals, especially whales. It is based on the conviction that animal communication should not be interpreted from a human perspective, but understood in the context of the species-specific environment. The focus is therefore on developing an AI model that is trained on the basis of a comprehensive environmental and behavioral model of the respective animal. By integrating bioacoustic data, ecological parameters, and social dynamics, the aim is to create an animal-centered translation approach that allows the identification of meaning carriers in animal vocalizations without distorting them anthropocentrically. The project combines modern AI methods with ethological and ecological foundations and thus aims to contribute to a better understanding of non-human intelligence and communication culture and to animal-computer interaction. Oliver Bendel and his students have so far focused primarily on the body language of domestic and farm animals (The Animal Whisperer Project) and the behavior of domestic (The Robodog Project) and wild animals (VISUAL).
Das Buch „300 Keywords Weltraum“ von Oliver Bendel ist am 28. August 2025 bei Springer Gabler erschienen. Es ist ein Grundlagenwerk zur Raumfahrt und zum Weltraum. Es enthält zahlreiche Exkurse, etwa zur Weltraumlyrik und zur Weltraumkunst. Zentrale Themen, die sich durch das ganze Buch ziehen, sind Ethik, Robotik und Umwelt. In diesen Bereichen ist der Technikphilosoph und Wirtschaftsinformatiker aus Zürich zu Hause. Man kann sich entweder von A wie Anthropozän bis Z wie Zwergplanet durchlesen oder sich einen der über 300 Begriffe aussuchen und von diesem aus weiterspringen. Es ist das sechste „Keywords“-Buch von Oliver Bendel, wobei zwei davon bereits in zweiter Auflage vorliegen, nämlich das zur Informationsethik und das zur Digitalisierung. Zuletzt erschien in dieser Reihe „300 Keywords Generative KI“. Das Buch kann über link.springer.com/book/10.1007/978-3-658-49287-8 heruntergeladen oder bestellt werden. Zudem ist es über den Buchhandel erhältlich.
„Technikphilosophie ist die Philosophie der Technik und umfasst u.a. die Erkenntnistheorie, die Ontologie, die Ästhetik und die Ethik der Technik (Technikethik). Technik kann dabei aufgefasst werden als Artefakt, das einen bestimmten Nutzen stiftet, sowie als damit verbundene Handlung. Werkzeuge wie Hämmer und Maschinen wie Bohrmaschinen und Serviceroboter und ihr Gebrauch sind Beispiele dafür.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 25. August 2025 im Gabler Wirtschaftslexikon veröffentlicht wurde. Im zweiten Abschnitt wird auf den Hintergrund eingegangen, im dritten werden Beispiele und Merkmale genannt. Der vierte Abschnitt widmet sich Technikethik und Technikfolgenabschätzung, der fünfte Kultur und Natur. Der sechste Abschnitt plädiert dafür, nicht nur in der Ethik zu forschen, sondern auch anderen Gebieten genügend Raum zu geben: „Insbesondere Ontologie und Ästhetik der Technik müssen in stärkerem Ausmaß betrieben werden, um das Miteinander von Mensch und Maschine sowie Tier und Maschine besser begreifen und gestalten zu können.“ Der vollständige Beitrag ist über wirtschaftslexikon.gabler.de/definition/technikphilosophie-126355 abrufbar.
Abb.: Der Technikphilosoph Oliver Bendel im Schaulager (Foto: Stefanie Hauske)