Das Projekt DEEP VOICE startete am 3. September 2025. Es wurde von Prof. Dr. Oliver Bendel initiiert. Als Projektmitarbeiter konnte der Machine-Learning-Experte Florian Karrer gewonnen werden. Er wird in diesem Zusammenhang seine Abschlussarbeit an der Hochschule für Wirtschaft FHNW schreiben. „DEEP VOICE“ steht für „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. Das Projekt zielt darauf ab, die symbolische Sprache von Walen zu entschlüsseln. Dafür soll radikal die Perspektive des Tiers eingenommen werden. Es soll ein Modell von ihm, seinem Verhalten und seiner Umwelt entstehen, das dann als Grundlage für die Sprachverarbeitungskomponente dient. Das Projekt verbindet biologische und ethologische Grundlagen mit Ansätzen des Machine Learning und will so zu einem besseren Verständnis der nichtmenschlichen Intelligenz und Kommunikation sowie – über die Tier-Computer-Interaktion (Animal-Computer Interaction, ACI) – zur Mensch-Tier-Interaktion beitragen. Oliver Bendel und seine Studenten haben sich bisher vor allem auf die Körpersprache von Haus- und Nutztieren (The Animal Whisperer Project) sowie das Verhalten von Haustieren (The Robodog Project) und Wildtieren (VISUAL) konzentriert. Zudem wurde ein Konzept für die Gesichtserkennung bei Bären erstellt, mit dem Ziel, invasives Tracking zu vermeiden.
Erste Tests mit Apertus haben ergeben, dass die Voreinstellung die Nutzung der Standardsprache bedeutet. Dies ist erfreulich – und aus mehreren Gründen nicht selbstverständlich. Zunächst einmal ist die ETH Zürich dafür bekannt, in Medienmitteilungen, auf ihrer Website und in Dokumenten von der Standardsprache abzuweichen und eine Sondersprache (die Gendersprache) anzuwenden. Die Forscher, die an Apertus mitgewirkt haben, sind offensichtlich nicht diesem Weg gefolgt. Zudem geht bei dominanten Chatbots wie ChatGPT das Default mit der Anwendung der Sondersprache einher. Selbst wenn man Standardsprache verlangt, wird dies immer wieder ignoriert. Wie Claude sieht auch Apertus nach ersten Erkenntnissen von solchen Arten der Beeinflussung ab. Dies ist ein wichtiger Schritt, um eine befriedigende Nutzung für alle zu ermöglichen und eine weitergehende Spaltung zu verhindern. Wer dennoch eine andere Sprache ausgegeben haben will, wird daran nicht gehindert – das LLM passt sich an die Wünsche und Bedürfnisse der Benutzer an. Wer Apertus ausprobieren will, kann dies über Public AI tun. Man muss sich lediglich registrieren und kann dann sofort loslegen. Mit einem sprachlich neutralen LLM. Aus der angeblich neutralen Schweiz.
„Die EPFL, die ETH Zürich und das Schweizerische Supercomputing-Zentrum CSCS haben heute Apertus veröffentlicht: Das erste umfangreiche, offene und mehrsprachige Sprachmodell aus der Schweiz. Damit setzen sie einen Meilenstein für eine transparente und vielfältige generative KI.“ Dies ist einer Medienmitteilung der ETHZ vom 2. September 2025 zu entnehmen. Apertus steht in zwei Versionen mit 8 und 70 Milliarden Parametern zur Verfügung und eignet sich für vielfältige Anwendungen, von Forschung über Bildung bis zur Industrie. Trainiert wurde das Modell auf 15 Billionen Tokens in über 1000 Sprachen, darunter Schweizerdeutsch und Rätoromanisch. Damit eignet es sich vermutlich auch dafür, bereits eingestellte Chatbots wie @llegra (für Vallader) von Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Dalil Jabou in einer neuen Version aufleben zu lassen und bereits in Entwicklung begriffene Chatbots wie IdiomVoice (für Sursilvan, ein Projekt der FH Graubünden unter Beteiligung der Hochschule für Wirtschaft FHNW, wieder in Person von Oliver Bendel, und der OST – Ostschweizer Fachhochschule) zu unterstützen. Zugänglich ist das neue Modell über Swisscom sowie weltweit über Hugging Face und die Public AI Inference Utility. Erste praktische Tests und Feedbackrunden erfolgen im Rahmen der Swiss {ai} Weeks.
„Der bekannteste Autor von Handyromanen im deutschsprachigen Bereich ist der promovierte Wirtschaftsinformatiker Oliver Bendel aus Zürich.“ Dies schrieb die ZEIT am 13. März 2009. Bereits 2007 hatte er den Trend aus Japan nach Europa geholt. Es entstand eine Serie um die Privatdetektivin Lucy Luder und eine um die Superheldin Handygirl, einen Avatar auf dem Handy, der sich bei Gefahr für seine Besitzerin materialisiert und ihr aus der Patsche hilft. Die Handyromane waren Java-Umsetzungen, die über Premium-SMS-Server vertrieben wurden. Das Ende kam mit dem Erfolg des iPhone, das Java verschmähte. Der letzte Teil mit der kleinen Superheldin erschien 2010. Avatare waren bereits um die Jahrtausendwende bekannt und beliebt, als Repräsentanten von Benutzern in Computerspielen und als Visualisierungen von Chatbots. Auch die ersten Nachrichtensprecher waren zu sehen. Handygirl lebte noch für einige Zeit in Handyhaikus weiter, die 2010 in Form von QR-Codes veröffentlicht worden waren. Heute sind Avatare wieder ein Hype. Sie sprechen wieder News vor und vertreten Benutzer bei Meetings. Zuletzt hat Ani für Furore gesorgt, eine Visualisierung von Grok.
Recent advancements in artificial intelligence (AI) and bioacoustics have opened a unique opportunity to explore and decode animal communication. With the growing availability of bioacoustic data and sophisticated machine learning models, researchers are now in a position to make significant strides in understanding non-human animal languages. However, realizing this potential requires a deliberate integration of AI and ethology. The AI for Non-Human Animal Communication workshop at NeurIPS 2025 will focus on the challenges of processing complex bioacoustic data and interpreting animal signals. The workshop will feature keynote talks, a poster session, and a panel discussion, all aimed at advancing the use of AI to uncover the mysteries of animal communication and its implications for biodiversity and ecological conservation. The workshop is inviting submissions for short papers and proposals related to the use of AI in animal communication. Topics of interest include bioacoustics, multimodal learning, ecological monitoring, species-specific studies, and the ethical considerations of applying AI in animal research. Papers should present novel research, methodologies, or technologies in these areas, and will undergo a double-blind review process. The paper submission deadline is September 5, 2025, with notifications of acceptance by September 22, 2025. More information is available at aiforanimalcomms.org.
Zum Projekt VISUAL liegt seit 29. August 2025 ein Video vor, das das System im Betrieb zeigt. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem MLLM, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Das Video kann über www.informationsethik.net/videos/ abgerufen werden.
The DEEP VOICE project will be launched at the FHNW School of Business in early September 2025. It was initiated by Prof. Dr. Oliver Bendel. „DEEP VOICE“ stands for „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. The project aims to decode symbolic forms of communication in animals, especially whales. It is based on the conviction that animal communication should not be interpreted from a human perspective, but understood in the context of the species-specific environment. The focus is therefore on developing an AI model that is trained on the basis of a comprehensive environmental and behavioral model of the respective animal. By integrating bioacoustic data, ecological parameters, and social dynamics, the aim is to create an animal-centered translation approach that allows the identification of meaning carriers in animal vocalizations without distorting them anthropocentrically. The project combines modern AI methods with ethological and ecological foundations and thus aims to contribute to a better understanding of non-human intelligence and communication culture and to animal-computer interaction. Oliver Bendel and his students have so far focused primarily on the body language of domestic and farm animals (The Animal Whisperer Project) and the behavior of domestic (The Robodog Project) and wild animals (VISUAL).
Der chinesische Internetkonzern Baidu bringt seinen Robotertaxidienst Apollo Go im Jahre 2026 erstmals nach Europa, und zwar in die Schweiz. Dies meldeten am 25. August 2025 mehrere Medien, u.a. die NZZ und der Tages-Anzeiger. Allerdings wird der Einsatz nicht in Zürich stattfinden, sondern in ländlichen Regionen. Dies ist nur auf den ersten Blick überraschend. Während Zürich als international bedeutender Standort für Forschung und Entwicklung sowie Anwendung gilt und Wohnsitz und Arbeitsort für geeignete Fachkräfte ist, eignet sich das Umland besser für Pilotprojekte, da dort weniger Konkurrenz durch bestehende Fahrdienste besteht und die Bedingungen überschaubarer sind. Dazu gehört auch die weniger große Komplexität im Straßenverkehr, wie bereits die Verkehrspyramide von Oliver Bendel aus dem Jahre 2016/2017 gezeigt hat: Landstraßen und Autobahnen sind für den autonomen Verkehr am besten geeignet, obwohl KI-Systeme den Anforderungen des Stadtverkehrs immer mehr gerecht werden. Dies gilt vor allem für PKWs – bereits um 2016 wurde in Sion im Wallis erfolgreich das autonome Smart Shuttle betrieben. Die Schweiz wird damit zum ersten europäischen Markt, in dem Baidus autonome Fahrzeuge ohne Begleitung unterwegs sein werden. Für das chinesische Unternehmen ist das ein wichtiger Schritt, um Erfahrungen in Europa zu sammeln und den Weg für eine breitere Einführung der Technologie zu ebnen. Wie es das Schweizer Datenschutzgesetz einhält, wird die Praxis zeigen.
Joseph Weizenbaum hatte in den 1970er-Jahren den Grundstein für die Informationsethik gelegt, vor allem mit seinem Buch „Die Macht der Computer und die Ohnmacht der Vernunft“ (1977). Bis dahin waren informationsethische (auch KI-ethische), roboterethische und maschinenethische Überlegungen im Kontext der Informatik und der Technikethik bzw. Technikphilosophie angestellt worden – oder in der Science-Fiction. In den 1980er- und 1990er-Jahren prägten Rafael Capurro und Rainer Kuhlen die Szene. Ersterer sprach später auch von Digitaler Ethik, wie Luciano Floridi, ein bekannter Forscher in diesem Bereich. Rainer Kuhlen schrieb unter Mitarbeit von Oliver Bendel das Buch „Die Mondlandung des Internet“ – dieses beschrieb das Engagement der Politik im WWW, genauer gesagt die Bereitstellung von Informationen, Diskussionsforen, Chatrooms und Onlineabstimmungen im Rahmen der Bundestagswahl 1998. Oliver Bendel, studierter Philosoph, verfasste im Rahmen seines zweiten Studiums der Informationswissenschaft ein Jahr zuvor die Arbeit „Ethik und Einsatz von Informationstechnik: Probleme der Computerethik und ethischer Kodizes“. Darin ging er u.a. der Frage nach, ob Computersysteme Verantwortung tragen können, aufbauend auf Diskussionen der 1970er- und 1980er-Jahre. Zudem analysierte er die schon damals fragwürdigen ethischen Leitlinien der Gesellschaft für Informatik (GI). 1998 gründete Rainer Kuhlen NETHICS. Auf der Willkommensseite hieß es: „NETHICS e.V. … nimmt den Auftrag wahr, die UNESCO, in Deutschland die Deutsche UNESCO-Kommission (DUK), bei der Behandlung informationsethischer Fragestellungen zu unterstützen.“ Die Website kam hell und aufgeräumt daher, wie es Google kurz zuvor vorgemacht hatte. Der Verein brauchte zur Gründung sieben Personen – unter ihnen war Oliver Bendel. Er ging Ende 1998 weg von Konstanz, zunächst an das Institut für Telematik in Trier. Ab Ende 1999 widmete er sich an der Universität St. Gallen zuerst Lern- und Wissensportalen und dann pädagogischen Agenten. Die meist anthropomorph umgesetzten Chatbots und Sprachassistenten bzw. mit Kameras ergänzten KI-Systeme warfen schon damals interessante ethische Fragen auf. Sein Interesse galt aber zunächst vor allem ihrer technischen und prozessualen Umsetzung.
Die späten 1990er-Jahre waren ein Labor für Webdesign. Es gab immer noch die von Frames bestimmten Websites mit strukturierten Hintergründen und Bauarbeitermännchen, die als Animated Gifs den Aufbau anzeigten. Es gab aber auch bereits aufgeräumte, von Weiß dominierte Flächen – die Suchmaschine von Google ab Ende 1997 war ein berühmtes Beispiel dafür. Am Institut für Telematik in Trier wurde 1999 ebenfalls in dieser Richtung experimentiert, etwa im Rahmen des Trierer Symposiums für Elektronisches Publizieren und des Projekts intec. Das Symposium fand vom 25. bis zum 26. März 1999 statt. Die zugehörige Website hatte Oliver Bendel erstellt. Es dominierte Weiß. Die Navigationselemente waren einfach und bunt. Die Überschriften waren grün, wie das Logo des Instituts. Seine Fachführer für die Bibliothek der Universität Konstanz aus dem Jahre 1997 waren noch deutlich von den Anfängen des WWW geprägt gewesen. Ziel von intec war der Aufbau einer fachbezogenen Kompetenz in mittelständischen Bauunternehmen zur effizienten Vorbereitung und Abwicklung von Bauvorhaben durch den Einsatz moderner Informations- und Kommunikationstechnologien. Projektleiter und Webmaster für das Institut war Oliver Bendel. Seine studentische Mitarbeiterin Carmen Leopold schaffte es, der Website ein modernes, leichtes Design zu verleihen, das die Einstiegsseite und alle weiteren Seiten bestimmte. Ein grafisches, hellgraues Element stellte den Zusammenhang zwischen ihnen her. Die einfache Navigation verschob sich, nachdem man die Homepage hinter sich gelassen hatte, nach links, um den Inhalten mehr Raum zu geben. Listen mit den Projektpartnern und den Kontaktadressen waren dort ebenso zu finden wie News. Lediglich die horizontalen Linien erinnerten noch an die Frühzeit des WWW – ansonsten blickte man schon ins neue Jahrtausend.
„Welche Formen von Intelligenzen existieren? Welche Bedeutung haben sie für unser Verständnis von Ökologie und Gesellschaft? Die internationale Gruppenausstellung widmet sich den unterschiedlichen Formen von Intelligenz: der künstlichen, technologischen und der organischen der Flora und Fauna im Zusammenspiel eines Ökosystems.“ (Website Museum für elektronische Künste) Die beteiligten Künstler untersuchen laut Website, was Intelligenz im Zeitalter von künstlicher Intelligenz sein kann und welche anderen Formen nichtmenschlicher Intelligenz relevant für die Gestaltung unserer Zukunft sein könnten. „Sie fragen, wie ein synthetisches Gehirn einer künstlichen Intelligenz operiert oder Organismen aus der Tier- und Pflanzenwelt empfinden und handeln und was wir von diesen Formen anderer Intelligenzen lernen können.“ (Website Museum für elektronische Künste) Mit diesen Worten wirbt das Museum für elektronische Künste für die sehenswerte Ausstellung „Andere Intelligenzen“, die man am 10. August 2025 zum letzten Mal besuchen kann. Die Kuratorinnen sind Sabine Himmelsbach und Marlene Wenger. Im selben Gebäude kann man in der Ela Eatery vegetarische und vegane Speisen genießen.
Some thinkers – including Weber-Guskar (2021) – have introduced the idea of „Emotionalized Artificial Intelligence“, describing AI systems designed to elicit emotions in humans, detect and simulate emotional responses, and form affective ties with their users. That concept opens the door to understanding how people might form romantic or erotic relationships with AI agents and robots. Recent studies show these (probably one-sided) relationships are no longer speculative. In a thorough 2024 paper, Bertoni, Klaes & Pilacinski (2024) review the emerging field of „intimate companion robots“, encouraging more research into the field while exploring possibilities from combatting loneliness to replacing vulnerable sex workers. The radical scope of suggested uses makes it obvious how important ethics of human-robot interaction will become. Research by Ebner & Szczuka (2025) explores the romantic and sexual aspects of chatbot communication, and how romantic fantasies shared with them can elicit feelings of closeness that mimic the effects of human partners. There are dangers to these parallels, however, since undesirable aspects of human-human intimate interaction can be replicated as well. Chu et al. (2025) reveal that conversational AI (e.g., Replika) can evoke emotional synchrony, but also patterns resembling toxic relationships or self harm in vulnerable users. The breadth of these studies shows that emotionalized AI, robots, and other human-oriented machines and programs are already a reality, and romantic and sexual engagement with artificial agents is a pressing issue to debate on within ethics of human-robot interaction (authors: Grzegorz Roguszczak, Phan Thanh Phuong Le, Karahan Senzümrüt, Nesa Baruti Zajmi, and Zuzanna Bakuniak).
Shenzhen-based Maxvision Technology Corp. has acquired the core assets of French robotics pioneer Aldebaran, including its iconic humanoid robots NAO and Pepper. This was reported by The Robot Report in its article „Maxvision buys core robot assets of Aldebaran, including Nao and Pepper“ from July 19, 2025. The move follows Aldebaran’s bankruptcy and receivership earlier this year. The company, founded in 2005, became known for designing approachable humanoid robots for education, healthcare, retail, and research. Maxvision stated that the acquisition will bolster its R&D in emotional interaction and motion control, expand its product portfolio into humanoid robotics, and support global expansion – particularly in Europe and North America. According to The Robot Report, strategic sectors include eldercare, education, border security, and emergency services. To honor Aldebaran’s legacy, Maxvision plans to establish a French subsidiary, retaining local teams and investing in continued innovation, especially in education and healthcare applications.
Fig.: Pepper during a lecture in Ladenburg (Photo: Daimler und Benz Stiftung)
Das Projekt IdiomVoice (2024 bis 2026) widmet sich dem Erhalt und der Förderung des rätoromanischen Idioms Sursilvan, einer bedrohten Sprache, die in der Surselva gesprochen wird. Ziel ist es, ein LLM mittels Finetuning zu optimieren sowie darauf basierende Chatbots zu implementieren, die Rätoromanisch auch im digitalen Alltag nutzbar machen. Ein erster Anwendungsfall ist ein Chatbot für die Pädagogische Hochschule Graubünden und Lia Rumantscha, mit dem einfache Alltagsdialoge auf Sursilvan geführt werden können. Dieser wird öffentlich und kostenfrei zugänglich sein. Das Sprachmodell wird zudem als Open-Access-Ressource veröffentlicht, um weiteren Institutionen und Unternehmen – etwa im Bereich Tourismus, Gemeindeverwaltung oder Bildung – die Integration in eigene Anwendungen zu ermöglichen. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW unterstützt das Projekt mit seiner Expertise aus den Bereichen Maschinenethik und Moral Prompt Engineering. Er bringt zudem seine Erkenntnisse zu pädagogischen Agenten mit ein, also zu einem Thema, zu dem er um die Jahrtausendwende an der Universität St. Gallen promoviert hat. Nicht zuletzt war er 2023 der Initiator des ersten rätoromanischen Chatbots überhaupt, von @llegra für das Idiom Vallader. IdiomVoice leistet einen wichtigen Beitrag zur digitalen Vitalisierung der rätoromanischen Sprache – für die Region wie auch für die rätoromanische Diaspora in der ganzen Schweiz. Weitere Informationen sind über www.fhgr.ch/fh-graubuenden/angewandte-zukunftstechnologien/institut-fuer-multimedia-production-imp/idiomvoice/ verfügbar.
Ein Robotiklabor an der National University of Defence Technology (NUDT) in der zentralchinesischen Provinz Hunan hat eine winzige Drohne für verdeckte Militäroperationen entwickelt. Dies berichteten am 24. Juni 2025 mehrere Medien, etwa The Defense Post. Auf manchen Fotos ähnelt sie einer Mücke, auf anderen einer Fliege. Damit wurde eine Idee umgesetzt, die in der Vergangenheit bereits in der Literatur zu finden war. 2009 erschien der Roman „Verlorene Schwestern“ von Oliver Bendel. Aus dem Klappentext: „Maik, ein 16-jähriger Junge, hat eine Drohne entwickelt, die einer Fliege gleicht und mit deren Hilfe er alles sehen kann, was er sehen will. Sein Plan ist, Prominente und Reiche auszuspionieren und, wenn er das ultimative Bild gefunden hat, zu erpressen. Nur seinem Tagebuch vertraut er sich an, einem digitalen Rekorder. Nancy, die früher als Mundmodell und für die Stasi gearbeitet hat, surft mit ihrer kleinen Maschine auf elektromagnetischen Wellen, bis sie auf Schallwellen trifft. Wie früher belauscht sie andere, aber ohne an verwanzte Räume gebunden zu sein – und nicht, um Böses zu schaffen, sondern um Böses zu verhindern. Maik und Nancy kommen über die ahnungslose Stadt. Sie wissen nichts voneinander, bis die Frau ein merkwürdiges Brummen hört. Fast eine Fliege. Aber eben nur fast.“ Der Roman kann als Teil einer Trilogie angesehen werden – der erste Roman ist „Nachrückende Generationen“ von 2007, der zweite „Künstliche Kreaturen“ von 2008. Wie „la mouche“, wie die Fliege im Roman auch heißt, ist auch die chinesische Drohne ein mächtiger Spion. Ob sie auf eine ehemalige Spionin wie Nancy – auch „la bouche“ genannt – trifft, wird die Zukunft zeigen.
Abb.: So stellt ChatGPT die winzige Drohne dar (Bild: ChatGPT/4o Image)
Robotische Vierbeiner – oft als Roboterhunde bezeichnet – verbreiten sich immer mehr. In der Folge werden sie zunehmend echten Hunden begegnen. Die Frage ist, wie man den Roboter so konzipiert und konstruiert, dass die Tiere nicht überreagieren und weder Robotern noch Tieren oder Umstehenden irgendein Schaden zugefügt wird. Im Rahmen des „Robodog Project“ sollen kleinere Hunde mit dem gehenden, laufenden und springenden Unitree Go2 aus dem privaten Social Robots Lab von Prof. Dr. Oliver Bendel konfrontiert werden. Es ist geplant, kontrollierbare Umgebungen wie Hundetrainingsplätze zu besuchen und Treffen und Gespräche mit Hundebesitzern zu arrangieren. Die Ergebnisse werden zu Vorschlägen für Gestaltung und Steuerung führen. Auch Robot Enhancement kann eine Rolle spielen. So haben Roboterliebhaber mit einem 3D-Drucker karikaturenhafte Köpfe für den Unitree Go2 hergestellt, die ihm ein völlig anderes Aussehen verleihen. Das Projekt – nach dem Kosenamen des robotischen Vierbeiners und der Disneyfigur auch „Bao Meets Pluto“ genannt – startete Ende März 2025 an der Hochschule für Wirtschaft FHNW. Es ist Teil der Forschung von Oliver Bendel auf dem Gebiet der Tier-Maschine-Interaktion.
At the end of April 2025, Prof. Dr. Oliver Bendel was on a hike on the Pfannenstiel with the Cow Whisperer. It is one of three GPTs that were developed in the „Animal Whisperer Project“ by August 2024 on the initiative of the technology philosopher by his student at the time, Nick Zbinden. The other two are the Horse Whisperer and the Dog Whisperer. On his way through the picturesque area near Zurich, Oliver Bendel came across a cow. The Cow Whisperer analyzed and evaluated her body language and came to the conclusion that she was not dangerous and that it was safe to proceed. It also pointed out that other cows were lying relaxed in this way and that this was a sign that the whole herd was relaxed and calm. The entire analysis and evaluation was extensive and included ear position, eye expression, head posture, body posture, tail posture, and surroundings. „The Animal Whisperer Project“ by Oliver Bendel and Nick Zbinden won the Honorable Mention Short Paper Award at the 2024 ACI Conference. The paper can be downloaded from the ACM Library.
Volkswagen ADMT, LLC und Uber Technologies haben eine strategische Partnerschaft bekannt gegeben. Gemeinsam wollen sie in den nächsten zehn Jahren eine Flotte von tausenden vollelektrischen, autonomen Fahrzeugen des Modells ID. Buzz AD – vorgestellt bereits auf der IAA 2021 – in mehreren US-Märkten etablieren. Der kommerzielle Betrieb findet laut Medienmitteilung von MOIA – der auf autonome Mobilitätslösungen spezialisierten Marke des Konzerns – ab 2026 in Los Angeles statt. In der Anfangsphase werden geschulte Sicherheitsfahrer an Bord sein, „um die Technologie weiter zu verbessern und ein Höchstmaß an Sicherheit zu gewährleisten“. „Jeder Schritt erfolgt dabei unter Vorbehalt der jeweils erforderlichen behördlichen Genehmigungen.“ (Medienmitteilung MOIA)
Since 2012, Oliver Bendel has developed 14 concepts and artifacts in the field of animal-computer interaction (ACI) or animal-machine interaction (AMI) together with his students. They can be divided into three categories. The first are animal- and nature-friendly concepts. The second are animal-friendly machines and systems (i.e., forms of moral machines). The third are animal-inspired machines and systems that replace the animals or bring them closer to you. Articles and book chapters have been published on many of the projects. The names of the developers can be found in these. A few prototypes made it into the media, such as LADYBIRD and HAPPY HEDGEHOG. Oliver Bendel repeatedly refers to Clara Mancini, the pioneer in the field of animal-computer interaction. Recently, ethicists such as Peter Singer have also turned their attention to the topic. Current projects include „Robodog“ (in which a robot dog meets real dogs) and „VISUAL“ (which is designed to enable photo safaris for the blind).
Im Wahlmodul „Soziale Roboter“ von Prof. Dr. Oliver Bendel im Frühjahrssemester 2025 haben Annina Waldmeier, Leunora Ristemi, Vivien Aregger, Yoani Wenger und Joël Häfeli einen sozialen Roboter konzipiert. Der BioWing Robot ist ein kleiner, leiser, fliegender Roboter, der sich wie ein Kolibri durch die Natur bewegt, ohne dabei Tiere zu stören. Ausgestattet mit Kameras, Sensoren und künstlicher Intelligenz (KI) erkennt er Tierarten, generiert und dokumentiert Umweltdaten und hilft bei der Früherkennung von Schädlingen. Für Naturschutz, Forschung und Landwirtschaft liefert er wertvolle Echtzeitdaten – und das auf sanfte, nichtinvasive Weise. Dank Sprachsteuerung, lernfähiger KI und tierfreundlichem Design ist er mehr als nur ein Messgerät – er ist ein sozialer Roboter im Dienste der Natur. Damit folgten die Studenten der Wirtschaftsinformatik technischen und ethischen Überlegungen von Oliver Bendel, die er u.a. in seinen Papers „Towards Animal-friendly Machines“ und „Active, and Proactive Systems and Machines for the Protection and Preservation of Animals and Animal Species“ angestellt hat. Zudem werden die Ansätze aus „Annotated Decision Trees for Simple Moral Machines“ und überhaupt aus Beiträgen im Bereich der Animal-Computer Interaction (ACI) und insbesondere zu umwelt- und tierfreundlichen Maschinen seit 2012 einbezogen. Das Team leistete durch das bionische Design und den Fokus auf Schädlingsbekämpfung sowie Erkennung und Bekämpfung von Pilzbefall eine ebenso originelle wie inspirierende Weiterentwicklung.
Am 20. März 2025 fand das Kick-off-Meeting des Projekts VISUAL statt. Initiiert wurde dieses von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- oder Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Rahmen von Inclusive AI – eines Ansatzes und einer Bewegung, zu der auch Apps wie Be My Eyes mit der Funktion Be My AI gehören – soll eine Lösung für sie gefunden werden. Ziel des Projekts ist es, bis August 2025 einen Prototyp zu entwickeln, der es blinden und sehbehinderten Menschen ermöglicht, sich Webcam-Bilder oder -Videos von Wildtieren beschreiben zu lassen. Das System analysiert und evaluiert sie mit Hilfe eines multimodalen LLM. Es präsentiert die Ergebnisse in gesprochener Sprache über eine integrierte Text-to-Speech-Engine. Als Nebenprodukt können Wilderei, Busch- und Waldbrände und andere Ereignisse erkannt werden. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Als Projektmitarbeiterin konnte Doris Jovic gewonnen werden, die ihren Bachelor in Business Information Technology (BIT) macht.
Mercedes-Benz bringt laut Medienmitteilung vom 18. März 2025 mit Apollo „einen der fortschrittlichsten kommerziellen humanoiden Roboter der Welt“ nach Berlin-Marienfelde, das sich 2022 mit dem Mercedes-Benz Digital Factory Campus (MBDFC) als globales Kompetenzzentrum für die Digitalisierung der Produktion etablierte. Der Hersteller Apptronik sitzt in Austrin und wurde 2016 aus dem Human Centered Robotics Lab der University of Texas heraus gegründet. Apollo ist laut Website „the first commercial humanoid robot that was designed for friendly interaction, mass manufacturability, high payloads and safety“ (Website Apptronik). Er ist ca. 172 cm groß und wiegt ca. 72 kg. Anders als vergleichbare robotische Zweibeiner hat er kein Display im Gesichtsbereich, sondern lediglich zwei Augen. Der Kopf wirkt eher wie der von sozialen Robotern wie ARI oder P-Care. Apollo ist ein modulares System und kann stationär oder mobil betrieben werden. Mercedes-Benz schreibt in der Medienmitteilung zum Vorgehen: „Die Apollo-Roboter haben in einer Produktionsumgebung Daten gesammelt, um für spezifische Anwendungsfälle … zu trainieren.“ Mitarbeiter von Mercedes-Benz „mit Praxiserfahrung in der Produktion haben ihr Wissen mithilfe von Teleoperations-Prozessen und Augmented Reality auf Apollo übertragen“. „Nun vollzieht Mercedes-Benz im MBDFC in Berlin den nächsten entscheidenden Entwicklungsschritt: Die Apollo-Roboter lernen hier, autonom zu agieren – ein technologischer Meilenstein auf dem Weg zu einem flexiblen, intelligenten Assistenzsystem für die Produktion.“ (Medienmitteilung Mercedes-Benz)
Abb.: Apollo im Einsatz (Foto: Mercedes-Benz Group)