From Gatebox to Project AVA

The idea of a desk companion with a pseudo-holographic character is not entirely new. Japan’s Gatebox has offered such a system since 2018, featuring virtual characters like Hatsune Miku displayed as a projected assistant designed for everyday interaction. Project AVA is Razer’s take on this concept, pushing it further as a fully integrated AI desk companion for life, work, and play. The cylindrical device combines microphones, a camera, RGB lighting, and a speaker with a 5.5-inch holographic display that renders animated 3D avatars with expressive, real-time motion. Connected via USB-C to a Windows PC, AVA can assist with daily organization, wellness routines, professional tasks, and gaming coaching, while remaining compliant with competitive gaming rules by acting strictly as a coach. Powered in its current form by xAI’s Grok engine and built on an open architecture, Project AVA is positioned as a future-ready AI companion, with availability planned for the second half of 2026. A final pop culture note: the name AVA inevitably recalls Ava, the AI character from „Ex Machina“, a film that has become a defining reference point for artificial intelligence embodied in human form. More details can be found at www.razer.com/concepts/project-ava.

Fig.: The original Gatebox (Photo: Katharina Kühne)

The Pocket Companion Called Poketomo

Poketomo is a pocket-sized AI robot designed as a personal, always-available companion. It can be understood as a wearable social robot, intended to accompany users throughout the day and provide lightweight interaction rather than full task automation. Poketomo engages in conversations, remembers user preferences over time, and responds to emotional cues in a calm and friendly manner. Interaction is primarily conversational: users can talk to Poketomo about everyday topics, personal interests, or their current mood. As usage continues, the device adapts its responses based on prior interactions, creating a sense of continuity and personalization. In addition to conversational features, Poketomo offers basic daily support functions such as weather updates, news notifications, and alarms.From a technical perspective, Poketomo combines compact hardware with AI-driven software. Despite its small form factor, it includes sensors, voice and facial recognition, a camera, and small motors that enable simple physical movements of the head and arms. Connectivity options such as Wi-Fi, Bluetooth, and GPS allow it to integrate into everyday routines. Developed by Sharp, Poketomo represents an example of a wearable social robot that blends emotional interaction with limited practical assistance, focusing on companionship rather than productivity. Further information is available at poketomo.com/en/.

Fig.: Poketomo (Photo: Screenshot from the video)

Inclusive AI and Inclusive Robotics at CES 2026

At CES 2026, some of the most compelling examples of Inclusive AI and Inclusive Robotics came not from consumer gadgets, but from European assistive technologies designed to expand human autonomy. This was reported by FAZ and other media outlets in January 2026. These innovations show how AI-driven perception and robotics can be centered on accessibility – and still scale beyond niche use cases. Romanian startup Dotlumen exemplifies Inclusive AI through its “.lumen Glasses for the Blind,” a wearable system that replaces a guide dog with real-time, on-device intelligence. Using multiple cameras, sensors, and GPU-based computer vision, the glasses interpret sidewalks, obstacles, and spatial structures and translate them into intuitive haptic signals. The company calls this approach “Pedestrian Autonomous Driving” – a concept that directly bridges human navigation and mobile robotics. Notably, the same algorithms are now being adapted for autonomous delivery robots, underscoring the overlap between assistive AI and broader robotic autonomy. A complementary approach comes from France-based Artha (Seehaptic), whose haptic belt uses AI-powered scene understanding to convert visual space into tactile feedback. By shifting navigation cues from sound to touch, the system reduces cognitive load and leverages sensory substitution – an inclusive design principle with implications for human-machine interfaces in robotics. Together, these technologies illustrate a European model of Inclusive AI: privacy-preserving, embodied, and focused on real-world autonomy. What begins as assistive tech increasingly becomes a foundation for the next generation of intelligent, human-centered robotics.

Fig.: A scene from the Cybathlon (Photo: ETH Zürich, CYBATHLON/Alessandro della Bella)

Avatare fürs Handy: Eine Vision von 2004

„Zur Zeit bereitet man die Avatare auf eine neue Umgebung vor. Sie sollen nicht nur in PCs und Notebooks agieren, sondern auch in Handys. Man bekommt sie mitgeliefert bzw. lädt sie herunter oder erstellt sie selbst und verschickt sie von Gerät zu Gerät. Damit ergeben sich interessante Implikationen. Zum einen ist eine massenhafte Herstellung wahrscheinlich, sowohl als ‚Konfektionsware‘ (Avatare für die Massen) als auch in individueller Form (Massen machen Avatare). Zum anderen werden die Avatare mobil und so zu Begleitern in allen möglichen Situationen.“ Dies schrieben 2004 Dr. Oliver Bendel und Dr. Michael Gerhard – damals Fraunhofer ISST in Dortmund – in ihrem Artikel „Handy-Avatare – neue Möglichkeiten der Informationsversorgung und Kommunikationsunterstützung“, veröffentlicht in der damaligen Zeitschrift Infoweek, dem Vorgänger des Swiss IT Magazine. Die Idee, aus einem Porträtfoto einen 3D-Avatar zu erstellen, der mit einer Nachricht mitgeliefert wird und sie vorliest, mitsamt einem Zwinkern oder Lachen bei entsprechenden Smileys, gefiel Siemens gut. So gut, dass Klaus Kleinfeld, der kurz darauf Vorstandsvorsitzender der Siemens AG wurde, einen Mitarbeiter einfliegen ließ. Alle hatten schon Dollarzeichen in den Augen, als der Konzern seine Handysparte verkaufte. Die beiden Wissenschaftler wandten sich anderen Themen zu. Oliver Bendel ging über Umwege wieder in die Schweiz. Ab 2017 griffen Unternehmen wie Synthesia und Apple die Idee auf. Es folgten Samsung, Meta, Microsoft und Google. Der Artikel kann hier heruntergeladen werden.

Abb.: Avatare fürs Handy (Bild: ChatGPT nach der Vorlage im Artikel)

ACI 2026 Website Now Live

Prof. Dr. Oliver Bendel will host the next ACI Conference, bringing the event to continental Europe for the first time as it convenes on the FHNW campus in Brugg-Windisch, Switzerland, from December 2–5, 2026. The conference website is already online, and the most important information is available at www.aciconf.org; individual deadlines may still change. Building on a tradition that has taken the community from Glasgow to North Carolina, Newcastle, Bloomington, Milton Keynes, Haifa, and Atlanta, this edition continues the conference’s role as a leading venue for advancing Animal-Computer Interaction. As the field grows, researchers and practitioners explore how technology shapes animals’ lives, welfare, cognition, and social dynamics while developing animal-centered systems and methods that embrace multispecies perspectives. The conference maintains its commitment to interdisciplinary collaboration across biology, technology, and cultural studies, supporting work that seeks to design ethically grounded, welfare-enhancing, and inclusive technological futures for all animals, humans included. ACI 2026 will also feature a Special Issue on Animal-Machine Interaction, a research field shaped in important ways by Oliver Bendel. The proceedings will be published in a volume of a renowned organization.

Fig.: The ACI website

Historic Spaceflight Delayed: First Astronaut With Paraplegia Awaits Launch

According to Golem, Blue Origin’s New Shepard mission NS-37 was set to become a small but meaningful milestone for human spaceflight: ESA engineer Michaela Benthaus was expected to be the first person with paraplegia to complete a suborbital flight and cross the Kármán line. The flight was scheduled for December 18, 2025, from Blue Origin’s launch site in Texas, following the familiar New Shepard profile: a brief climb above 100 kilometers, a few minutes of weightlessness, and a parachute landing after roughly ten to twelve minutes. Benthaus, who has used a wheelchair since a 2018 mountain biking accident, had already experienced microgravity during a parabolic flight through the Astroaccess program, and she has also worked on practical considerations for accessibility in weightlessness. However, the launch did not go forward as planned. Blue Origin stood down from the NS-37 attempt after an issue was detected during pre-flight checks, and the company said it is evaluating the next launch opportunity. For now, the team hopes the crew can make the trip soon, even if the historic moment has to wait a little longer.

Fig.: Blue Origin building (Photo: N2e, CC BY-SA 4.0)

Serviceroboter am Flughafen Zürich

Am Flughafen Zürich werden immer wieder Serviceroboter ausprobiert und eingeführt. Laut einer Meldung vom 14. Dezember 2023 wurde das rund 300-köpfige Gebäudereinigungsteam um zwei Serviceroboter namens Zulu und Charlie ergänzt. Diese stammen von der Firma LionsBot aus Singapur (www.lionsbot.com) und gehören zu den LEOBOTS. Im Herbst 2025 sieht man viele Reinigungsroboter von TASKI (Ecobot 50 und 6 vom Typ Phantas) ihre Runden drehen. Sie sind oft in erstaunlicher Geschwindigkeit bei den Check-in-Bereichen, Terminals und Aufenthaltszonen unterwegs. Der Flughafen Zürich erläutert: „Die Geräte navigieren bis zu 24 Stunden selbstständig durch den laufenden Betrieb, erkennen Hindernisse, entleeren Schmutzwasser und laden sich eigenständig wieder auf.“ (Website Flughafen Zürich) Inzwischen taucht auch BellaBot auf, den Zürcher bereits von Hiltl Sihlpost kennen. Der Transportroboter wurde zum Abfallsammelroboter umfunktioniert. Er rollt direkt zu den Besuchern und Passagieren, die etwas für ihn haben könnten, etwa eine Plastikflasche oder Restmüll. Das Angebot wird nicht nur rege angenommen – viele sind auch begeistert von dem freundlichen Katzengesicht und den Plastikohren und berühren BellaBot oder machen Selfies.

Abb.: Stefanie Hauske mit BellaBot

Ein Allzweckroboter als Wohnaccessoire

Im Wahlmodul „Soziale Roboter“ im HS 2026 wurde mehrfach über den robotischen Zweibeiner NEO diskutiert. Prof. Dr. Oliver Bendel stellte fest, dass dieser wie ein Wohnaccessoire aussehe und sich nahtlos in die gezeigten Umgebungen einfüge, die nach Schöner Wohnen und IKEA aussehen. Das schwedische Unternehmen könnte ihn in seit Sortiment aufnehmen, als NYRÅBOT oder ROBÖT. Beanstandet wurde in der Gruppe, dass der künstliche Haushaltsgehilfe im Moment nur wenige Funktionen autonom ausführen kann. Zwar gehört dies zum Konzept, und 1X aus Palo Alto will nach und nach weitere Updates zur Verfügung stellen, aber ob man damit zum Ziel eines Allzweckroboters kommt, der seinen Namen verdient, ist noch ungewiss. Dabei muss NEO lediglich im Haushalt bestehen – wo aber zahlreiche komplexe Aufgaben auf ihn warten. Dennoch ist Oliver Bendel optimistisch, dass in fünf bis zehn Jahren mehrere Modelle zur Verfügung stehen, die Pflegebedürftigen, aber auch Einzelstehenden, Paaren oder Familien mit Zeitdruck von Nutzen sein können. In seinem Paper „The Universal Robot of the 21st Century“ – vorgestellt auf der Robophilosophy 2024 – hat er bereits die nächste Stufe skizziert, den universellen Roboter. Er hat zugleich darauf hingewiesen, dass dieser zahlreiche Herausforderungen mit sich bringt. Wir brauchen langweilige Tätigkeiten, wir brauchen sich wiederholende Tätigkeiten, um ruhig und erfinderisch zu werden. Eine Möglichkeit bestehe darin, so der Technikphilosoph im Unterricht, dass der Roboter mit dem Menschen im Tandem bzw. Team arbeite. Man bügelt drei Hemden und übergibt dann an NEO, man setzt die ersten Blumenzwiebeln und lässt ihn den Rest erledigen. Und abends lässt man ihn auf dem Sofa ausruhen, wo er zwischen den Kissen und Decken kaum auffällt.

Abb.: NEO im Einsatz (Foto: 1X/Courtesy of 1X)

Autonome Shuttles für die Hauptstadt

„Im Berliner Nordwesten beginnt die autonome Revolution.“ Dies meldete BVG in einer Medienmitteilung mit dem Titel „Jetzt geht’s los! Autonome Shuttles für die Hauptstadt“ vom 17. Oktober 2025. Die ersten Fahrzeuge des Typs VW ID. Buzz AD seien im öffentlichen Straßenverkehr unterwegs, ausgestattet mit Level-4-Technologie inklusive Softwaresystem und Services der Volkswagen-Tochter MOIA. „Ziel des Projekts ist es, den klassischen Nahverkehr mit flexiblen, autonomen Angeboten zu verknüpfen …“ (Medienmitteilung BVG) Die Projektpartner haben laut Medienmitteilung „im Beisein von Bundesverkehrsminister Patrick Schnieder den offiziellen Startschuss für das Projekt gegeben“. „Was jetzt als Pilotvorhaben beginnt, bereitet den späteren Hochlauf der deutschlandweit größten Flotte autonomer Fahrzeuge als Teil des ÖPNV-Systems unmittelbar vor. Die Ergebnisse des Piloten sind skalierbar auf größere Fahrzeugzahlen bis in den fünfstelligen Bereich sowie auf ein erweitertes Einsatzgebiet.“ (Medienmitteilung BVG) Ein ähnliches Projekt wurde 2016 in Sion im Wallis begonnen. Das SmartShuttle war fünf Jahre lang erfolgreich unterwegs, mit geringer Geschwindigkeit und auf virtuellen Gleisen. Es hat sich in dieser Zeit kein einziger Personenunfall ereignet. Danach wurden mehrere vergleichbare Projekte in der Schweiz lanciert. In Deutschland ist man spät dran, aber man ist dran. Laut der Medienmitteilung ist das Vorhaben für Berlin ein wichtiger Schritt in die digitale Zukunft, mit einer „Symbolwirkung über die Hauptstadt hinaus“.

Abb.: Die BVG ist in Berlin überall präsent

Figure 03 soll im Haushalt helfen

Am 9. Oktober 2025 stellte Figure seinen neuesten Allzweckroboter namens Figure 03 vor. Mithilfe der KI-Plattform Helix kann er Sprache verstehen, seine Umgebung analysieren und interpretieren und geeignete Maßnahmen ergreifen. Figure 03 ist für den Haushalt gedacht, wo er Wäsche waschen oder die Spülmaschine ein- und ausräumen soll. Er ist mit weichen Textilien statt mit harten, maschinell bearbeiteten Teilen verkleidet. Das Gesicht ist wie bei früheren Modellen maskenhaft und unnahbar. Er hat integrierte Handflächenkameras und Finger mit taktilen Sensoren. Das Unternehmen schreibt dazu: „Each fingertip sensor can detect forces as small as three grams of pressure – sensitive enough to register the weight of a paperclip resting on your finger. This precision enables Helix to distinguish between a secure grip and an impending slip before it occurs, allowing fine-grained, dexterous control over fragile, irregular, or moving objects.“ (Website Figure) In den nächsten Jahren sollen hunderttausende Modelle produziert werden. Weitere Informationen sind über www.figure.ai/figure verfügbar.

Abb.: Figure 03 soll im Haushalt helfen (Bild: ChatGPT/4o Image)

Kick-off-Meeting des Projekts DEEP VOICE

Das Projekt DEEP VOICE startete am 3. September 2025. Es wurde von Prof. Dr. Oliver Bendel initiiert. Als Projektmitarbeiter konnte der Machine-Learning-Experte Florian Karrer gewonnen werden. Er wird in diesem Zusammenhang seine Abschlussarbeit an der Hochschule für Wirtschaft FHNW schreiben. „DEEP VOICE“ steht für „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. Das Projekt zielt darauf ab, die symbolische Sprache von Walen zu entschlüsseln. Dafür soll radikal die Perspektive des Tiers eingenommen werden. Es soll ein Modell von ihm, seinem Verhalten und seiner Umwelt entstehen, das dann als Grundlage für die Sprachverarbeitungskomponente dient. Das Projekt verbindet biologische und ethologische Grundlagen mit Ansätzen des Machine Learning und will so zu einem besseren Verständnis der nichtmenschlichen Intelligenz und Kommunikation sowie – über die Tier-Computer-Interaktion (Animal-Computer Interaction, ACI) – zur Mensch-Tier-Interaktion beitragen. Oliver Bendel und seine Studenten haben sich bisher vor allem auf die Körpersprache von Haus- und Nutztieren (The Animal Whisperer Project) sowie das Verhalten von Haustieren (The Robodog Project) und Wildtieren (VISUAL) konzentriert. Zudem wurde ein Konzept für die Gesichtserkennung bei Bären erstellt, mit dem Ziel, invasives Tracking zu vermeiden.

Abb.: Zwei Wale im Meer

Das neue LLM verwendet Standardsprache

Erste Tests mit Apertus haben ergeben, dass die Voreinstellung die Nutzung der Standardsprache bedeutet. Dies ist erfreulich – und aus mehreren Gründen nicht selbstverständlich. Zunächst einmal ist die ETH Zürich dafür bekannt, in Medienmitteilungen, auf ihrer Website und in Dokumenten von der Standardsprache abzuweichen und eine Sondersprache (die Gendersprache) anzuwenden. Die Forscher, die an Apertus mitgewirkt haben, sind offensichtlich nicht diesem Weg gefolgt. Zudem geht bei dominanten Chatbots wie ChatGPT das Default mit der Anwendung der Sondersprache einher. Selbst wenn man Standardsprache verlangt, wird dies immer wieder ignoriert. Wie Claude sieht auch Apertus nach ersten Erkenntnissen von solchen Arten der Beeinflussung ab. Dies ist ein wichtiger Schritt, um eine befriedigende Nutzung für alle zu ermöglichen und eine weitergehende Spaltung zu verhindern. Wer dennoch eine andere Sprache ausgegeben haben will, wird daran nicht gehindert – das LLM passt sich an die Wünsche und Bedürfnisse der Benutzer an. Wer Apertus ausprobieren will, kann dies über Public AI tun. Man muss sich lediglich registrieren und kann dann sofort loslegen. Mit einem sprachlich neutralen LLM. Aus der angeblich neutralen Schweiz.

Abb.: Mit Apertus im Gespräch

Zur Veröffentlichung von Apertus

„Die EPFL, die ETH Zürich und das Schweizerische Supercomputing-Zentrum CSCS haben heute Apertus veröffentlicht: Das erste umfangreiche, offene und mehrsprachige Sprachmodell aus der Schweiz. Damit setzen sie einen Meilenstein für eine transparente und vielfältige generative KI.“ Dies ist einer Medienmitteilung der ETHZ vom 2. September 2025 zu entnehmen. Apertus steht in zwei Versionen mit 8 und 70 Milliarden Parametern zur Verfügung und eignet sich für vielfältige Anwendungen, von Forschung über Bildung bis zur Industrie. Trainiert wurde das Modell auf 15 Billionen Tokens in über 1000 Sprachen, darunter Schweizerdeutsch und Rätoromanisch. Damit eignet es sich vermutlich auch dafür, bereits eingestellte Chatbots wie @llegra (für Vallader) von Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Dalil Jabou in einer neuen Version aufleben zu lassen und bereits in Entwicklung begriffene Chatbots wie IdiomVoice (für Sursilvan, ein Projekt der FH Graubünden unter Beteiligung der Hochschule für Wirtschaft FHNW, wieder in Person von Oliver Bendel, und der OST – Ostschweizer Fachhochschule) zu unterstützen. Zugänglich ist das neue Modell über Swisscom sowie weltweit über Hugging Face und die Public AI Inference Utility. Erste praktische Tests und Feedbackrunden erfolgen im Rahmen der Swiss {ai} Weeks.

Abb.: Eine Parkbank in der Surselva

Ein Avatar als Superheldin

„Der bekannteste Autor von Handyromanen im deutschsprachigen Bereich ist der promovierte Wirtschaftsinformatiker Oliver Bendel aus Zürich.“ Dies schrieb die ZEIT am 13. März 2009. Bereits 2007 hatte er den Trend aus Japan nach Europa geholt. Es entstand eine Serie um die Privatdetektivin Lucy Luder und eine um die Superheldin Handygirl, einen Avatar auf dem Handy, der sich bei Gefahr für seine Besitzerin materialisiert und ihr aus der Patsche hilft. Die Handyromane waren Java-Umsetzungen, die über Premium-SMS-Server vertrieben wurden. Das Ende kam mit dem Erfolg des iPhone, das Java verschmähte. Der letzte Teil mit der kleinen Superheldin erschien 2010. Avatare waren bereits um die Jahrtausendwende bekannt und beliebt, als Repräsentanten von Benutzern in Computerspielen und als Visualisierungen von Chatbots. Auch die ersten Nachrichtensprecher waren zu sehen. Handygirl lebte noch für einige Zeit in Handyhaikus weiter, die 2010 in Form von QR-Codes veröffentlicht worden waren. Heute sind Avatare wieder ein Hype. Sie sprechen wieder News vor und vertreten Benutzer bei Meetings. Zuletzt hat Ani für Furore gesorgt, eine Visualisierung von Grok.

Abb.: Eine Handyromanleserin im Jahre 2010

AI for Non-Human Animal Communication

Recent advancements in artificial intelligence (AI) and bioacoustics have opened a unique opportunity to explore and decode animal communication. With the growing availability of bioacoustic data and sophisticated machine learning models, researchers are now in a position to make significant strides in understanding non-human animal languages. However, realizing this potential requires a deliberate integration of AI and ethology. The AI for Non-Human Animal Communication workshop at NeurIPS 2025 will focus on the challenges of processing complex bioacoustic data and interpreting animal signals. The workshop will feature keynote talks, a poster session, and a panel discussion, all aimed at advancing the use of AI to uncover the mysteries of animal communication and its implications for biodiversity and ecological conservation. The workshop is inviting submissions for short papers and proposals related to the use of AI in animal communication. Topics of interest include bioacoustics, multimodal learning, ecological monitoring, species-specific studies, and the ethical considerations of applying AI in animal research. Papers should present novel research, methodologies, or technologies in these areas, and will undergo a double-blind review process. The paper submission deadline is September 5, 2025, with notifications of acceptance by September 22, 2025. More information is available at aiforanimalcomms.org.

Fig.: Nonhuman primates in conversation

Video zum VISUAL-Projekt

Zum Projekt VISUAL liegt seit 29. August 2025 ein Video vor, das das System im Betrieb zeigt. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem MLLM, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Das Video kann über www.informationsethik.net/videos/ abgerufen werden.

Abb.: Das VISUAL-System

Launch of the DEEP VOICE Project

The DEEP VOICE project will be launched at the FHNW School of Business in early September 2025. It was initiated by Prof. Dr. Oliver Bendel. „DEEP VOICE“ stands for „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. The project aims to decode symbolic forms of communication in animals, especially whales. It is based on the conviction that animal communication should not be interpreted from a human perspective, but understood in the context of the species-specific environment. The focus is therefore on developing an AI model that is trained on the basis of a comprehensive environmental and behavioral model of the respective animal. By integrating bioacoustic data, ecological parameters, and social dynamics, the aim is to create an animal-centered translation approach that allows the identification of meaning carriers in animal vocalizations without distorting them anthropocentrically. The project combines modern AI methods with ethological and ecological foundations and thus aims to contribute to a better understanding of non-human intelligence and communication culture and to animal-computer interaction. Oliver Bendel and his students have so far focused primarily on the body language of domestic and farm animals (The Animal Whisperer Project) and the behavior of domestic (The Robodog Project) and wild animals (VISUAL).

Fig.: A whale in the ocean

Robotertaxis in der Schweiz

Der chinesische Internetkonzern Baidu bringt seinen Robotertaxidienst Apollo Go im Jahre 2026 erstmals nach Europa, und zwar in die Schweiz. Dies meldeten am 25. August 2025 mehrere Medien, u.a. die NZZ und der Tages-Anzeiger. Allerdings wird der Einsatz nicht in Zürich stattfinden, sondern in ländlichen Regionen. Dies ist nur auf den ersten Blick überraschend. Während Zürich als international bedeutender Standort für Forschung und Entwicklung sowie Anwendung gilt und Wohnsitz und Arbeitsort für geeignete Fachkräfte ist, eignet sich das Umland besser für Pilotprojekte, da dort weniger Konkurrenz durch bestehende Fahrdienste besteht und die Bedingungen überschaubarer sind. Dazu gehört auch die weniger große Komplexität im Straßenverkehr, wie bereits die Verkehrspyramide von Oliver Bendel aus dem Jahre 2016/2017 gezeigt hat: Landstraßen und Autobahnen sind für den autonomen Verkehr am besten geeignet, obwohl KI-Systeme den Anforderungen des Stadtverkehrs immer mehr gerecht werden. Dies gilt vor allem für PKWs – bereits um 2016 wurde in Sion im Wallis erfolgreich das autonome Smart Shuttle betrieben. Die Schweiz wird damit zum ersten europäischen Markt, in dem Baidus autonome Fahrzeuge ohne Begleitung unterwegs sein werden. Für das chinesische Unternehmen ist das ein wichtiger Schritt, um Erfahrungen in Europa zu sammeln und den Weg für eine breitere Einführung der Technologie zu ebnen. Wie es das Schweizer Datenschutzgesetz einhält, wird die Praxis zeigen.

Abb.: Apollo von Baidu

Die Entwicklung der Informationsethik

Joseph Weizenbaum hatte in den 1970er-Jahren den Grundstein für die Informationsethik gelegt, vor allem mit seinem Buch „Die Macht der Computer und die Ohnmacht der Vernunft“ (1977). Bis dahin waren informationsethische (auch KI-ethische), roboterethische und maschinenethische Überlegungen im Kontext der Informatik und der Technikethik bzw. Technikphilosophie angestellt worden – oder in der Science-Fiction. In den 1980er- und 1990er-Jahren prägten Rafael Capurro und Rainer Kuhlen die Szene. Ersterer sprach später auch von Digitaler Ethik, wie Luciano Floridi, ein bekannter Forscher in diesem Bereich. Rainer Kuhlen schrieb unter Mitarbeit von Oliver Bendel das Buch „Die Mondlandung des Internet“ – dieses beschrieb das Engagement der Politik im WWW, genauer gesagt die Bereitstellung von Informationen, Diskussionsforen, Chatrooms und Onlineabstimmungen im Rahmen der Bundestagswahl 1998. Oliver Bendel, studierter Philosoph, verfasste im Rahmen seines zweiten Studiums der Informationswissenschaft ein Jahr zuvor die Arbeit „Ethik und Einsatz von Informationstechnik: Probleme der Computerethik und ethischer Kodizes“. Darin ging er u.a. der Frage nach, ob Computersysteme Verantwortung tragen können, aufbauend auf Diskussionen der 1970er- und 1980er-Jahre. Zudem analysierte er die schon damals fragwürdigen ethischen Leitlinien der Gesellschaft für Informatik (GI). 1998 gründete Rainer Kuhlen NETHICS. Auf der Willkommensseite hieß es: „NETHICS e.V. … nimmt den Auftrag wahr, die UNESCO, in Deutschland die Deutsche UNESCO-Kommission (DUK), bei der Behandlung informationsethischer Fragestellungen zu unterstützen.“ Die Website kam hell und aufgeräumt daher, wie es Google kurz zuvor vorgemacht hatte. Der Verein brauchte zur Gründung sieben Personen – unter ihnen war Oliver Bendel. Er ging Ende 1998 weg von Konstanz, zunächst an das Institut für Telematik in Trier. Ab Ende 1999 widmete er sich an der Universität St. Gallen zuerst Lern- und Wissensportalen und dann pädagogischen Agenten. Die meist anthropomorph umgesetzten Chatbots und Sprachassistenten bzw. mit Kameras ergänzten KI-Systeme warfen schon damals interessante ethische Fragen auf. Sein Interesse galt aber zunächst vor allem ihrer technischen und prozessualen Umsetzung.

Abb.: Die Website von NETHICS im Jahre 1999

Das Webdesign in den 1990er-Jahren

Die späten 1990er-Jahre waren ein Labor für Webdesign. Es gab immer noch die von Frames bestimmten Websites mit strukturierten Hintergründen und Bauarbeitermännchen, die als Animated Gifs den Aufbau anzeigten. Es gab aber auch bereits aufgeräumte, von Weiß dominierte Flächen – die Suchmaschine von Google ab Ende 1997 war ein berühmtes Beispiel dafür. Am Institut für Telematik in Trier wurde 1999 ebenfalls in dieser Richtung experimentiert, etwa im Rahmen des Trierer Symposiums für Elektronisches Publizieren und des Projekts intec. Das Symposium fand vom 25. bis zum 26. März 1999 statt. Die zugehörige Website hatte Oliver Bendel erstellt. Es dominierte Weiß. Die Navigationselemente waren einfach und bunt. Die Überschriften waren grün, wie das Logo des Instituts. Seine Fachführer für die Bibliothek der Universität Konstanz aus dem Jahre 1997 waren noch deutlich von den Anfängen des WWW geprägt gewesen. Ziel von intec war der Aufbau einer fachbezogenen Kompetenz in mittelständischen Bauunternehmen zur effizienten Vorbereitung und Abwicklung von Bauvorhaben durch den Einsatz moderner Informations- und Kommunikationstechnologien. Projektleiter und Webmaster für das Institut war Oliver Bendel. Seine studentische Mitarbeiterin Carmen Leopold schaffte es, der Website ein modernes, leichtes Design zu verleihen, das die Einstiegsseite und alle weiteren Seiten bestimmte. Ein grafisches, hellgraues Element stellte den Zusammenhang zwischen ihnen her. Die einfache Navigation verschob sich, nachdem man die Homepage hinter sich gelassen hatte, nach links, um den Inhalten mehr Raum zu geben. Listen mit den Projektpartnern und den Kontaktadressen waren dort ebenso zu finden wie News. Lediglich die horizontalen Linien erinnerten noch an die Frühzeit des WWW – ansonsten blickte man schon ins neue Jahrtausend.

Abb.: Die intec-Einstiegsseite von 1999

Andere Intelligenzen

„Welche Formen von Intelligenzen existieren? Welche Bedeutung haben sie für unser Verständnis von Ökologie und Gesellschaft? Die internationale Gruppenausstellung widmet sich den unterschiedlichen Formen von Intelligenz: der künstlichen, technologischen und der organischen der Flora und Fauna im Zusammenspiel eines Ökosystems.“ (Website Museum für elektronische Künste) Die beteiligten Künstler untersuchen laut Website, was Intelligenz im Zeitalter von künstlicher Intelligenz sein kann und welche anderen Formen nichtmenschlicher Intelligenz relevant für die Gestaltung unserer Zukunft sein könnten. „Sie fragen, wie ein synthetisches Gehirn einer künstlichen Intelligenz operiert oder Organismen aus der Tier- und Pflanzenwelt empfinden und handeln und was wir von diesen Formen anderer Intelligenzen lernen können.“ (Website Museum für elektronische Künste) Mit diesen Worten wirbt das Museum für elektronische Künste für die sehenswerte Ausstellung „Andere Intelligenzen“, die man am 10. August 2025 zum letzten Mal besuchen kann. Die Kuratorinnen sind Sabine Himmelsbach und Marlene Wenger. Im selben Gebäude kann man in der Ela Eatery vegetarische und vegane Speisen genießen.

Abb.: Im Haus der elektronischen Künste

Romance With a Robot – Fantasy or Reality?

Some thinkers – including Weber-Guskar (2021) – have introduced the idea of „Emotionalized Artificial Intelligence“, describing AI systems designed to elicit emotions in humans, detect and simulate emotional responses, and form affective ties with their users. That concept opens the door to understanding how people might form romantic or erotic relationships with AI agents and robots. Recent studies show these (probably one-sided) relationships are no longer speculative. In a thorough 2024 paper, Bertoni, Klaes & Pilacinski (2024) review the emerging field of „intimate companion robots“, encouraging more research into the field while exploring possibilities from combatting loneliness to replacing vulnerable sex workers. The radical scope of suggested uses makes it obvious how important ethics of human-robot interaction will become. Research by Ebner & Szczuka (2025) explores the romantic and sexual aspects of chatbot communication, and how romantic fantasies shared with them can elicit feelings of closeness that mimic the effects of human partners. There are dangers to these parallels, however, since undesirable aspects of human-human intimate interaction can be replicated as well. Chu et al. (2025) reveal that conversational AI (e.g., Replika) can evoke emotional synchrony, but also patterns resembling toxic relationships or self harm in vulnerable users. The breadth of these studies shows that emotionalized AI, robots, and other human-oriented machines and programs are already a reality, and romantic and sexual engagement with artificial agents is a pressing issue to debate on within ethics of human-robot interaction (authors: Grzegorz Roguszczak, Phan Thanh Phuong Le, Karahan Senzümrüt, Nesa Baruti Zajmi, and Zuzanna Bakuniak).

Fig.: Romance with a robot?