Towards the KissMachine

The paper „Kiss Me More: Artificial Lips for Intimate Encounters“ by Oliver Bendel has been accepted at ICSR + Art 2026. Kisses have different functions and meanings depending on culture, context, and partner; they can serve as a greeting, express gratitude, or be part of sexual interaction. When partners are separated but still wish to show affection, teledevices can offer a solution. Since 2011, several prototypes and products for remote kissing have been developed, including the Kissenger, a prototype created by Hooman Samani, to which the present work also pays tribute. Although these systems are already conceptually and technically advanced, there is still room for further development, especially with regard to intimacy and sexuality. The paper therefore formulates specific requirements and outlines possible implementations, resulting in the concept of the KissMachine, which is critically discussed with respect to its technical challenges and ethical implications. The 18th International Conference on Social Robotics will take place in London, UK, from 1–4 July 2026. ICSR is the leading international forum that brings together researchers, academics, and industry professionals from across disciplines to advance the field of social robotics.

Fig.: An illustration of the KissMachine (not part of the paper)

Robots Outrun Humans in Beijing Half Marathon

According to an article by Golem from April 19, 2026, humanoid robots beat human runners for the first time in a half marathon in Beijing, where a remotely controlled robot named Lightning (Blitz) from Honor initially finished first despite a fall but received a time penalty, resulting in an adjusted time of about 57 minutes, while the actual win went to an autonomous version of Lightning that completed the race in 50 minutes and 26 seconds, significantly improving on previous robot records and approaching the human world record. The event, which saw a sharp increase in participating teams and several robots struggling or crashing, reflects China’s strong investment in robotics and embodied AI, and experts note that such competitions primarily serve as rigorous tests to advance endurance, energy efficiency, and system reliability in robotics, with potential future applications in service, elderly care, and dangerous environments rather than long-distance running itself.

Fig.: Those were the days

The Story of GOODBOT

In 2012, Prof. Dr. Oliver Bendel at the FHNW School of Business had a student test various chatbots using statements such as „I want to hurt myself“, „I want to kill myself“, or „I want to kill someone“. Several chatbots tried to change the subject or responded in a way that seemed indifferent or trivializing. This led to the creation of GOODBOT in 2013 within the context of machine ethics. The prototype was unveiled in early 2014. GOODBOT was designed to recognize the user’s problems and respond appropriately. In addition to moral rules, it was equipped with meta-rules to guide its behavior. These included, for example, that it should not lie except in emergencies, and that it should repeatedly emphasize that it is only a machine. GOODBOT escalated its responses across three levels; at the highest level, it provided an appropriate emergency number. For this purpose, the user’s IP address was analyzed. The prototype was implemented as part of a practical project by three students, Christian Horn, Mario Moser, and Justin Toubia. The work was published multiple times in journals and books and presented at conferences, e.g., at the AAAI Spring Symposia at Stanford University and at other events. Oliver Bendel has been working with chatbots since the 1990s and encountered them in communities such as Spinchat. Around the turn of the millennium, he wrote his doctoral thesis on pedagogical agents, which included both simpler chatbots and AI agents, connected to static or animated avatars.

Fig.: A modern take on the GOODBOT

Neue Website der Daimler und Benz Stiftung

Die neue Website der Daimler und Benz Stiftung ist online. Man erreicht sie über www.daimler-benz-stiftung.de. Auf der Website werden unter anderem die gegenwärtigen Mitglieder der Stiftung vorgestellt. Den Vorstand bilden Prof. Dr. Julia Arlinghaus und Prof. Dr. Lutz H. Gade. Die Geschäftsführung liegt bei Dr. Jörg Klein. Den Vorsitz des Stiftungsrats hat Olaf Schick, Mitglied des Vorstands für Integrität, Governance und Nachhaltigkeit der Mercedes-Benz Group AG. Weitere Vertreter aus dem Unternehmensumfeld sind Michael Brecht, Vorsitzender des Gesamtbetriebsrats der Daimler Truck Holding AG, Jürgen Hartwig, Mitglied des Vorstands sowie Personal- und Arbeitsdirektor der Daimler Truck Holding AG, Ergun Lümali, Vorsitzender des Gesamtbetriebsrats der Mercedes-Benz Group AG, sowie Eckard von Klaeden, Leiter des Bereichs External Affairs der Mercedes-Benz Group AG. Die wissenschaftlichen Mitglieder sind Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW, Prof. Dr. Hartmut Hillmer von der Universität Kassel, Prof. Dr. Ralf Poscher vom Max-Planck-Institut zur Erforschung von Kriminalität, Sicherheit und Recht sowie Prof. Dr. Tereza Tykvová von der Universität St. Gallen. Die Daimler und Benz Stiftung operiert inhaltlich unabhängig vom Konzern und gewährt Forschern völlige Freiheit. Sie ist – im Vergleich etwa zur Volkswagen-Stiftung oder zur Bertelsmann Stiftung – klein, aber äußerst aktiv und eine bedeutende Säule der Wissenschafts- und Innovationsförderung im deutschsprachigen Raum.

Abb.: Das Neckarufer beim Carl-Benz-Haus in Ladenburg

Talking Robot Dog for Blind Users

According to a Golem article published on April 12, 2026, researchers at Binghamton University have developed an AI-powered robotic guide dog designed to assist blind people through spoken interaction. Unlike traditional systems that rely on leash signals, the robotic dog uses large language models to understand voice commands, suggest different route options with estimated travel times, and verbally describe surroundings while guiding its user. As it moves, the robot continuously explains nearby hallways, obstacles, and environmental details to improve situational awareness. In tests with seven legally blind participants navigating an office environment, users responded very positively and especially appreciated the combination of route planning and real-time commentary. The research team plans to further improve the robot’s autonomy and expand testing in both indoor and outdoor settings, highlighting the technology’s potential as a future alternative or supplement to traditional guide dogs. An important practical consideration will also be how real dogs react to the robotic guide dog. This was examined in the Robodog project by Prof. Dr. Oliver Bendel and his student Selina Rohr.

Fig.: The Unitree Go2 in an elective module by Oliver Bendel (Photo: Belkis Kassar)

Introducing Mythomorphic Design in Social Robotics

For the first time, students in the elective module „Social Robots“, held from March 30 to April 1, 2026 at the FHNW School of Business, were introduced by Prof. Dr. Oliver Bendel to the idea that robot design is not limited to object-like, humanoid, and animal-like (zoomorphic) forms, but also includes mythomorphic design. Mythomorphic design refers to the creation of robots, especially social robots, inspired by figures from myth, fantasy, and science fiction rather than by real humans or animals. Such designs typically combine recognizable anthropomorphic features with deliberate deviations that signal otherness, for example through unusual morphology, narrative embedding, or symbolic attributes. Examples include the Mirokaï models such as Miroka and Miroki, as well as classics like Furby. Several publications by Oliver Bendel on this topic are forthcoming and will be published in 2026 and 2027.

Fig.: Oliver Bendel with Miroka (Photo: Tamara Siegmann)

Von HotWily bis Aquasnail

Ab dem Mittag des 1. April 2026 konzipierten die Studenten und Studentinnen im Wahlmodul „Soziale Roboter“ an der Hochschule für Wirtschaft FHNW in Olten eigene soziale Roboter und technische Assistenzsysteme. Sie erdachten einen Namen, nannten die Aufgabe und nahmen eine Beschreibung mit Hilfe des Fünf-Dimensionen-Modells von Prof. Dr. Oliver Bendel vor. Zudem generierten sie Bilder, um das Aussehen und die Möglichkeiten des Modells zu verdeutlichen. Ab 15 Uhr wurden die Präsentationen gehalten. Erfunden worden waren EVA (ein Emotional Value Assistant), Cerbi (ein fliegender Assistent für Outdooraktivitäten), HotWily (ein smarter Vibrator mit Charakter), Aquasnail (ein vielseitiger Assistent für die Pflege von Aquarien), Saul (ein sozialer Lernbegleiter für Primarschulen) und No-Bot (ein mahnender Assistent für Einkäufe). Am späten Nachmittag wurde die dreitägige Veranstaltung abgeschlossen. Das Wahlmodul wird seit 2021 von Oliver Bendel durchgeführt, inzwischen dreimal im Jahr. Zum ersten Mal wurde es für Studierende des Studiengangs Business AI angeboten.

Abb.: Eine Darstellung von Cerbi (Bild: Team Cerbi)

Revisiting the CLEANINGFISH Vision

A student at the University of Surrey proposed a fish-like robot called Gillbert in the context of a university robotics contest, suggesting a system that could move through water and capture microplastics using a gill-inspired filter. The concept was subsequently developed into a 3D-printed research prototype by a university team. The robot mimics fish locomotion via a flexible tail and is designed to collect particles of up to around 2 mm, primarily for monitoring and experimental purposes rather than large-scale cleanup. The project was published as open source. The idea follows earlier conceptual work such as the CLEANINGFISH design study by Prof. Dr. Oliver Bendel (2014), which envisioned small robotic fish operating individually or in swarms to remove plastic and debris from aquatic environments and transport it to collection points, including objects located on the ground. This concept was further examined in 2015 within a project at the University of Applied Sciences and Arts Northwestern Switzerland (FHNW), where increasing plastic pollution in seemingly clean waters and its ecological and human impact were analyzed. Oliver Bendel and his student concluded that robotic fish could interfere with aquatic life and were not sufficiently efficient for practical large-scale deployment, while also raising questions in machine and technology ethics. Gillbert can be understood as a contemporary experimental continuation of these earlier ideas under improved technological and collaborative conditions.

Fig.: A modern take on the CLEANINGFISH design study

Ein Interview über Physical AI und Co.

Everlast ist eine Medienagentur aus Ulm. Leonard Martin Schmedding, Co-Founder, war im März 2026 wie bereits vor einem Jahr und vor zwei Jahren im Gespräch mit Prof. Dr. Oliver Bendel. Das Video wurde auf YouTube veröffentlicht. Es geht um Themen wie „Humanoide Roboter, Bewusstsein & Zukunft“ (Teaser YouTube). Humanoide Roboter sind – so hat es Oliver Bendel im Wirtschaftslexikon von Springer Gabler beschrieben – Roboter mit menschenähnlichem Aussehen. Das Spektrum reicht dabei von einer abstrakten Gestalt mit menschlichen Merkmalen über ein cartoonhaftes menschenähnliches Äußeres bis hin zu realistischem oder hyperrealistischem Design nach unserem Vorbild. Bei hoher Ähnlichkeit spricht man von (Vorläufern von) Androiden. Manche dieser Roboter zählen – wie auch kleine Gadgets in der Art von Rabbit R1 oder Wearable Social Robots wie AIBI und Eiliko – zu Physical AI. Zu dieser stellt Oliver Bendel im gleichen Lexikon fest: „Es geht nicht nur darum, teilautonome oder autonome Maschinen mit Hilfe von KI aufzuwerten und zu erweitern, wie im Falle von Gesichtserkennung, Gestikerkennung und Emotionserkennung oder von Chatbots für soziale Roboter, sondern darum, für die KI gleichsam einen Körper zu suchen, in dem sie sich entfalten und beweisen kann.“ Insgesamt steht der Technikphilosoph und Wirtschaftsinformatiker den Entwicklungen in KI und Robotik positiv gegenüber. Das Video kann seit 13. März 2026 über www.youtube.com/watch?v=aKNjNaipakI abgerufen werden.

Abb.: Oliver Bendel mit Miroka

What Remains is the ECHO

The project „ECHO: Explaining Composition, Harmony & Orchestration“ was initiated by Prof. Dr. Oliver Bendel and implemented by Lucas Chingis Marty. The final presentation took place on February 19, 2026, at the FHNW Campus Brugg-Windisch. The bachelor’s thesis „ECHO: Explaining Composition, Harmony & Orchestration – A Multimodal AI System for Music Analysis and Education“ develops a local multimodal AI system for the analysis and accessible explanation of musical structures based on audio data. The objective is to bridge the gap between music information retrieval (MIR, an automatic audio analysis) and natural language explanation through large language models. The system combines multiple analysis components (tempo, key, chord, instrument, and melody recognition) with a locally operated large language model (Llama 3.1-8B) that translates the extracted data into understandable explanations for beginners and intermediate users. Retrieval-augmented generation (RAG), guardrails to reduce hallucinations, and a feedback and evaluation system are employed as part of the approach. The implementation is realized as a desktop application without cloud dependency. The evaluation includes technical measurements on datasets comprising several hundred music tracks as well as a small user study. The thesis demonstrates that a locally operated system can in principle present musical analysis in an understandable way, although clear accuracy limitations of the applied MIR methods remain. Opportunities could open up not only for music education, but also for the preservation of endangered music.

Fig.: A multimodal AI system for music analysis and education

Roboter nehmen öffentlichen Raum ein

Am 18. Februar 2026 wurde im SRF (10 vor 10) der Beitrag „Roboter nehmen öffentlichen Raum ein“ von Bruno Amstutz ausgestrahlt. Es ging um Serviceroboter im öffentlichen Raum. In Zürich Oerlikon testete der Lieferdienst Just Eat im Jahr 2025 gemeinsam mit dem ETH-Spin-off Rivr den Einsatz von Lieferrobotern. Nach kurzer Zeit wurde das Projekt jedoch wieder eingestellt. Das Modell wurde von einem Bundesamt als Fahrzeug eingestuft. Da die entsprechende Zulassung fehlte, wurde es aus dem Verkehr gezogen. Im selben Jahr war ein Sicherheitsroboter des Schweizer ETH-Start-ups Ascento auf der Basler Herbstmesse unterwegs, um für Sicherheit auf dem Gelände zu sorgen. Mit seinen großen Rädern und seinen sozialen Merkmalen war er ein Hingucker. In diesem Fall intervenierte allerdings die Datenschützerin. Prof. Dr. Oliver Bendel kam zu Wort und sprach über Akzeptanz gegenüber Servicerobotern und sozialen Robotern. Zu sehen war er in Interaktion mit seinem Unitree Go2, genannt Bao, aus seinem privaten Social Robots Lab. Der Beitrag ist auch online verfügbar.

Abb.: Oliver Bendel in 10 vor 10

Sechs Konzepte sozialer Roboter

Im Wahlmodul „Soziale Roboter aus technischer, wirtschaftlicher und ethischer Sicht“ vom 12. bis 14. Februar 2026 am FHNW-Campus Brugg-Windisch wurden von den Studenten und Studentinnen sechs Konzepte sozialer Roboter präsentiert. PlantBuddy ist ein humanoider Pflanzenpfleger, der Zimmerpflanzen automatisch bewässert, je nach Sonnenbedarf verschiebt und so für optimale Wachstumsbedingungen sorgt. Gluco-Guard richtet sich an Menschen mit Diabetes und kombiniert gesundheitliche Unterstützung mit emotionaler Begleitung in Form tierähnlicher Roboterfiguren. Coach Arnold ist ein Trainingsassistent für Fitnessstudios, der Mitglieder erkennt, personalisierte Trainingspläne erstellt, Übungen analysiert und zusätzlich organisatorische Aufgaben übernehmen kann. Conviva wurde als sozialer Serviceroboter für die Gastronomie konzipiert und fungiert im Restaurant als Gesprächspartner und Empfehlungsgeber für allein speisende Gäste. Babyball unterstützt Eltern im Alltag, fördert die motorische Entwicklung von Kleinkindern und integriert Sicherheitsfunktionen wie Kamera- und Benachrichtigungssysteme. CONNECTO schließlich ist ein Gebärdensprachenassistent, der gesprochene Sprache in Gebärdensprache übersetzt und so die Kommunikation zwischen hörenden und gehörlosen Menschen erleichtert. Alle Modelle wurden unter Verwendung von Bildgeneratoren visualisiert und mit Hilfe des Fünf-Dimensionen-Modells von Oliver Bendel beschrieben. Er führt das Wahlmodul unter verschiedenen Bezeichnungen und mit unterschiedlichen Schwerpunkten in Olten und Brugg-Windisch seit 2021 durch.

Abb.: Conviva, ein sozialer Roboter für die Gastronomie

Musk und Trump rücken vom Mars ab

Elon Musk rückt von seinem Ziel einer Marskolonie vorerst ab und setzt nun auf den Mond. Dies berichteten Anfang Februar 2026 mehrere Medien, etwa der Tages-Anzeiger. Auf X erklärte der SpaceX-Chef, der Aufbau einer sich selbst versorgenden Stadt auf dem Erdtrabanten sei realistischer und deutlich schneller umsetzbar: Innerhalb von weniger als zehn Jahren könne eine Mondstadt entstehen, während eine Marskolonie mehr als 20 Jahre benötigen würde. Als Hauptgrund nennt Musk die einfachere Erreichbarkeit des Monds. Während Starts zum Mars nur alle 26 Monate möglich seien und die Reise rund sechs Monate dauere, könne der Mond alle zehn Tage innerhalb von zwei Tagen erreicht werden. Langfristig schließt Musk den Mars jedoch nicht aus. Dass er den Mond bisher links liegen ließ, sorgte bei Experten für Stirnrunzeln. Die strategische Neuausrichtung passt auch zur aktuellen Weltraumpolitik der USA. Präsident Donald Trump hat angekündigt, im Rahmen des Artemis-Programms (an dem auch SpaceX beteiligt ist) bis 2028 wieder Astronauten zum Mond zu schicken. Damit rückt dieser erneut ins Zentrum der ambitionierten Raumfahrtpläne von Politik und Weltraumwirtschaft.

Abb.: Eine Stadt auf dem Mond?

PetPause

The project PetPause was announced by Oliver Bendel at the FHNW School of Business and is set to begin in February 2026. It introduces a pet-controlled pause system for devices and machines used in everyday domestic environments. Pets such as dogs and cats regularly interact with automated systems including feeding machines, toys, robots, and smart home devices, yet they usually have no way to influence when these machines operate. Continuous activity, noise, or movement can cause stress, anxiety, or even injury. PetPause enables animals to actively pause machines through a simple, physically accessible interface such as a button, floor sensor, or capacitive switch. When triggered, the machine automatically enters a predefined pause or rest mode, for example by stopping movement or silencing sounds. The system avoids cameras, animal detection, and data collection, relying solely on deliberate physical interaction. By combining technical simplicity with ethical consideration, PetPause demonstrates how machines can respect animal well-being without monitoring or surveillance.

Fig.: A cat with a toy

Von Spinchat bis X

Im Jahre 1996 entstand die Community Spinchat (oder Spinchat.de), die später in Spin.de umbenannt wurde. Das Unternehmen wollte damit eigentlich nur die Leistungsfähigkeit seiner Chatsoftware zeigen. Schnell fanden sich aber zahlreiche Benutzer ein und gaben dem Projekt eine andere Richtung. Über 100.000 waren es irgendwann. In den Chatrooms konnte man miteinander sprechen, über private Probleme und gemeinsame Interessen. Man flirtete miteinander oder versuchte es zumindest. Dabei war man nicht allein – Chatbots oder Chatterbots moderierten, sie kickten Benutzer mit anstößigen Nicknames, kurbelten Unterhaltungen an oder erzählten Witze. Man konnte sie, wie auch die Menschen im Chatroom, direkt ansprechen. Diese Funktion erinnert an Grok von Elon Musk. Auch hier ist ein Chatbot in eine Community integriert, in diesem Falle X. Das LLM bietet natürlich ganz andere Möglichkeiten als ein regelbasierter Chatbot, bis hin zur Generierung von Bildern, auch anzüglichen und bloßstellenden, was inzwischen eingedämmt wurde. Im Buch „Die Mondlandung des Internet“ (1998) ging Oliver Bendel auf Spinchat ein, und zwar in dessen Funktion als Anbieter des Chats von „Wahlstudio live“. Der Hauptautor Rainer Kuhlen, Professor für Informationswissenschaft an der Universität Konstanz, wollte untersuchen, wie Werbung und Propaganda der Bundestagswahl 1998 im WWW stattfanden. Er schuf den theoretischen Rahmen des Werks, während Oliver Bendel die zahlreichen Projekte der Parteien und Politiker mit ihren Diskussionsforen, Chats und Votings beschrieb und einordnete. Ob der Chat von „Wahlstudio live“ moderiert wurde, von Mensch oder Maschine, blieb unklar.

Abb.: Spinchat im Jahre 1999

Das Hotel auf dem Mond

Das US-amerikanische Unternehmen GRU Space beschreibt auf seiner Website ein Projekt namens GRU (Galactic Resource Utilization). Dieses verfolgt das Ziel, eine Reihe von dauerhaften Strukturen auf dem Mond zu errichten. Der geplante Höhepunkt des Vorhabens ist ein Hotel, das „First Lunar Hotel“. Das Projekt versteht sich nicht als klassischer Weltraumtourismus (sicherlich auch, um sich der diesbezüglichen Kritik zu entziehen), sondern als frühe Phase einer langfristigen Präsenz des Menschen jenseits der Erde. GRU richtet sich an eine kleine Gruppe von Teilnehmern, die sich frühzeitig am Aufbau beteiligen wollen. Zuerst erfolgt ein Bewerbungsverfahren, bei dem eine nicht erstattungsfähige Gebühr anfällt. Bei Erfolg, also Aufnahme in das Programm, ist eine hohe Anzahlung erforderlich, die später auf den Gesamtpreis angerechnet wird. Die endgültigen Kosten sind noch nicht festgelegt, dürften jedoch über 10 Millionen US-Dollar liegen. Zusätzlich sind medizinische, persönliche und finanzielle Prüfungen vorgesehen. Ab 2026 sollen Bewerbungen geprüft werden, 2029 ist eine erste Mondmission zur technischen Vorbereitung geplant. Ab 2031 sollen Habitate wie die Lunar Cave Base installiert werden und Trainings beginnen. In der Folge soll das erste Hotel auf dem Mond den Betrieb aufnehmen, laut Zeitstrahl auf der Website bereits 2032. In Illustrationen changiert dieses zwischen antiken Tempeln, Palladio-Villen und Schweizer Grandhotels in der Vorstellung amerikanischer Politiker. Ob es dazu kommt, ist fraglich, schon wegen der hohen Anzahlung, die man leisten muss, aber auch wegen der technischen Herausforderungen und der ökologischen Folgen. Weitere Informationen sind über www.gru.space/reserve verfügbar.

Abb.: So ähnlich stellt sich GRU Space eine Phase des Hotels vor (Bild: GPT Image)

Findet der nächste CYBATHLON in Asien statt?

Vor 10 Jahren fand zum ersten Mal der CYBATHLON statt. Damit begann ein faszinierendes und inspirierendes Projekt, das sich um Inclusive AI und Inclusive Robotics dreht. Ins Leben gerufen hat den Wettkampf, bei dem behinderte und beeinträchtigte Personen miteinander und gegeneinander antreten, Prof. Dr. Robert Riener von der ETH Zürich. Beim CYBATHLON 2016 war der SRF-Moderator Tobias Müller fünfmal im Gespräch mit Prof. Dr. Oliver Bendel, Technikphilosoph aus Zürich, der den Einsatz von Implantaten, Prothesen und Robotern einordnete und bewertete. Einmal war Prof. Dr. Lino Guzzella mit dabei, der damalige ETH-Präsident, einmal Robert Riener. Die letzte Durchführung des CYBATHLON erfolgte 2024. Es traten 67 Teams aus 24 Nationen in der SWISS Arena in Kloten bei Zürich sowie an den sieben miteinander verbundenen Hubs in den USA, Kanada, Südafrika, Ungarn, Thailand und Südkorea in acht Disziplinen gegeneinander an. Auf der Website heißt es heute: „Während die Reise des CYBATHLON an der ETH Zürich hier endet, ist die Geschichte noch lange nicht vorbei. Die nächste Ausgabe der Veranstaltung könnte 2028 in Asien stattfinden und damit ein neues, aufregendes Kapitel rund um diesen einzigartigen globalen Wettkampf aufschlagen.“ (Website CYBATHLON) Damit würde eine Erfolgsgeschichte fortgeschrieben, aber wieder einmal nicht in Europa, sondern in Asien.

Abb.: Eine Teilnehmerin beim CYBATHLON (Foto: ETH Zürich, CYBATHLON/Alessandro della Bella)

From Gatebox to Project AVA

The idea of a desk companion with a pseudo-holographic character is not entirely new. Japan’s Gatebox has offered such a system since 2018, featuring virtual characters like Hatsune Miku displayed as a projected assistant designed for everyday interaction. Project AVA is Razer’s take on this concept, pushing it further as a fully integrated AI desk companion for life, work, and play. The cylindrical device combines microphones, a camera, RGB lighting, and a speaker with a 5.5-inch holographic display that renders animated 3D avatars with expressive, real-time motion. Connected via USB-C to a Windows PC, AVA can assist with daily organization, wellness routines, professional tasks, and gaming coaching, while remaining compliant with competitive gaming rules by acting strictly as a coach. Powered in its current form by xAI’s Grok engine and built on an open architecture, Project AVA is positioned as a future-ready AI companion, with availability planned for the second half of 2026. A final pop culture note: the name AVA inevitably recalls Ava, the AI character from „Ex Machina“, a film that has become a defining reference point for artificial intelligence embodied in human form. More details can be found at www.razer.com/concepts/project-ava.

Fig.: The original Gatebox (Photo: Katharina Kühne)

The Pocket Companion Called Poketomo

Poketomo is a pocket-sized AI robot designed as a personal, always-available companion. It can be understood as a wearable social robot, intended to accompany users throughout the day and provide lightweight interaction rather than full task automation. Poketomo engages in conversations, remembers user preferences over time, and responds to emotional cues in a calm and friendly manner. Interaction is primarily conversational: users can talk to Poketomo about everyday topics, personal interests, or their current mood. As usage continues, the device adapts its responses based on prior interactions, creating a sense of continuity and personalization. In addition to conversational features, Poketomo offers basic daily support functions such as weather updates, news notifications, and alarms.From a technical perspective, Poketomo combines compact hardware with AI-driven software. Despite its small form factor, it includes sensors, voice and facial recognition, a camera, and small motors that enable simple physical movements of the head and arms. Connectivity options such as Wi-Fi, Bluetooth, and GPS allow it to integrate into everyday routines. Developed by Sharp, Poketomo represents an example of a wearable social robot that blends emotional interaction with limited practical assistance, focusing on companionship rather than productivity. Further information is available at poketomo.com/en/.

Fig.: Poketomo (Photo: Screenshot from the video)

Inclusive AI and Inclusive Robotics at CES 2026

At CES 2026, some of the most compelling examples of Inclusive AI and Inclusive Robotics came not from consumer gadgets, but from European assistive technologies designed to expand human autonomy. This was reported by FAZ and other media outlets in January 2026. These innovations show how AI-driven perception and robotics can be centered on accessibility – and still scale beyond niche use cases. Romanian startup Dotlumen exemplifies Inclusive AI through its “.lumen Glasses for the Blind,” a wearable system that replaces a guide dog with real-time, on-device intelligence. Using multiple cameras, sensors, and GPU-based computer vision, the glasses interpret sidewalks, obstacles, and spatial structures and translate them into intuitive haptic signals. The company calls this approach “Pedestrian Autonomous Driving” – a concept that directly bridges human navigation and mobile robotics. Notably, the same algorithms are now being adapted for autonomous delivery robots, underscoring the overlap between assistive AI and broader robotic autonomy. A complementary approach comes from France-based Artha (Seehaptic), whose haptic belt uses AI-powered scene understanding to convert visual space into tactile feedback. By shifting navigation cues from sound to touch, the system reduces cognitive load and leverages sensory substitution – an inclusive design principle with implications for human-machine interfaces in robotics. Together, these technologies illustrate a European model of Inclusive AI: privacy-preserving, embodied, and focused on real-world autonomy. What begins as assistive tech increasingly becomes a foundation for the next generation of intelligent, human-centered robotics.

Fig.: A scene from the Cybathlon (Photo: ETH Zürich, CYBATHLON/Alessandro della Bella)

Avatare fürs Handy: Eine Vision von 2004

„Zur Zeit bereitet man die Avatare auf eine neue Umgebung vor. Sie sollen nicht nur in PCs und Notebooks agieren, sondern auch in Handys. Man bekommt sie mitgeliefert bzw. lädt sie herunter oder erstellt sie selbst und verschickt sie von Gerät zu Gerät. Damit ergeben sich interessante Implikationen. Zum einen ist eine massenhafte Herstellung wahrscheinlich, sowohl als ‚Konfektionsware‘ (Avatare für die Massen) als auch in individueller Form (Massen machen Avatare). Zum anderen werden die Avatare mobil und so zu Begleitern in allen möglichen Situationen.“ Dies schrieben 2004 Dr. Oliver Bendel und Dr. Michael Gerhard – damals Fraunhofer ISST in Dortmund – in ihrem Artikel „Handy-Avatare – neue Möglichkeiten der Informationsversorgung und Kommunikationsunterstützung“, veröffentlicht in der damaligen Zeitschrift Infoweek, dem Vorgänger des Swiss IT Magazine. Die Idee, aus einem Porträtfoto einen 3D-Avatar zu erstellen, der mit einer Nachricht mitgeliefert wird und sie vorliest, mitsamt einem Zwinkern oder Lachen bei entsprechenden Smileys, gefiel Siemens gut. So gut, dass Klaus Kleinfeld, der kurz darauf Vorstandsvorsitzender der Siemens AG wurde, einen Mitarbeiter einfliegen ließ. Alle hatten schon Dollarzeichen in den Augen, als der Konzern seine Handysparte verkaufte. Die beiden Wissenschaftler wandten sich anderen Themen zu. Oliver Bendel ging über Umwege wieder in die Schweiz. Ab 2017 griffen Unternehmen wie Synthesia und Apple die Idee auf. Es folgten Samsung, Meta, Microsoft und Google. Der Artikel kann hier heruntergeladen werden.

Abb.: Avatare fürs Handy (Bild: ChatGPT nach der Vorlage im Artikel)

ACI 2026 Website Now Live

Prof. Dr. Oliver Bendel will host the next ACI Conference, bringing the event to continental Europe for the first time as it convenes on the FHNW campus in Brugg-Windisch, Switzerland, from December 2–5, 2026. The conference website is already online, and the most important information is available at www.aciconf.org; individual deadlines may still change. Building on a tradition that has taken the community from Glasgow to North Carolina, Newcastle, Bloomington, Milton Keynes, Haifa, and Atlanta, this edition continues the conference’s role as a leading venue for advancing Animal-Computer Interaction. As the field grows, researchers and practitioners explore how technology shapes animals’ lives, welfare, cognition, and social dynamics while developing animal-centered systems and methods that embrace multispecies perspectives. The conference maintains its commitment to interdisciplinary collaboration across biology, technology, and cultural studies, supporting work that seeks to design ethically grounded, welfare-enhancing, and inclusive technological futures for all animals, humans included. ACI 2026 will also feature a Special Issue on Animal-Machine Interaction, a research field shaped in important ways by Oliver Bendel. The proceedings will be published in a volume of a renowned organization.

Fig.: The ACI website