According to a Golem article published on April 12, 2026, researchers at Binghamton University have developed an AI-powered robotic guide dog designed to assist blind people through spoken interaction. Unlike traditional systems that rely on leash signals, the robotic dog uses large language models to understand voice commands, suggest different route options with estimated travel times, and verbally describe surroundings while guiding its user. As it moves, the robot continuously explains nearby hallways, obstacles, and environmental details to improve situational awareness. In tests with seven legally blind participants navigating an office environment, users responded very positively and especially appreciated the combination of route planning and real-time commentary. The research team plans to further improve the robot’s autonomy and expand testing in both indoor and outdoor settings, highlighting the technology’s potential as a future alternative or supplement to traditional guide dogs. An important practical consideration will also be how real dogs react to the robotic guide dog. This was examined in the Robodog project by Prof. Dr. Oliver Bendel and his student Selina Rohr.
Fig.: The Unitree Go2 in an elective module by Oliver Bendel (Photo: Belkis Kassar)
The master’s thesis „Inclusive AI for Wearables: Assistive Glasses as a Case Study“, written by Myriam Rellstab at the FHNW School of Business, examines the concept and design potential of AI-supported assistive glasses as an inclusive form of wearable technology. The project is supervised by Prof. Dr. Oliver Bendel, whose research focuses on Inclusive AI and Inclusive Robotics, with additional input from Steve Weidel, a blind accessibility consultant. The research begins with a proposal phase in April 2026, followed by the main thesis work starting in summer or autumn 2026 and concluding in December 2026. The study investigates how AI-supported glasses could assist people with visual and hearing impairments by enhancing perception and accessibility, while also offering value for users without impairments. In this way, the work positions assistive glasses not as a purely medical device, but as an inclusive technology with broader relevance. Possible functions include real-time object recognition, speech-to-text transcription, environmental awareness, and contextual information overlays. A particular focus is placed on multimodal large language models, which enable the integration of visual, auditory, and textual data, as well as on vibration-based feedback systems that support non-visual and non-auditory interaction. Using assistive glasses as a case study, the thesis analyzes technological possibilities, user needs, and design considerations for inclusive AI wearables. It may include a conceptual system design, an exploration of use cases, and an evaluation of accessibility, usability, and ethical aspects. The aim is to develop a conceptual framework or prototype approach that demonstrates how inclusive AI wearables can be designed to benefit diverse user groups.
Zum Projekt VISUAL liegt seit 29. August 2025 ein Video vor, das das System im Betrieb zeigt. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem MLLM, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Das Video kann über www.informationsethik.net/videos/ abgerufen werden.
Am 31. Juli 2025 fand die Abschlusspräsentation des Projekts VISUAL statt. Initiiert wurde dieses von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Durchgeführt wurde es von Doris Jovic, die ihren Bachelor in Business Information Technology (BIT) in Basel macht. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem multimodalen großen Sprachmodell, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Die Bedürfnisse von blinden und sehbeeinträchtigten Personen wurden über eine barrierefreie Onlineumfrage eingeholt, bei der der FHNW-Mitarbeiter Artan Llugaxhija unterstützte. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet.
On June 19, 2025, the interim presentation of the VISUAL project took place. The initiative was launched by Prof. Dr. Oliver Bendel from the FHNW School of Business. The project assistant is Doris Jovic, who is currently pursuing her Bachelor’s degree in Business Information Technology (BIT). „VISUAL“ stands for „Virtual Inclusive Safaris for Unique Adventures and Learning“. All over the world, webcams provide real-time footage of wild animals. Sighted people can use them to go on photo or video safaris from the comfort of their homes. However, blind and visually impaired individuals are at a disadvantage. In the spirit of Inclusive AI – a concept and movement that includes tools like Be My Eyes and its Be My AI feature – this project aims to create an accessible solution. By August 2025, the goal is to develop a prototype that allows blind and visually impaired users to receive audio descriptions of webcam images or videos of wildlife. The system analyzes and interprets the footage using a multimodal large language model (LLM), presenting the results via an integrated text-to-speech engine. To better understand the needs of the target group, an online survey has been available since June 19, 2025. It is accessible in both English and German.
Fig.: Photo safaris for blind and visually impaired people (Image: ChatGPT/4o Image)
Am 20. März 2025 fand das Kick-off-Meeting des Projekts VISUAL statt. Initiiert wurde dieses von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- oder Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Rahmen von Inclusive AI – eines Ansatzes und einer Bewegung, zu der auch Apps wie Be My Eyes mit der Funktion Be My AI gehören – soll eine Lösung für sie gefunden werden. Ziel des Projekts ist es, bis August 2025 einen Prototyp zu entwickeln, der es blinden und sehbehinderten Menschen ermöglicht, sich Webcam-Bilder oder -Videos von Wildtieren beschreiben zu lassen. Das System analysiert und evaluiert sie mit Hilfe eines multimodalen LLM. Es präsentiert die Ergebnisse in gesprochener Sprache über eine integrierte Text-to-Speech-Engine. Als Nebenprodukt können Wilderei, Busch- und Waldbrände und andere Ereignisse erkannt werden. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Als Projektmitarbeiterin konnte Doris Jovic gewonnen werden, die ihren Bachelor in Business Information Technology (BIT) macht.