Online Survey on the VISUAL Project

On June 19, 2025, the interim presentation of the VISUAL project took place. The initiative was launched by Prof. Dr. Oliver Bendel from the FHNW School of Business. The project assistant is Doris Jovic, who is currently pursuing her Bachelor’s degree in Business Information Technology (BIT). „VISUAL“ stands for „Virtual Inclusive Safaris for Unique Adventures and Learning“. All over the world, webcams provide real-time footage of wild animals. Sighted people can use them to go on photo safaris from the comfort of their homes. However, blind and visually impaired individuals are at a disadvantage. In the spirit of Inclusive AI – a concept and movement that includes tools like Be My Eyes and its Be My AI feature – this project aims to create an accessible solution. By August 2025, the goal is to develop a prototype that allows blind and visually impaired users to receive audio descriptions of webcam images or videos of wildlife. The system analyzes and interprets the footage using a multimodal large language model (LLM), presenting the results via an integrated text-to-speech engine. To better understand the needs of the target group, an online survey has been available since June 19, 2025. It is accessible in both English and German.

Fig.: Photo safaris for blind and visually impaired people

Fotosafaris für Blinde

Am 20. März 2025 fand das Kick-off-Meeting des Projekts VISUAL statt. Initiiert wurde dieses von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Fotosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Rahmen von Inclusive AI – eines Ansatzes und einer Bewegung, zu der auch Apps wie Be My Eyes mit der Funktion Be My AI gehören – soll eine Lösung für sie gefunden werden. Ziel des Projekts ist es, bis August 2025 einen Prototyp zu entwickeln, der es blinden und sehbehinderten Menschen ermöglicht, sich Webcam-Bilder oder -Videos von Wildtieren beschreiben zu lassen. Das System analysiert und evaluiert sie mit Hilfe eines multimodalen LLM. Es präsentiert die Ergebnisse in gesprochener Sprache über eine integrierte Text-to-Speech-Engine. Als Nebenprodukt können Wilderei, Busch- und Waldbrände und andere Ereignisse erkannt werden. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Als Projektmitarbeiterin konnte Doris Jovic gewonnen werden, die ihren Bachelor in Business Information Technology (BIT) macht.

Abb.: Fotosafaris für Blinde (Bild: Ideogram)