Musk und Trump rücken vom Mars ab

Elon Musk rückt von seinem Ziel einer Marskolonie vorerst ab und setzt nun auf den Mond. Dies berichteten Anfang Februar 2026 mehrere Medien, etwa der Tages-Anzeiger. Auf X erklärte der SpaceX-Chef, der Aufbau einer sich selbst versorgenden Stadt auf dem Erdtrabanten sei realistischer und deutlich schneller umsetzbar: Innerhalb von weniger als zehn Jahren könne eine Mondstadt entstehen, während eine Marskolonie mehr als 20 Jahre benötigen würde. Als Hauptgrund nennt Musk die einfachere Erreichbarkeit des Monds. Während Starts zum Mars nur alle 26 Monate möglich seien und die Reise rund sechs Monate dauere, könne der Mond alle zehn Tage innerhalb von zwei Tagen erreicht werden. Langfristig schließt Musk den Mars jedoch nicht aus. Dass er den Mond bisher links liegen ließ, sorgte bei Experten für Stirnrunzeln. Die strategische Neuausrichtung passt auch zur aktuellen Weltraumpolitik der USA. Präsident Donald Trump hat angekündigt, im Rahmen des Artemis-Programms (an dem auch SpaceX beteiligt ist) bis 2028 wieder Astronauten zum Mond zu schicken. Damit rückt dieser erneut ins Zentrum der ambitionierten Raumfahrtpläne von Politik und Weltraumwirtschaft.

Abb.: Eine Stadt auf dem Mond?

PetPause

The project PetPause was announced by Oliver Bendel at the FHNW School of Business and is set to begin in February 2026. It introduces a pet-controlled pause system for devices and machines used in everyday domestic environments. Pets such as dogs and cats regularly interact with automated systems including feeding machines, toys, robots, and smart home devices, yet they usually have no way to influence when these machines operate. Continuous activity, noise, or movement can cause stress, anxiety, or even injury. PetPause enables animals to actively pause machines through a simple, physically accessible interface such as a button, floor sensor, or capacitive switch. When triggered, the machine automatically enters a predefined pause or rest mode, for example by stopping movement or silencing sounds. The system avoids cameras, animal detection, and data collection, relying solely on deliberate physical interaction. By combining technical simplicity with ethical consideration, PetPause demonstrates how machines can respect animal well-being without monitoring or surveillance.

Fig.: A cat with a toy

Von Spinchat bis X

Im Jahre 1996 entstand die Community Spinchat (oder Spinchat.de), die später in Spin.de umbenannt wurde. Das Unternehmen wollte damit eigentlich nur die Leistungsfähigkeit seiner Chatsoftware zeigen. Schnell fanden sich aber zahlreiche Benutzer ein und gaben dem Projekt eine andere Richtung. Über 100.000 waren es irgendwann. In den Chatrooms konnte man miteinander sprechen, über private Probleme und gemeinsame Interessen. Man flirtete miteinander oder versuchte es zumindest. Dabei war man nicht allein – Chatbots oder Chatterbots moderierten, sie kickten Benutzer mit anstößigen Nicknames, kurbelten Unterhaltungen an oder erzählten Witze. Man konnte sie, wie auch die Menschen im Chatroom, direkt ansprechen. Diese Funktion erinnert an Grok von Elon Musk. Auch hier ist ein Chatbot in eine Community integriert, in diesem Falle X. Das LLM bietet natürlich ganz andere Möglichkeiten als ein regelbasierter Chatbot, bis hin zur Generierung von Bildern, auch anzüglichen und bloßstellenden, was inzwischen eingedämmt wurde. Im Buch „Die Mondlandung des Internet“ (1998) ging Oliver Bendel auf Spinchat ein, und zwar in dessen Funktion als Anbieter des Chats von „Wahlstudio live“. Der Hauptautor Rainer Kuhlen, Professor für Informationswissenschaft an der Universität Konstanz, wollte untersuchen, wie Werbung und Propaganda der Bundestagswahl 1998 im WWW stattfanden. Er schuf den theoretischen Rahmen des Werks, während Oliver Bendel die zahlreichen Projekte der Parteien und Politiker mit ihren Diskussionsforen, Chats und Votings beschrieb und einordnete. Ob der Chat von „Wahlstudio live“ moderiert wurde, von Mensch oder Maschine, blieb unklar.

Abb.: Spinchat im Jahre 1999

Das Hotel auf dem Mond

Das US-amerikanische Unternehmen GRU Space beschreibt auf seiner Website ein Projekt namens GRU (Galactic Resource Utilization). Dieses verfolgt das Ziel, eine Reihe von dauerhaften Strukturen auf dem Mond zu errichten. Der geplante Höhepunkt des Vorhabens ist ein Hotel, das „First Lunar Hotel“. Das Projekt versteht sich nicht als klassischer Weltraumtourismus (sicherlich auch, um sich der diesbezüglichen Kritik zu entziehen), sondern als frühe Phase einer langfristigen Präsenz des Menschen jenseits der Erde. GRU richtet sich an eine kleine Gruppe von Teilnehmern, die sich frühzeitig am Aufbau beteiligen wollen. Zuerst erfolgt ein Bewerbungsverfahren, bei dem eine nicht erstattungsfähige Gebühr anfällt. Bei Erfolg, also Aufnahme in das Programm, ist eine hohe Anzahlung erforderlich, die später auf den Gesamtpreis angerechnet wird. Die endgültigen Kosten sind noch nicht festgelegt, dürften jedoch über 10 Millionen US-Dollar liegen. Zusätzlich sind medizinische, persönliche und finanzielle Prüfungen vorgesehen. Ab 2026 sollen Bewerbungen geprüft werden, 2029 ist eine erste Mondmission zur technischen Vorbereitung geplant. Ab 2031 sollen Habitate wie die Lunar Cave Base installiert werden und Trainings beginnen. In der Folge soll das erste Hotel auf dem Mond den Betrieb aufnehmen, laut Zeitstrahl auf der Website bereits 2032. In Illustrationen changiert dieses zwischen antiken Tempeln, Palladio-Villen und Schweizer Grandhotels in der Vorstellung amerikanischer Politiker. Ob es dazu kommt, ist fraglich, schon wegen der hohen Anzahlung, die man leisten muss, aber auch wegen der technischen Herausforderungen und der ökologischen Folgen. Weitere Informationen sind über www.gru.space/reserve verfügbar.

Abb.: So ähnlich stellt sich GRU Space eine Phase des Hotels vor (Bild: GPT Image)

Findet der nächste CYBATHLON in Asien statt?

Vor 10 Jahren fand zum ersten Mal der CYBATHLON statt. Damit begann ein faszinierendes und inspirierendes Projekt, das sich um Inclusive AI und Inclusive Robotics dreht. Ins Leben gerufen hat den Wettkampf, bei dem behinderte und beeinträchtigte Personen miteinander und gegeneinander antreten, Prof. Dr. Robert Riener von der ETH Zürich. Beim CYBATHLON 2016 war der SRF-Moderator Tobias Müller fünfmal im Gespräch mit Prof. Dr. Oliver Bendel, Technikphilosoph aus Zürich, der den Einsatz von Implantaten, Prothesen und Robotern einordnete und bewertete. Einmal war Prof. Dr. Lino Guzzella mit dabei, der damalige ETH-Präsident, einmal Robert Riener. Die letzte Durchführung des CYBATHLON erfolgte 2024. Es traten 67 Teams aus 24 Nationen in der SWISS Arena in Kloten bei Zürich sowie an den sieben miteinander verbundenen Hubs in den USA, Kanada, Südafrika, Ungarn, Thailand und Südkorea in acht Disziplinen gegeneinander an. Auf der Website heißt es heute: „Während die Reise des CYBATHLON an der ETH Zürich hier endet, ist die Geschichte noch lange nicht vorbei. Die nächste Ausgabe der Veranstaltung könnte 2028 in Asien stattfinden und damit ein neues, aufregendes Kapitel rund um diesen einzigartigen globalen Wettkampf aufschlagen.“ (Website CYBATHLON) Damit würde eine Erfolgsgeschichte fortgeschrieben, aber wieder einmal nicht in Europa, sondern in Asien.

Abb.: Eine Teilnehmerin beim CYBATHLON (Foto: ETH Zürich, CYBATHLON/Alessandro della Bella)

From Gatebox to Project AVA

The idea of a desk companion with a pseudo-holographic character is not entirely new. Japan’s Gatebox has offered such a system since 2018, featuring virtual characters like Hatsune Miku displayed as a projected assistant designed for everyday interaction. Project AVA is Razer’s take on this concept, pushing it further as a fully integrated AI desk companion for life, work, and play. The cylindrical device combines microphones, a camera, RGB lighting, and a speaker with a 5.5-inch holographic display that renders animated 3D avatars with expressive, real-time motion. Connected via USB-C to a Windows PC, AVA can assist with daily organization, wellness routines, professional tasks, and gaming coaching, while remaining compliant with competitive gaming rules by acting strictly as a coach. Powered in its current form by xAI’s Grok engine and built on an open architecture, Project AVA is positioned as a future-ready AI companion, with availability planned for the second half of 2026. A final pop culture note: the name AVA inevitably recalls Ava, the AI character from „Ex Machina“, a film that has become a defining reference point for artificial intelligence embodied in human form. More details can be found at www.razer.com/concepts/project-ava.

Fig.: The original Gatebox (Photo: Katharina Kühne)

The Pocket Companion Called Poketomo

Poketomo is a pocket-sized AI robot designed as a personal, always-available companion. It can be understood as a wearable social robot, intended to accompany users throughout the day and provide lightweight interaction rather than full task automation. Poketomo engages in conversations, remembers user preferences over time, and responds to emotional cues in a calm and friendly manner. Interaction is primarily conversational: users can talk to Poketomo about everyday topics, personal interests, or their current mood. As usage continues, the device adapts its responses based on prior interactions, creating a sense of continuity and personalization. In addition to conversational features, Poketomo offers basic daily support functions such as weather updates, news notifications, and alarms.From a technical perspective, Poketomo combines compact hardware with AI-driven software. Despite its small form factor, it includes sensors, voice and facial recognition, a camera, and small motors that enable simple physical movements of the head and arms. Connectivity options such as Wi-Fi, Bluetooth, and GPS allow it to integrate into everyday routines. Developed by Sharp, Poketomo represents an example of a wearable social robot that blends emotional interaction with limited practical assistance, focusing on companionship rather than productivity. Further information is available at poketomo.com/en/.

Fig.: Poketomo (Photo: Screenshot from the video)

Inclusive AI and Inclusive Robotics at CES 2026

At CES 2026, some of the most compelling examples of Inclusive AI and Inclusive Robotics came not from consumer gadgets, but from European assistive technologies designed to expand human autonomy. This was reported by FAZ and other media outlets in January 2026. These innovations show how AI-driven perception and robotics can be centered on accessibility – and still scale beyond niche use cases. Romanian startup Dotlumen exemplifies Inclusive AI through its “.lumen Glasses for the Blind,” a wearable system that replaces a guide dog with real-time, on-device intelligence. Using multiple cameras, sensors, and GPU-based computer vision, the glasses interpret sidewalks, obstacles, and spatial structures and translate them into intuitive haptic signals. The company calls this approach “Pedestrian Autonomous Driving” – a concept that directly bridges human navigation and mobile robotics. Notably, the same algorithms are now being adapted for autonomous delivery robots, underscoring the overlap between assistive AI and broader robotic autonomy. A complementary approach comes from France-based Artha (Seehaptic), whose haptic belt uses AI-powered scene understanding to convert visual space into tactile feedback. By shifting navigation cues from sound to touch, the system reduces cognitive load and leverages sensory substitution – an inclusive design principle with implications for human-machine interfaces in robotics. Together, these technologies illustrate a European model of Inclusive AI: privacy-preserving, embodied, and focused on real-world autonomy. What begins as assistive tech increasingly becomes a foundation for the next generation of intelligent, human-centered robotics.

Fig.: A scene from the Cybathlon (Photo: ETH Zürich, CYBATHLON/Alessandro della Bella)

Avatare fürs Handy: Eine Vision von 2004

„Zur Zeit bereitet man die Avatare auf eine neue Umgebung vor. Sie sollen nicht nur in PCs und Notebooks agieren, sondern auch in Handys. Man bekommt sie mitgeliefert bzw. lädt sie herunter oder erstellt sie selbst und verschickt sie von Gerät zu Gerät. Damit ergeben sich interessante Implikationen. Zum einen ist eine massenhafte Herstellung wahrscheinlich, sowohl als ‚Konfektionsware‘ (Avatare für die Massen) als auch in individueller Form (Massen machen Avatare). Zum anderen werden die Avatare mobil und so zu Begleitern in allen möglichen Situationen.“ Dies schrieben 2004 Dr. Oliver Bendel und Dr. Michael Gerhard – damals Fraunhofer ISST in Dortmund – in ihrem Artikel „Handy-Avatare – neue Möglichkeiten der Informationsversorgung und Kommunikationsunterstützung“, veröffentlicht in der damaligen Zeitschrift Infoweek, dem Vorgänger des Swiss IT Magazine. Die Idee, aus einem Porträtfoto einen 3D-Avatar zu erstellen, der mit einer Nachricht mitgeliefert wird und sie vorliest, mitsamt einem Zwinkern oder Lachen bei entsprechenden Smileys, gefiel Siemens gut. So gut, dass Klaus Kleinfeld, der kurz darauf Vorstandsvorsitzender der Siemens AG wurde, einen Mitarbeiter einfliegen ließ. Alle hatten schon Dollarzeichen in den Augen, als der Konzern seine Handysparte verkaufte. Die beiden Wissenschaftler wandten sich anderen Themen zu. Oliver Bendel ging über Umwege wieder in die Schweiz. Ab 2017 griffen Unternehmen wie Synthesia und Apple die Idee auf. Es folgten Samsung, Meta, Microsoft und Google. Der Artikel kann hier heruntergeladen werden.

Abb.: Avatare fürs Handy (Bild: ChatGPT nach der Vorlage im Artikel)

ACI 2026 Website Now Live

Prof. Dr. Oliver Bendel will host the next ACI Conference, bringing the event to continental Europe for the first time as it convenes on the FHNW campus in Brugg-Windisch, Switzerland, from December 2–5, 2026. The conference website is already online, and the most important information is available at www.aciconf.org; individual deadlines may still change. Building on a tradition that has taken the community from Glasgow to North Carolina, Newcastle, Bloomington, Milton Keynes, Haifa, and Atlanta, this edition continues the conference’s role as a leading venue for advancing Animal-Computer Interaction. As the field grows, researchers and practitioners explore how technology shapes animals’ lives, welfare, cognition, and social dynamics while developing animal-centered systems and methods that embrace multispecies perspectives. The conference maintains its commitment to interdisciplinary collaboration across biology, technology, and cultural studies, supporting work that seeks to design ethically grounded, welfare-enhancing, and inclusive technological futures for all animals, humans included. ACI 2026 will also feature a Special Issue on Animal-Machine Interaction, a research field shaped in important ways by Oliver Bendel. The proceedings will be published in a volume of a renowned organization.

Fig.: The ACI website

Historic Spaceflight Delayed: First Astronaut With Paraplegia Awaits Launch

According to Golem, Blue Origin’s New Shepard mission NS-37 was set to become a small but meaningful milestone for human spaceflight: ESA engineer Michaela Benthaus was expected to be the first person with paraplegia to complete a suborbital flight and cross the Kármán line. The flight was scheduled for December 18, 2025, from Blue Origin’s launch site in Texas, following the familiar New Shepard profile: a brief climb above 100 kilometers, a few minutes of weightlessness, and a parachute landing after roughly ten to twelve minutes. Benthaus, who has used a wheelchair since a 2018 mountain biking accident, had already experienced microgravity during a parabolic flight through the Astroaccess program, and she has also worked on practical considerations for accessibility in weightlessness. However, the launch did not go forward as planned. Blue Origin stood down from the NS-37 attempt after an issue was detected during pre-flight checks, and the company said it is evaluating the next launch opportunity. For now, the team hopes the crew can make the trip soon, even if the historic moment has to wait a little longer.

Fig.: Blue Origin building (Photo: N2e, CC BY-SA 4.0)

Serviceroboter am Flughafen Zürich

Am Flughafen Zürich werden immer wieder Serviceroboter ausprobiert und eingeführt. Laut einer Meldung vom 14. Dezember 2023 wurde das rund 300-köpfige Gebäudereinigungsteam um zwei Serviceroboter namens Zulu und Charlie ergänzt. Diese stammen von der Firma LionsBot aus Singapur (www.lionsbot.com) und gehören zu den LEOBOTS. Im Herbst 2025 sieht man viele Reinigungsroboter von TASKI (Ecobot 50 und 6 vom Typ Phantas) ihre Runden drehen. Sie sind oft in erstaunlicher Geschwindigkeit bei den Check-in-Bereichen, Terminals und Aufenthaltszonen unterwegs. Der Flughafen Zürich erläutert: „Die Geräte navigieren bis zu 24 Stunden selbstständig durch den laufenden Betrieb, erkennen Hindernisse, entleeren Schmutzwasser und laden sich eigenständig wieder auf.“ (Website Flughafen Zürich) Inzwischen taucht auch BellaBot auf, den Zürcher bereits von Hiltl Sihlpost kennen. Der Transportroboter wurde zum Abfallsammelroboter umfunktioniert. Er rollt direkt zu den Besuchern und Passagieren, die etwas für ihn haben könnten, etwa eine Plastikflasche oder Restmüll. Das Angebot wird nicht nur rege angenommen – viele sind auch begeistert von dem freundlichen Katzengesicht und den Plastikohren und berühren BellaBot oder machen Selfies.

Abb.: Stefanie Hauske mit BellaBot

Ein Allzweckroboter als Wohnaccessoire

Im Wahlmodul „Soziale Roboter“ im HS 2026 wurde mehrfach über den robotischen Zweibeiner NEO diskutiert. Prof. Dr. Oliver Bendel stellte fest, dass dieser wie ein Wohnaccessoire aussehe und sich nahtlos in die gezeigten Umgebungen einfüge, die nach Schöner Wohnen und IKEA aussehen. Das schwedische Unternehmen könnte ihn in seit Sortiment aufnehmen, als NYRÅBOT oder ROBÖT. Beanstandet wurde in der Gruppe, dass der künstliche Haushaltsgehilfe im Moment nur wenige Funktionen autonom ausführen kann. Zwar gehört dies zum Konzept, und 1X aus Palo Alto will nach und nach weitere Updates zur Verfügung stellen, aber ob man damit zum Ziel eines Allzweckroboters kommt, der seinen Namen verdient, ist noch ungewiss. Dabei muss NEO lediglich im Haushalt bestehen – wo aber zahlreiche komplexe Aufgaben auf ihn warten. Dennoch ist Oliver Bendel optimistisch, dass in fünf bis zehn Jahren mehrere Modelle zur Verfügung stehen, die Pflegebedürftigen, aber auch Einzelstehenden, Paaren oder Familien mit Zeitdruck von Nutzen sein können. In seinem Paper „The Universal Robot of the 21st Century“ – vorgestellt auf der Robophilosophy 2024 – hat er bereits die nächste Stufe skizziert, den universellen Roboter. Er hat zugleich darauf hingewiesen, dass dieser zahlreiche Herausforderungen mit sich bringt. Wir brauchen langweilige Tätigkeiten, wir brauchen sich wiederholende Tätigkeiten, um ruhig und erfinderisch zu werden. Eine Möglichkeit bestehe darin, so der Technikphilosoph im Unterricht, dass der Roboter mit dem Menschen im Tandem bzw. Team arbeite. Man bügelt drei Hemden und übergibt dann an NEO, man setzt die ersten Blumenzwiebeln und lässt ihn den Rest erledigen. Und abends lässt man ihn auf dem Sofa ausruhen, wo er zwischen den Kissen und Decken kaum auffällt.

Abb.: NEO im Einsatz (Foto: 1X/Courtesy of 1X)

Autonome Shuttles für die Hauptstadt

„Im Berliner Nordwesten beginnt die autonome Revolution.“ Dies meldete BVG in einer Medienmitteilung mit dem Titel „Jetzt geht’s los! Autonome Shuttles für die Hauptstadt“ vom 17. Oktober 2025. Die ersten Fahrzeuge des Typs VW ID. Buzz AD seien im öffentlichen Straßenverkehr unterwegs, ausgestattet mit Level-4-Technologie inklusive Softwaresystem und Services der Volkswagen-Tochter MOIA. „Ziel des Projekts ist es, den klassischen Nahverkehr mit flexiblen, autonomen Angeboten zu verknüpfen …“ (Medienmitteilung BVG) Die Projektpartner haben laut Medienmitteilung „im Beisein von Bundesverkehrsminister Patrick Schnieder den offiziellen Startschuss für das Projekt gegeben“. „Was jetzt als Pilotvorhaben beginnt, bereitet den späteren Hochlauf der deutschlandweit größten Flotte autonomer Fahrzeuge als Teil des ÖPNV-Systems unmittelbar vor. Die Ergebnisse des Piloten sind skalierbar auf größere Fahrzeugzahlen bis in den fünfstelligen Bereich sowie auf ein erweitertes Einsatzgebiet.“ (Medienmitteilung BVG) Ein ähnliches Projekt wurde 2016 in Sion im Wallis begonnen. Das SmartShuttle war fünf Jahre lang erfolgreich unterwegs, mit geringer Geschwindigkeit und auf virtuellen Gleisen. Es hat sich in dieser Zeit kein einziger Personenunfall ereignet. Danach wurden mehrere vergleichbare Projekte in der Schweiz lanciert. In Deutschland ist man spät dran, aber man ist dran. Laut der Medienmitteilung ist das Vorhaben für Berlin ein wichtiger Schritt in die digitale Zukunft, mit einer „Symbolwirkung über die Hauptstadt hinaus“.

Abb.: Die BVG ist in Berlin überall präsent

Figure 03 soll im Haushalt helfen

Am 9. Oktober 2025 stellte Figure seinen neuesten Allzweckroboter namens Figure 03 vor. Mithilfe der KI-Plattform Helix kann er Sprache verstehen, seine Umgebung analysieren und interpretieren und geeignete Maßnahmen ergreifen. Figure 03 ist für den Haushalt gedacht, wo er Wäsche waschen oder die Spülmaschine ein- und ausräumen soll. Er ist mit weichen Textilien statt mit harten, maschinell bearbeiteten Teilen verkleidet. Das Gesicht ist wie bei früheren Modellen maskenhaft und unnahbar. Er hat integrierte Handflächenkameras und Finger mit taktilen Sensoren. Das Unternehmen schreibt dazu: „Each fingertip sensor can detect forces as small as three grams of pressure – sensitive enough to register the weight of a paperclip resting on your finger. This precision enables Helix to distinguish between a secure grip and an impending slip before it occurs, allowing fine-grained, dexterous control over fragile, irregular, or moving objects.“ (Website Figure) In den nächsten Jahren sollen hunderttausende Modelle produziert werden. Weitere Informationen sind über www.figure.ai/figure verfügbar.

Abb.: Figure 03 soll im Haushalt helfen (Bild: ChatGPT/4o Image)

Kick-off-Meeting des Projekts DEEP VOICE

Das Projekt DEEP VOICE startete am 3. September 2025. Es wurde von Prof. Dr. Oliver Bendel initiiert. Als Projektmitarbeiter konnte der Machine-Learning-Experte Florian Karrer gewonnen werden. Er wird in diesem Zusammenhang seine Abschlussarbeit an der Hochschule für Wirtschaft FHNW schreiben. „DEEP VOICE“ steht für „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. Das Projekt zielt darauf ab, die symbolische Sprache von Walen zu entschlüsseln. Dafür soll radikal die Perspektive des Tiers eingenommen werden. Es soll ein Modell von ihm, seinem Verhalten und seiner Umwelt entstehen, das dann als Grundlage für die Sprachverarbeitungskomponente dient. Das Projekt verbindet biologische und ethologische Grundlagen mit Ansätzen des Machine Learning und will so zu einem besseren Verständnis der nichtmenschlichen Intelligenz und Kommunikation sowie – über die Tier-Computer-Interaktion (Animal-Computer Interaction, ACI) – zur Mensch-Tier-Interaktion beitragen. Oliver Bendel und seine Studenten haben sich bisher vor allem auf die Körpersprache von Haus- und Nutztieren (The Animal Whisperer Project) sowie das Verhalten von Haustieren (The Robodog Project) und Wildtieren (VISUAL) konzentriert. Zudem wurde ein Konzept für die Gesichtserkennung bei Bären erstellt, mit dem Ziel, invasives Tracking zu vermeiden.

Abb.: Zwei Wale im Meer

Das neue LLM verwendet Standardsprache

Erste Tests mit Apertus haben ergeben, dass die Voreinstellung die Nutzung der Standardsprache bedeutet. Dies ist erfreulich – und aus mehreren Gründen nicht selbstverständlich. Zunächst einmal ist die ETH Zürich dafür bekannt, in Medienmitteilungen, auf ihrer Website und in Dokumenten von der Standardsprache abzuweichen und eine Sondersprache (die Gendersprache) anzuwenden. Die Forscher, die an Apertus mitgewirkt haben, sind offensichtlich nicht diesem Weg gefolgt. Zudem geht bei dominanten Chatbots wie ChatGPT das Default mit der Anwendung der Sondersprache einher. Selbst wenn man Standardsprache verlangt, wird dies immer wieder ignoriert. Wie Claude sieht auch Apertus nach ersten Erkenntnissen von solchen Arten der Beeinflussung ab. Dies ist ein wichtiger Schritt, um eine befriedigende Nutzung für alle zu ermöglichen und eine weitergehende Spaltung zu verhindern. Wer dennoch eine andere Sprache ausgegeben haben will, wird daran nicht gehindert – das LLM passt sich an die Wünsche und Bedürfnisse der Benutzer an. Wer Apertus ausprobieren will, kann dies über Public AI tun. Man muss sich lediglich registrieren und kann dann sofort loslegen. Mit einem sprachlich neutralen LLM. Aus der angeblich neutralen Schweiz.

Abb.: Mit Apertus im Gespräch

Zur Veröffentlichung von Apertus

„Die EPFL, die ETH Zürich und das Schweizerische Supercomputing-Zentrum CSCS haben heute Apertus veröffentlicht: Das erste umfangreiche, offene und mehrsprachige Sprachmodell aus der Schweiz. Damit setzen sie einen Meilenstein für eine transparente und vielfältige generative KI.“ Dies ist einer Medienmitteilung der ETHZ vom 2. September 2025 zu entnehmen. Apertus steht in zwei Versionen mit 8 und 70 Milliarden Parametern zur Verfügung und eignet sich für vielfältige Anwendungen, von Forschung über Bildung bis zur Industrie. Trainiert wurde das Modell auf 15 Billionen Tokens in über 1000 Sprachen, darunter Schweizerdeutsch und Rätoromanisch. Damit eignet es sich vermutlich auch dafür, bereits eingestellte Chatbots wie @llegra (für Vallader) von Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Dalil Jabou in einer neuen Version aufleben zu lassen und bereits in Entwicklung begriffene Chatbots wie IdiomVoice (für Sursilvan, ein Projekt der FH Graubünden unter Beteiligung der Hochschule für Wirtschaft FHNW, wieder in Person von Oliver Bendel, und der OST – Ostschweizer Fachhochschule) zu unterstützen. Zugänglich ist das neue Modell über Swisscom sowie weltweit über Hugging Face und die Public AI Inference Utility. Erste praktische Tests und Feedbackrunden erfolgen im Rahmen der Swiss {ai} Weeks.

Abb.: Eine Parkbank in der Surselva

Ein Avatar als Superheldin

„Der bekannteste Autor von Handyromanen im deutschsprachigen Bereich ist der promovierte Wirtschaftsinformatiker Oliver Bendel aus Zürich.“ Dies schrieb die ZEIT am 13. März 2009. Bereits 2007 hatte er den Trend aus Japan nach Europa geholt. Es entstand eine Serie um die Privatdetektivin Lucy Luder und eine um die Superheldin Handygirl, einen Avatar auf dem Handy, der sich bei Gefahr für seine Besitzerin materialisiert und ihr aus der Patsche hilft. Die Handyromane waren Java-Umsetzungen, die über Premium-SMS-Server vertrieben wurden. Das Ende kam mit dem Erfolg des iPhone, das Java verschmähte. Der letzte Teil mit der kleinen Superheldin erschien 2010. Avatare waren bereits um die Jahrtausendwende bekannt und beliebt, als Repräsentanten von Benutzern in Computerspielen und als Visualisierungen von Chatbots. Auch die ersten Nachrichtensprecher waren zu sehen. Handygirl lebte noch für einige Zeit in Handyhaikus weiter, die 2010 in Form von QR-Codes veröffentlicht worden waren. Heute sind Avatare wieder ein Hype. Sie sprechen wieder News vor und vertreten Benutzer bei Meetings. Zuletzt hat Ani für Furore gesorgt, eine Visualisierung von Grok.

Abb.: Eine Handyromanleserin im Jahre 2010

AI for Non-Human Animal Communication

Recent advancements in artificial intelligence (AI) and bioacoustics have opened a unique opportunity to explore and decode animal communication. With the growing availability of bioacoustic data and sophisticated machine learning models, researchers are now in a position to make significant strides in understanding non-human animal languages. However, realizing this potential requires a deliberate integration of AI and ethology. The AI for Non-Human Animal Communication workshop at NeurIPS 2025 will focus on the challenges of processing complex bioacoustic data and interpreting animal signals. The workshop will feature keynote talks, a poster session, and a panel discussion, all aimed at advancing the use of AI to uncover the mysteries of animal communication and its implications for biodiversity and ecological conservation. The workshop is inviting submissions for short papers and proposals related to the use of AI in animal communication. Topics of interest include bioacoustics, multimodal learning, ecological monitoring, species-specific studies, and the ethical considerations of applying AI in animal research. Papers should present novel research, methodologies, or technologies in these areas, and will undergo a double-blind review process. The paper submission deadline is September 5, 2025, with notifications of acceptance by September 22, 2025. More information is available at aiforanimalcomms.org.

Fig.: Nonhuman primates in conversation

Video zum VISUAL-Projekt

Zum Projekt VISUAL liegt seit 29. August 2025 ein Video vor, das das System im Betrieb zeigt. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem MLLM, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Das Video kann über www.informationsethik.net/videos/ abgerufen werden.

Abb.: Das VISUAL-System

Launch of the DEEP VOICE Project

The DEEP VOICE project will be launched at the FHNW School of Business in early September 2025. It was initiated by Prof. Dr. Oliver Bendel. „DEEP VOICE“ stands for „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. The project aims to decode symbolic forms of communication in animals, especially whales. It is based on the conviction that animal communication should not be interpreted from a human perspective, but understood in the context of the species-specific environment. The focus is therefore on developing an AI model that is trained on the basis of a comprehensive environmental and behavioral model of the respective animal. By integrating bioacoustic data, ecological parameters, and social dynamics, the aim is to create an animal-centered translation approach that allows the identification of meaning carriers in animal vocalizations without distorting them anthropocentrically. The project combines modern AI methods with ethological and ecological foundations and thus aims to contribute to a better understanding of non-human intelligence and communication culture and to animal-computer interaction. Oliver Bendel and his students have so far focused primarily on the body language of domestic and farm animals (The Animal Whisperer Project) and the behavior of domestic (The Robodog Project) and wild animals (VISUAL).

Fig.: A whale in the ocean