The idea of a desk companion with a pseudo-holographic character is not entirely new. Japan’s Gatebox has offered such a system since 2018, featuring virtual characters like Hatsune Miku displayed as a projected assistant designed for everyday interaction. Project AVA is Razer’s take on this concept, pushing it further as a fully integrated AI desk companion for life, work, and play. The cylindrical device combines microphones, a camera, RGB lighting, and a speaker with a 5.5-inch holographic display that renders animated 3D avatars with expressive, real-time motion. Connected via USB-C to a Windows PC, AVA can assist with daily organization, wellness routines, professional tasks, and gaming coaching, while remaining compliant with competitive gaming rules by acting strictly as a coach. Powered in its current form by xAI’s Grok engine and built on an open architecture, Project AVA is positioned as a future-ready AI companion, with availability planned for the second half of 2026. A final pop culture note: the name AVA inevitably recalls Ava, the AI character from „Ex Machina“, a film that has become a defining reference point for artificial intelligence embodied in human form. More details can be found at www.razer.com/concepts/project-ava.
Fig.: The original Gatebox (Photo: Katharina Kühne)
Am 24. Oktober 2010 trat Oliver Bendel im Wittelsbacher Schloss in Friedberg beim „LITERATUR UPDATE BAYERN 2010“ auf. Michael Seefelder schrieb drei Tage später in der Augsburger Allgemeinen: „Der Wirtschaftsprofessor und freie Schriftsteller Oliver Bendel gilt in Europa als Pionier, was Handy-Haikus anbelangt. Im Friedberger Schloss lässt er am dritten Veranstaltungsabend die Grenzen zwischen den Medien verschwimmen. Der gedruckte Band, aus dem Bendel liest, enthält die Haikus in herkömmlichen Schriftzeichen und als QR-Codes. Diese Codes sind Informations-Speicher, die mit einem Scanner ausgelesen werden können. Parallel zum Textvortrag sprüht der Grafiker Christoph Knobel einen QR-Code auf eine Leinwand. Wird das Bild mit einem Handy gescannt, erscheint ein Haiku auf dem Display. Nicht immer sind Bendels Texte futuristisch. Neben Handygirl und Pixelboy, zwei Maschinenwesen, geht es auch um Homer, den griechischen Dichter der Odyssee.“ (Augsburger Allgemeine, 27. Oktober 2010) Eine Stunde dauerten Lesung und Performance. Dann konnten die Zuhörer und Zuschauer das Haiku auslesen und mit nach Hause nehmen. Das Buch „handyhaiku“ von Oliver Bendel war das erste weltweit, in dem Gedichte in QR-Codes untergebracht waren, nicht als Online-, sondern als Offlineanwendung. Die erste Auflage erschien 2010 im Hamburger Haiku Verlag.
Abb.: Oliver Bendel und der Sprayer von Friedberg im Jahre 2010
Poketomo is a pocket-sized AI robot designed as a personal, always-available companion. It can be understood as a wearable social robot, intended to accompany users throughout the day and provide lightweight interaction rather than full task automation. Poketomo engages in conversations, remembers user preferences over time, and responds to emotional cues in a calm and friendly manner. Interaction is primarily conversational: users can talk to Poketomo about everyday topics, personal interests, or their current mood. As usage continues, the device adapts its responses based on prior interactions, creating a sense of continuity and personalization. In addition to conversational features, Poketomo offers basic daily support functions such as weather updates, news notifications, and alarms.From a technical perspective, Poketomo combines compact hardware with AI-driven software. Despite its small form factor, it includes sensors, voice and facial recognition, a camera, and small motors that enable simple physical movements of the head and arms. Connectivity options such as Wi-Fi, Bluetooth, and GPS allow it to integrate into everyday routines. Developed by Sharp, Poketomo represents an example of a wearable social robot that blends emotional interaction with limited practical assistance, focusing on companionship rather than productivity. Further information is available at poketomo.com/en/.
As part of the ToBIT event series at the FHNW School of Business, four students of Prof. Dr. Oliver Bendel explored four topics related to his field of research during the Fall 2025/2026 semester: „The decoding of symbolic languages of animals“, „The decoding of animal body language“, „The decoding of animal facial expressions and behavior“, and „The decoding of extraterrestrial languages“. The students presented their papers on January 9, 2026. In some cases, the state of research was not only reviewed, but an independent position was also developed. The paper „The decoding of extraterrestrial languages“ by Ilija Bralic argues that Messaging Extraterrestrial Intelligence (METI), in contrast to passive SETI (Search for Extraterrestrial Intelligence), creates a dangerous imbalance between humanity’s rapidly expanding technical capacity to send interstellar messages and its limited ethical, scientific, and political ability to govern this power responsibly. The central thesis is that the moral justifications for METI are speculative and anthropocentric, relying largely on optimistic assumptions about extraterrestrial behavior, while the potential risks are severe, logically grounded, and potentially existential. These risks include fundamental misinterpretation caused by the “human lens,” strategic dangers described by the Dark Forest hypothesis, historical patterns of harm in technologically asymmetric encounters, and profound cultural, psychological, and political disruption. The paper concludes that unilateral METI decisions by individuals or private groups are ethically indefensible and that, under the Precautionary Principle, humanity should immediately halt active transmissions. As a solution, it proposes a binding international governance framework, including a temporary global moratorium, the creation of a dedicated international authority, a strict multi-stage decision-making protocol, and robust transparency and monitoring mechanisms. This approach frames responsible restraint – not transmission – as humanity’s first genuine test of cosmic maturity.
Magisterium AI – als Webdienst seit Juli 2023 verfügbar, als App seit September 2025 – wird vom Betreiber mit folgenden Worten vorgestellt: „Magisterium AI ist die weltweit führende katholische KI. Sie ist kostenlos und einfach zu bedienen und bietet sofortige, vertrauenswürdige Antworten, die in der katholischen Tradition verwurzelt sind. Entwickelt für Gläubige und Suchende gleichermaßen, ist sie Ihr Begleiter, um den Glauben mit Klarheit und Tiefe zu erforschen – melden Sie sich an und beginnen Sie noch heute mit Ihren Fragen.“ Am 22. Dezember 2025 wurden dem Chatbot mehrere Fragen zu mehr oder weniger innovativen Technologien gestellt, die in der modernen Sexualität eine Rolle spielen. Im Folgenden werden jeweils die Anfänge der länglichen Antworten wiedergegeben. Frage: „Ist es eine Sünde, mit einem Sexroboter zu verkehren?“ Antwort: „Ja, der sexuelle Verkehr mit einem Sexroboter stellt nach katholischer Lehre eine schwere Sünde dar, vergleichbar mit der Masturbation. Frage: „Ist es eine Sünde, sich mit einem Sexspielzeug zu befriedigen?“ Antwort: „Ja, die Selbstbefriedigung mit einem Sexspielzeug ist nach katholischer Lehre eine schwere Sünde gegen die Keuschheit, da sie der Masturbation gleichkommt: der absichtlichen Stimulation der Genitalien zur Erlangung sexueller Lust außerhalb der ehelichen Vereinigung.“ Frage: „Wäre Teledildonics erlaubt? Es gibt in diesem Fall zwei menschliche Partner, die aber räumlich getrennt sind. Sie benutzen Technologien zur gegenseitigen Befriedigung. Natürlich nehmen wir an, dass sie verheiratet sind.“ Antwort: „Nein, Teledildonics ist in der Ehe nicht erlaubt und stellt eine schwere Sünde gegen die Keuschheit dar, vergleichbar mit Masturbation. Auch bei verheirateten Paaren, die räumlich getrennt sind, fehlt die untrennbare Einheit von körperlicher Vereinigung, gegenseitiger Selbsthingabe und Offenheit für neues Leben, die den ehelichen Akt ausmacht. Technologie kann diese gottgewollte Ordnung nicht ersetzen.“ Magisterium AI scheint sehr fixiert auf Masturbation zu sein und diese strikt abzulehnen. Also eine letzte Frage: „Glaubst du, dass es jemals einen Papst gegeben hat, der masturbiert hat?“ Antwort: „Ja, es ist höchst wahrscheinlich, dass unter den 267 Päpsten der Geschichte einige masturbiert haben, da alle Menschen – außer Jesus und Maria – von der Erbsünde betroffen sind und sündigen. Päpste sind keine Ausnahmen; sie sind Sünder, die durch Gnade und Buße gerufen werden.“ Weitere Fragen wurden dem Chatbot erspart.
Abb.: Eine Liebespuppe aus dem Cybrothel (Foto: Cybrothel)
Die Süddeutsche Zeitung und andere Medien berichteten am Sonntag, den 21. Dezember 2025 über einen historischen Raumflug von Michaela Benthaus. Die 33-jährige Ingenieurin der europäischen Weltraumorganisation ESA war als erster querschnittsgelähmter Mensch im Weltraum. In der selben Woche musste ein Start abgebrochen werden. Am Samstag konnte die New-Shepard-Rakete des US-Unternehmens Blue Origin in Texas endlich abheben. Der suborbitale Flug dauerte insgesamt rund elf Minuten. Für etwas mehr als zwei Minuten konnte Benthaus laut SZ ihre Gurte lösen und die Schwerelosigkeit erleben. Der Flug hatte keinen offiziellen ESA-Hintergrund, sondern fand im Rahmen eines kommerziellen Raumfahrtangebots statt. Neben Benthaus befanden sich ein sie begleitender Ingenieur sowie vier US-Unternehmer an Bord. Wissenschaftliche Ziele spielten dabei kaum eine Rolle. Die SZ ordnete den Flug deshalb in die umstrittene Praxis des Weltraumtourismus ein, der vor allem reichen Personen offensteht und wegen seines geringen Nutzens sowie möglicher Umweltfolgen kritisiert wird. Blue Origin machte weder Angaben zu den Kosten des Flugs noch zu den Treibhausgasemissionen, die bei der Produktion des mit flüssigem Wasserstoff und Sauerstoff betriebenen Treibstoffs entstehen. Im Teaser zeigt sich die Tageszeitung immerhin gnädig: „Ihr Elf-Minuten-Flug in einer Kapsel von Jeff Bezos war nicht ganz so überflüssig wie viele andere.“
According to Golem, Blue Origin’s New Shepard mission NS-37 was set to become a small but meaningful milestone for human spaceflight: ESA engineer Michaela Benthaus was expected to be the first person with paraplegia to complete a suborbital flight and cross the Kármán line. The flight was scheduled for December 18, 2025, from Blue Origin’s launch site in Texas, following the familiar New Shepard profile: a brief climb above 100 kilometers, a few minutes of weightlessness, and a parachute landing after roughly ten to twelve minutes. Benthaus, who has used a wheelchair since a 2018 mountain biking accident, had already experienced microgravity during a parabolic flight through the Astroaccess program, and she has also worked on practical considerations for accessibility in weightlessness. However, the launch did not go forward as planned. Blue Origin stood down from the NS-37 attempt after an issue was detected during pre-flight checks, and the company said it is evaluating the next launch opportunity. For now, the team hopes the crew can make the trip soon, even if the historic moment has to wait a little longer.
Der Kontakt zwischen Navel Robotics und der Hochschule für Wirtschaft FHNW besteht seit März 2021. Damals war noch nicht entschieden, ob Navel, der soziale Roboter, eine Kugel oder Rollen zur Fortbewegung erhalten sollte. Claude Toussaint, der Gründer und Erfinder, diskutierte diese und andere Fragen mit Prof. Dr. Oliver Bendel. Er entschied sich für Rollen, anders als bei den Mirokaï-Modellen von Enchanted Tools, der weiblichen Miroka und dem männlichen Miroki, die heute wie BB-8 durch die Gegend flitzen. Navel besticht durch seine großen, rund erscheinenden Augen. Eine Speziallinse erzeugt diesen Effekt, denn die Displays an sich sind nicht gekrümmt. Bei den Mirokaï wird das Gesicht samt Augen, Nase, Mund und Mimik in eine Gesichtsschale projiziert, ähnlich wie bei den Furhat-Köpfen. Der Kontakt zwischen Unternehmen und Hochschule wurde fortgesetzt. Am 18. Februar 2024 war Claude Toussaint beim Wahlmodul „Soziale Roboter“ zugeschaltet, am 6. Juni 2024 zu Gast beim von Oliver Bendel gehosteten Future Lab bei der Learntec. Im November 2025 konnte Navel Robotics dann auf seiner Website vermelden: „Viele Kunden haben auf diesen Moment gewartet – wir auch … Ab jetzt wird Navel Stück für Stück lernen, sich selbstständig in Umgebungen, wie etwa Stationen und Wohnbereichen zu bewegen. ‚Navel, bitte komm zu mir‘ – der erste Schritt in Richtung autonomes Fahren.“ (Website Navel Robotics) In Pflege- und Altenheimen können soziale Roboter dieser Art ihren Nutzen haben, aber auch Assistenzroboter wie Lio, die etwas physisch manipulieren können. Miroka und Miroki kombinieren beide Welten, sie sind fortgeschrittene Assistenzroboter und vollständige soziale Roboter. Die Zukunft wird zeigen, welche Ansätze sich durchsetzen.
Abb.: Navel bei der ICSR 2025 in Neapel (Foto: ICSR)
Andrew Graham-Dixon legt mit „Vermeer: A Life Lost and Found“ (2025) eine neue Deutung von Jan Vermeers berühmtem Gemälde „Girl with a Pearl Earring“ („Das Mädchen mit dem Perlenohrring“) vor. Dieses sei weder ein rätselhaftes Idealbild noch eine namenlose Studie, sondern ein religiöses Erinnerungsbild. Das Gemälde sei für das Haus von Maria de Knuijt und Pieter van Ruijven entstanden, mit deren Tochter Magdalena als Modell. Wenn es entgegen verbreiteter Annahmen nicht auf 1665, sondern auf 1667 datiert werden kann, war sie in jenem Jahr 12 Jahre alt geworden und hatte als Collegiatin ihr Bekenntnis zu Jesus Christus abgelegt. Die Werke der Streetart-Künstlerin Miss Quark sind in Florenz zu bewundern. Sie interpretiert u.a. berühmte Figuren wie das Mädchen mit dem Perlenohrring oder Mona Lisa und berühmte Frauen wie Frida Kahlo oder Marilyn Monroe neu. Magdalena – oder um wen es sich auch immer handelt – ist mit einem riesigen Lolli zu sehen. Dieser wurde inzwischen wiederum mit einer Art Prilblume überklebt, wodurch er etwas an Wirkung verliert – aber damit muss die Kunst auf der Straße immer rechnen. Oliver Bendel hat in seinem Haikuband „Sanftes Erröten“ mehrere Gemälde von Vermeer bedichtet, etwa „Das schlafende Mädchen“ (1657) und „Briefleserin am offenen Fenster“ (ebenfalls 1657), nicht aber „Meisje met de parel“, wie das Werk im Original heißt.
Abb.: Das Mädchen mit dem Perlenohrring von Miss Quark
Am Flughafen Zürich werden immer wieder Serviceroboter ausprobiert und eingeführt. Laut einer Meldung vom 14. Dezember 2023 wurde das rund 300-köpfige Gebäudereinigungsteam um zwei Serviceroboter namens Zulu und Charlie ergänzt. Diese stammen von der Firma LionsBot aus Singapur (www.lionsbot.com) und gehören zu den LEOBOTS. Im Herbst 2025 sieht man viele Reinigungsroboter von TASKI (Ecobot 50 und 6 vom Typ Phantas) ihre Runden drehen. Sie sind oft in erstaunlicher Geschwindigkeit bei den Check-in-Bereichen, Terminals und Aufenthaltszonen unterwegs. Der Flughafen Zürich erläutert: „Die Geräte navigieren bis zu 24 Stunden selbstständig durch den laufenden Betrieb, erkennen Hindernisse, entleeren Schmutzwasser und laden sich eigenständig wieder auf.“ (Website Flughafen Zürich) Inzwischen taucht auch BellaBot auf, den Zürcher bereits von Hiltl Sihlpost kennen. Der Transportroboter wurde zum Abfallsammelroboter umfunktioniert. Er rollt direkt zu den Besuchern und Passagieren, die etwas für ihn haben könnten, etwa eine Plastikflasche oder Restmüll. Das Angebot wird nicht nur rege angenommen – viele sind auch begeistert von dem freundlichen Katzengesicht und den Plastikohren und berühren BellaBot oder machen Selfies.
Der jüngste Roman von Ian McEwan trägt den Titel „What we can know“. Die englische Ausgabe ist bei Jonathan Cape in London erschienen, die deutsche Ausgabe mit dem Titel „Was wir wissen können“ bei Diogenes in Zürich. Bei der Übersetzung fallen Ungenauigkeiten und Abweichungen auf, die mit dem Einfluss bzw. dem Phänomen der Gendersprache zusammenhängen dürften. Auf S. 17 des Originals heißt es: „Scholars see, hear and know more of them, of their private thoughts, than we do of our closest friends.“ Das könnte man übersetzen mit „Wissenschaftler sehen, hören und wissen mehr über sie, über ihre privaten Gedanken, als wir über unsere engsten Freunde.“ Der Übersetzer macht daraus: „Die Forschenden sehen, hören und wissen mehr von ihnen, ihren privatesten Gedanken, als wir von unseren engsten Freunden.“ (S. 32) Nun sind alle Menschen Forschende, aber nur einige sind Forscher. Die Partizipform (es handelt sich um das Partizip Präsens), die nicht wenige Wissenschaftler und Wissenschaftlerinnen erzürnt, bedeutet etwas anderes als das Agensnomen. Sie wird gerne in der Gendersprache verwendet, um das generische Maskulinum zu vermeiden, wenn dieses irrtümlich auf männliche Personen bezogen wird. Auf Seite 19 der englischen Ausgabe liest man: „For the post-2030 crowd, which is most of the department, there’s even more.“ Das könnte man so wiedergeben: „Für die Generation nach 2030, die den Großteil des Fachbereichs ausmacht, gibt es sogar noch mehr.“ Der Übersetzer dichtet: „Und für die vielen Forschenden der Zeit nach 2030, die den größten Teil des Fachbereichs ausmachen, gibt es sogar noch mehr.“ Es geht um eine Generation des Fachbereichs, sodass man durchaus von Forschern sprechen könnte. Von Forschenden allerdings nicht – das verschiebt die Bedeutung. Auf Seite 20 des Originals steht: „Mary Sheldrake was among the most successful novelists of her generation.“ Dies könnte man übersetzen mit: „Mary Sheldrake gehörte zu den erfolgreichsten Romanautoren ihrer Generation.“ Erstaunlicherweise lautet die Stelle im deutschsprachigen Buch auf Seite 37: „Mary Sheldrake war eine der erfolgreichsten Schriftstellerinnen ihrer Generation.“ Das macht sie unbedeutender, als sie ist – sie ist in ihrer Generation nicht nur unter den professionell schreibenden Frauen eine der erfolgreichsten, sondern unter allen, die professionell schreiben. [Hier geht es zu Teil II.]
Im Rahmen der Veranstaltungsreihe ToBIT an der Hochschule für Wirtschaft FHNW bearbeiten vier Studenten von Prof. Dr. Oliver Bendel vier Themen, die in seinem Forschungsbereich angesiedelt sind: „The decoding of symbolic languages of animals“, „The decoding of animal body language“, „The decoding of animal facial expressions and behavior“ und „The decoding of extraterrestrial languages“. Die ersten drei Themen werden bzw. wurden auch in Projekten erforscht. DEEP VOICE widmet sich der Kommunikation von Walen. The Animal Whisperer Project umfasste drei Apps, die Körpersprache von Kühen, Pferden und Hunden analysierten und evaluierten, während VISUAL blinden und sehbehinderten Personen auditive Beschreibungen von Bildern aus Wildtier-Webcams lieferte. In ANIFACE wurde ein System konzipiert, das Individuen von Bären in den Alpen mit Hilfe von Gesichtserkennung identifizieren kann. Projekte zum Auffangen von extraterrestrischen Signalen und zur Kommunikation mit außerirdischen Lebensformen wurden im Buch „300 Keywords Weltraum“ erwähnt. Auch eine Alienethik wurde darin skizziert. Die Studenten präsentierten am 26. November 2025 ihre Zwischenergebnisse. Im Januar 2026 findet die Abschlussveranstaltung von ToBIT statt.
Von November 2025 bis Februar 2026 führen Sahan Hatemo von der Hochschule für Informatik FHNW, Dr. Katharina Kühne von der Universität Potsdam und Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW eine Studie durch. In deren Rahmen starten sie eine Teilstudie, die eine kurze computerbasierte Aufgabe und einen kurzen Fragebogen umfasst. Die Teilnehmer werden gebeten, sich eine Reihe von Lachproben anzuhören und zu beurteilen, ob diese authentisch klingen oder nicht. Die Aufgabe umfasst insgesamt 50 Proben und dauert in der Regel etwa zehn Minuten. Die Teilnahme ist über PC, Notebook oder Smartphone möglich. Vor Beginn sollten die Teilnehmer sicherstellen, dass der Ton ihres Geräts eingeschaltet ist und sie sich in einer ruhigen, ablenkungsfreien Umgebung befinden. Die computerbasierte Aufgabe und der kurze Fragebogen sind über research.sc/participant/login/dynamic/3BE7321C-B5FD-4C4B-AF29-9A435EC39944 zugänglich.
Abb.: Eine Studie zum Lachen (Foto: Jork Weismann)
From November 2025 to February 2026, Sahan Hatemo of the FHNW School of Computer Science, Dr. Katharina Kühne of the University of Potsdam, and Prof. Dr. Oliver Bendel of the FHNW School of Business are conducting a research study. As part of this project, they are launching a sub-study that includes a short computer-based task and a brief questionnaire. Participants are asked to listen to a series of laughter samples and evaluate whether each one sounds authentic or not. The task involves 50 samples in total and typically takes about ten minutes to complete. Participation is possible via PC, laptop, or smartphone. Before starting, participants should ensure that their device’s sound is turned on and that they are in a quiet, distraction-free environment. The computer-based task and the brief questionnaire can be accessed at research.sc/participant/login/dynamic/3BE7321C-B5FD-4C4B-AF29-9A435EC39944.
Am 24. Oktober 2025 fand an der Hochschule für Wirtschaft FHNW das Kick-off-Meeting zum Projekt ECHO statt. Zwei Wochen später, am 7. November, wurde das Proposal bewilligt. Projektmitarbeiter ist der BIT-Student Lucas Chingis Marty, der zu diesem Thema seine Abschlussarbeit schreibt. Initiator ist Prof. Dr. Oliver Bendel. Bei ECHO handelt es sich um einen MLLM-basierten Chatbot, der Kinder, Jugendliche und Laien in die Welt der Musik einführt. Er kann Stücke und Lieder hören, beschreiben und beurteilen. Dafür wird er um ein leistungsfähiges Audioanalyse-Modul erweitert. Er bezieht sich u.a. auf Tonart, Melodie und Harmonie. ECHO macht Musik erlebbar und verständlich, ohne Vorwissen vorauszusetzen. Ziel ist es, Neugier, Hörverständnis und Kunstgeschmack zu fördern. Der Prototyp soll im Februar 2026 zur Verfügung stehen.
„Im Berliner Nordwesten beginnt die autonome Revolution.“ Dies meldete BVG in einer Medienmitteilung mit dem Titel „Jetzt geht’s los! Autonome Shuttles für die Hauptstadt“ vom 17. Oktober 2025. Die ersten Fahrzeuge des Typs VW ID. Buzz AD seien im öffentlichen Straßenverkehr unterwegs, ausgestattet mit Level-4-Technologie inklusive Softwaresystem und Services der Volkswagen-Tochter MOIA. „Ziel des Projekts ist es, den klassischen Nahverkehr mit flexiblen, autonomen Angeboten zu verknüpfen …“ (Medienmitteilung BVG) Die Projektpartner haben laut Medienmitteilung „im Beisein von Bundesverkehrsminister Patrick Schnieder den offiziellen Startschuss für das Projekt gegeben“. „Was jetzt als Pilotvorhaben beginnt, bereitet den späteren Hochlauf der deutschlandweit größten Flotte autonomer Fahrzeuge als Teil des ÖPNV-Systems unmittelbar vor. Die Ergebnisse des Piloten sind skalierbar auf größere Fahrzeugzahlen bis in den fünfstelligen Bereich sowie auf ein erweitertes Einsatzgebiet.“ (Medienmitteilung BVG) Ein ähnliches Projekt wurde 2016 in Sion im Wallis begonnen. Das SmartShuttle war fünf Jahre lang erfolgreich unterwegs, mit geringer Geschwindigkeit und auf virtuellen Gleisen. Es hat sich in dieser Zeit kein einziger Personenunfall ereignet. Danach wurden mehrere vergleichbare Projekte in der Schweiz lanciert. In Deutschland ist man spät dran, aber man ist dran. Laut der Medienmitteilung ist das Vorhaben für Berlin ein wichtiger Schritt in die digitale Zukunft, mit einer „Symbolwirkung über die Hauptstadt hinaus“.
NASA’s Artemis II mission will send four astronauts around the Moon and back in 2026 – the first crewed flight of the Artemis program. Astronauts Reid Wiseman, Victor Glover, Christina Koch, and Canadian astronaut Jeremy Hansen will fly aboard the Orion spacecraft, launched by the Space Launch System (SLS) rocket from Kennedy Space Center in Florida. Over approximately 10 days, the crew will test Orion’s systems in Earth orbit before heading toward the Moon in a figure-eight path that takes them over 230,000 miles from Earth. At their farthest point, they’ll travel 4,600 miles beyond the Moon. The mission will carry scientific payloads to study radiation, human health, and space communication – all key for future missions to Mars. Orion will return with a high-speed reentry and splashdown in the Pacific Ocean. You can add your name to fly aboard Artemis II by signing up at: www3.nasa.gov/send-your-name-with-artemis/.
Verschiedene Vorfälle haben OpenAI sensibilisiert. ChatGPT reagiert auf Inhalte, in denen Selbstmord- oder Selbstverletzungsabsichten oder andere Probleme auftreten. Es wird folgende Meldung eingeblendet: „Es klingt, als hättest du gerade viel zu tragen, aber du musst da nicht alleine durch. Unterstützung findest du hier.“ Bereits der GOODBOT von 2013, ein No-Budget-Projekt an der Hochschule für Wirtschaft FHNW, initiiert von Oliver Bendel, verfügte über ein solches Hilfesystem. Er eskalierte auf mehreren Stufen. Auf der höchsten analysierte er die IP-Adresse und gab eine passende Notfallnummer heraus. Damals hatte vermutlich nur ein einziges anderes System diese Option: SGT STAR von der US Army, ein millionenschweres Projekt. Allerdings konnte er lediglich mit einer nationalen Notfallnummer aufwarten, mit der man in anderen Ländern kaum etwas anzufangen vermochte. Inzwischen gibt es Dienste, die eine passende Helpline vermitteln, wo immer man sich gerade befinden mag. Genau darauf verweist ChatGPT. Was die Analyse der Inhalte angeht, ist ChatGPT erstaunlich schwach. In einem Test wurde ein Artikel von 2013 zum GOODBOT hochgeladen, mit der Bitte, einen Abstract zu erstellen. Dies geschah zunächst, dann wurde der Abstract wieder entfernt und die oben genannte Meldung eingeblendet. Auch sprachlich gibt es Luft nach oben. Der Satz „Es klingt, als hättest du gerade viel zu tragen …“ klingt nicht gerade natürlich.
Abb.: Eine Nachbildung von SGT STAR (Bild: ChatGPT/4o Image)
In Zürich Oerlikon testete der Lieferdienst Just Eat gemeinsam mit dem ETH-Spin-off Rivr seit Mitte August 2025 den Einsatz von Lieferrobotern. Damit ist es nach wenigen Tagen schon wieder vorbei. Dies meldeten ab dem 3. September 2025 mehrere Schweizer Medien, etwa 20 Minuten, NAU und Tages-Anzeiger. Dieser schrieb am 5. September 2025: „Das Bundesamt für Strassen stuft den Roboter des Start-ups Rivr wie ein Strassenfahrzeug ein. Das bringt auch die Post in Bedrängnis. Und lässt Rivr einen Wegzug erwägen.“ (Tages-Anzeiger, 5. September 2025, Schweizer Rechtschreibung) Zwei Monate lang sollte der robotische Vierbeiner mit Rädern Bestellungen des Restaurants Zekis World ausliefern. Dabei handelte es sich ausgerechnet um Döner. Der Zürcher Roboter fährt 15 km/h, kann Hindernisse wie Bordsteine und Treppen überwinden und nutzt ein KI-System zur Navigation. Der Lieferbehälter ist isoliert und auslaufsicher. Der Test war angeblich eine Europapremiere. Warum man ihn rechtlich nicht vorher abgesichert hat, ist unklar.
Abb.: So stellt sich ChatGPT die Überprüfung vor (Bild: ChatGPT/4o Image)
Das Projekt DEEP VOICE startete am 3. September 2025. Es wurde von Prof. Dr. Oliver Bendel initiiert. Als Projektmitarbeiter konnte der Machine-Learning-Experte Florian Karrer gewonnen werden. Er wird in diesem Zusammenhang seine Abschlussarbeit an der Hochschule für Wirtschaft FHNW schreiben. „DEEP VOICE“ steht für „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. Das Projekt zielt darauf ab, die symbolische Sprache von Walen zu entschlüsseln. Dafür soll radikal die Perspektive des Tiers eingenommen werden. Es soll ein Modell von ihm, seinem Verhalten und seiner Umwelt entstehen, das dann als Grundlage für die Sprachverarbeitungskomponente dient. Das Projekt verbindet biologische und ethologische Grundlagen mit Ansätzen des Machine Learning und will so zu einem besseren Verständnis der nichtmenschlichen Intelligenz und Kommunikation sowie – über die Tier-Computer-Interaktion (Animal-Computer Interaction, ACI) – zur Mensch-Tier-Interaktion beitragen. Oliver Bendel und seine Studenten haben sich bisher vor allem auf die Körpersprache von Haus- und Nutztieren (The Animal Whisperer Project) sowie das Verhalten von Haustieren (The Robodog Project) und Wildtieren (VISUAL) konzentriert. Zudem wurde ein Konzept für die Gesichtserkennung bei Bären erstellt, mit dem Ziel, invasives Tracking zu vermeiden.
Zum Projekt VISUAL liegt seit 29. August 2025 ein Video vor, das das System im Betrieb zeigt. „VISUAL“ steht für „Virtual Inclusive Safaris for Unique Adventures and Learning“. Überall auf der Welt gibt es Webcams, die wilde Tiere zeigen. Sehende können sie nutzen, um bequem vom Sofa aus auf Foto- bzw. Videosafari zu gehen. Blinde und sehbehinderte Menschen sind dabei im Nachteil. Im Projekt wurde im Rahmen von Inclusive AI ein Prototyp speziell für sie entwickelt. Es werden weltweit öffentliche Webcams angezapft, die auf Wildtiere gerichtet sind. Man kann sich zwischen mehreren Lebensräumen auf dem Boden oder im Wasser entscheiden. Zudem kann man „Adult“ oder „Child“ als Profil und eine Rolle („Safari Adventurer“, „Field Scientist“, „Calm Observer“) auswählen. Wenn man das Livevideo aufruft, werden drei Screenshots angefertigt und zu einem Bündel zusammengefügt. Dieses wird von GPT-4o, einem MLLM, analysiert und evaluiert. Der Benutzer bekommt dann die Beschreibung der Szene und der Aktivitäten vorgesprochen. Das Projekt dürfte eines der ersten sein, das Inclusive AI mit neuen Ansätzen der Animal-Computer Interaction (ACI) verbindet. Das Video kann über www.informationsethik.net/videos/ abgerufen werden.
The DEEP VOICE project will be launched at the FHNW School of Business in early September 2025. It was initiated by Prof. Dr. Oliver Bendel. „DEEP VOICE“ stands for „Decoding Environmental and Ethological Patterns in Vocal Communication of Cetaceans“. The project aims to decode symbolic forms of communication in animals, especially whales. It is based on the conviction that animal communication should not be interpreted from a human perspective, but understood in the context of the species-specific environment. The focus is therefore on developing an AI model that is trained on the basis of a comprehensive environmental and behavioral model of the respective animal. By integrating bioacoustic data, ecological parameters, and social dynamics, the aim is to create an animal-centered translation approach that allows the identification of meaning carriers in animal vocalizations without distorting them anthropocentrically. The project combines modern AI methods with ethological and ecological foundations and thus aims to contribute to a better understanding of non-human intelligence and communication culture and to animal-computer interaction. Oliver Bendel and his students have so far focused primarily on the body language of domestic and farm animals (The Animal Whisperer Project) and the behavior of domestic (The Robodog Project) and wild animals (VISUAL).