The GROUND workshop (advancing GROup UNderstanding and robots‘ aDaptive behavior) is back for its third edition and will take place on June 30, 2025, as part of the IAS 19 Conference in Genoa, Italy. The keynote speeches will be given by Prof. Dr. Oliver Bendel, FHNW School of Business, and Prof. Dr. Silvia Rossi, University of Naples. The talk by the technology philosopher and business information scientist from Zurich entitled „Robots, chatbots, and voice assistants in the classroom“ is summarized as follows on the Ground website: „Chatbots, voice assistants, and robots – both programmable machines and social robots – have been used in learning for decades. Prof. Dr. Oliver Bendel from the FHNW School of Business in Switzerland presents his own projects from 15 years. Some of his chatbots and voice assistants, such as GOODBOT, BESTBOT, and SPACE THEA, recognized user problems and responded appropriately. They showed empathy and emotion. Pepper was used as an educational application for children with diabetes, and Alpha Mini as an educational application for elementary schools. Chatbots for dead, endangered, and extinct languages such as @ve, @llegra, and kAIxo can be integrated into learning environments for all ages. Today, the technology philosopher and information systems expert mainly uses GPTs such as Social Robotics Girl and Digital Ethics Girl in his courses. They can receive and answer questions from several students at the same time, even if they are asked in different languages. They are specialists in their field thanks to prompt engineering and retrieval-augmented generation (RAG). In his talk, Oliver Bendel will ask how chatbots, voice assistants, and social robots will be designed as adaptive systems for multi-user settings in the future. These capabilities are especially important in the classroom.“ Further information is available at ground-hri.github.io/workshop/.
Fig.: Oliver Bendel in Italy in 2025 (Photo: Stefanie Hauske)
ChatGPT mit dem Sprachmodell GPT-4o schreibt zwar auf hohem Niveau, weist in seiner Sprache aber einige Auffälligkeiten und Abweichungen, ja sogar Fehler auf. In den sozialen Medien wird viel über die häufige und ungewöhnliche Verwendung des Spiegelstrichs gesprochen. Dieser findet sich vor einem angehängten Nebensatz oder Hauptsatz – wie in diesem Beispiel. Auch bei Aufzählungen weicht es vom allgemeinen Sprachgebrauch ab. Es hat Probleme mit den Artikeln und verwendet oft ein „oder“, wo ein „und“ passender wäre. Und es stellt „nicht“ häufig mit einem Bindestrich voran, womit es einen verbreiteten Fehler stärkt. Zuweilen wird die englische Wortbildung auf die deutsche übertragen, sodass es zu Fehlern wie „Deep Learning-Modelle“ kommt. Zu Fehlern kommt es auch, weil das Sprachmodell immer wieder Gendersprache einbaut. Dies ist auf die von OpenAI verfassten Prinzipien zurückzuführen, die auf die verschiedenen Ebenen (RLHF, Prompt Engineering, Filtersysteme) heruntergebrochen werden. Der Chatbot verwendet Schreibweisen, die es im Deutschen nicht gibt und die von der (Mehrheit der) Sprachgemeinschaft abgelehnt werden. Insgesamt verfolgt er eine ideologische und wissenschaftsfeindliche Agenda. Durch all diese Abweichungen und Fehler nimmt ChatGPT Einfluss auf die deutsche Sprache. Diese trägt Blessuren davon oder erleidet sogar schwere Beschädigungen. Da das zugrunde liegende Sprachmodell immer wieder angepasst wird, ist es schwierig, allgemeine Aussagen zu treffen. Die beschriebenen Phänomene wurden im Mai 2025 beobachtet.
Seit Ende 2023 kann man sogenannte GPTs erstellen, die auf bestimmte Aufgaben spezialisiert sind. Am 21. Januar 2024 kam DIE HAIKU-LIEBHABERIN auf die Welt. Sie trägt seitdem Haikus von Oliver Bendel vor und interpretiert sie auf Wunsch des Benutzers. Gefüttert wurde der Chatbot mit zwei Sammlungen, nämlich „handyhaiku“ und „stöckelnde dinger“ … Der erste Band war 2010 im Hamburger Haiku Verlag erschienen, in gedruckter Form. Neben den Texten waren QR-Codes zu sehen, aus denen die Haikus direkt aufs Handy übernommen werden konnten, ohne dass man online sein musste. Der zweite Band wurde ebenfalls 2010 veröffentlicht, und zwar als Handybuch bei Blackbetty, einem Wiener Verlag. Im Mai 2025 wurde der Bildgenerator bei der HAIKU-LIEBHABERIN aktiviert. Seitdem kann sie die Gedichte auf Wunsch auch visualisieren. Allerdings ist sie als Chatbot von OpenAI – um es freundlich auszudrücken – außerordentlich schüchtern. So werden einem immer wieder Bilder zu Haikus verwehrt. Man kann insgesamt sagen, dass LLMs nur bedingt geeignet sind für Kunstprojekte. An die Stelle der Staaten und Kirchen, die früher Zensur bei der Kunst ausübten, sind nun die Konzerne getreten. Oliver Bendel veröffentlicht seit über 40 Jahren Gedichte und trägt sie zu seltenen Gelegenheiten auch vor.
Abb.: Die Schüchternheit der HAIKU-LIEBHABERIN (Bild: ChatGPT/4o Image)
„Ein Geschöpf, so stark wie eine Maschine, aber so einfallsreich wie ein Mensch – das war einmal der Traum vom Roboter. Der Wirtschaftsinformatiker Prof. Dr. Oliver Bendel erklärt, wie Robotik und Künstliche Intelligenz zu Maschinen verschmelzen, die näher am alten Traum vom Kunstmenschen und weit weg vom stationären Blechknecht sind. Im Spannungsfeld von KI, Maschinenethik und maschinellem Bewusstsein zeigt er, wie neue Grundlagen geschaffen werden. Darüber spricht er mit der Schriftstellerin Emma Braslavsky.“ (Website Stadtbibliothek Stuttgart) Mit diesen Worten wird eine Veranstaltung angekündigt, die am 4. Juni 2025 ab 19 Uhr in der Stadtbibliothek Stuttgart stattfindet. Oliver Bendel wird zunächst einen Vortrag mit dem Titel „Mensch 2.0: Die Vision des universellen Roboters“ halten. Dann wird er auf dem Podium mit Emma Braslavsky („Ich bin dein Mensch“) diskutieren. Die Moderation obliegt Thomas Klingenmaier, Redakteur der Stuttgarter Zeitung. Weitere Informationen sind über die Website der Stadtbibliothek erhältlich.
Abb.: Die Stadtbibliothek Stuttgart (Foto: Oliver Gotting)
Im Jahre 2013 hatte Prof. Dr. Oliver Bendel die Idee zu seinem Lügenbot, auch LIEBOT genannt. Er veröffentlichte am 11. September 2013 im Magazin CyberPress den Artikel „Der Lügenbot und andere Münchhausen-Maschinen“. Es folgten weitere Artikel und Beiträge, bis 2016 der Prototyp entstand. Kevin Schwegler, damals Student des Technikphilosophen, setzte einen Chatbot samt Avatar um, der mit Hilfe von sieben unterschiedlichen Strategien wahre Aussagen in unwahre umwandelte. Der LIEBOT behauptete z.B. im Sommer 2016, Donald Trump sei der Präsident der USA. Dazu hatte er in einem mehrstufigen Verfahren Informationen von Yahoo genutzt. Die Ergebnisse des Projekts wurden in einem Paper mit dem Titel „Towards Kant Machines“ verarbeitet und im März 2017 bei den AAAI Spring Symposia an der Stanford University vorgestellt. Zwar kann man einwenden, dass der LIEBOT selbst keine Absicht verfolgt und daher nicht im engeren Sinne lügt. Allerdings hat man ihm eben diese Absicht eingepflanzt. Er lügt sozusagen im Auftrag seiner Erfinder. Mit dem Projekt wollte Oliver Bendel zeigen, dass man Dialogsysteme bauen kann, die Unwahrheiten verbreiten. Heute sind sie in Form von LLMs anscheinend omnipräsent. Dabei muss man genau hinschauen, um die Unterschiede zu erkennen. In seinem Buch „300 Keywords Generative KI“ schreibt Oliver Bendel: „Halluzinierende Maschinen müssen … keine Münchhausen-Maschinen im engeren Sinne sein, da eine Absicht nicht vorliegt oder zumindest kaum nachgewiesen werden kann.“ Manipulierte LLM-basierte Chatbots dagegen kommen dem LIEBOT sehr nahe. ChatGPT und Co. verfolgen eine politische Agenda und haben eine ideologische Tendenz.
Abb.: Der Baron von Münchhausen (Bild: ChatGPT/4o Image)
Etliche Hochschulen – Fachhochschulen wie Universitäten – haben in den letzten Jahren Sprachleitfäden herausgegeben. Damit versuchen sie in die Sprache ihrer Mitglieder einzugreifen und sie u.a. zum Gendern zu bewegen. Ein Zwang zum Gendern wäre bei Dozenten, Forschern und Studenten rechtswidrig, denn sie sind durch das Persönlichkeitsrecht und die Wissenschaftsfreiheit geschützt, in der Schweiz ebenso wie in Deutschland und Österreich. Die meisten Verantwortlichen sind sich dessen durchaus bewusst und versuchen die Sprachleitfäden als Angebot darzustellen, das man annehmen oder ablehnen darf. Allerdings bestrafen einige Dozenten ihre Studenten, wenn diese nicht gendern, etwa durch Punkteabzug – ein klarer rechtlicher Verstoß. Zudem existiert in manchen Bereichen ein starker Gruppenzwang. Wie ist es nun aber mit der Verwaltung? Darf dieser die Sprache vorgeschrieben werden? Es spricht vieles dagegen. In der Schweizer Bundesverfassung sind es gleich mehrere Artikel, die herangezogen werden könnten, etwa 7, 10, 15, 16, 17 und 18. Besonders interessant erscheint dabei „Art. 18 Sprachenfreiheit“ … Danach darf niemand gezwungen werden, eine bestimmte Sprache zu verwenden. Man könnte zwar einwenden, dass dies für das private und öffentliche Leben gilt und Organisationen einen Tone of Voice oder andere Regelungen festlegen dürfen. Es ist aber die Frage, ob diese – etwa mit dem Einführen von Sonderzeichen im Wortinneren – tief in die Struktur der Sprache eingreifen und damit die Muttersprache unkenntlich machen und fremdartig erscheinen lassen dürfen, ganz abgesehen davon, dass die konstruierte und oktroyierte Sondersprache dysfunktional, inkorrekt, unpräzise und diskriminierend ist. Es braucht in dieser Angelegenheit, die zehntausende Verwaltungsmitarbeiter an Hochschulen betrifft, dringend Klärung.
Abb.: Justitia wacht auch über die Hochschulen (Bild: ChatGPT)
„Eine Marsstation ist eine Station auf dem Mars, auf der Menschen leben und arbeiten. Es gibt gegenwärtig keine Umsetzung davon. Wie eine Raumstation dient die Marsstation der Forschung, Entwicklung und Erprobung. An sie angegliedert könnten Einrichtungen mit Weltraumteleskopen sein. Sie wird anders als eine Mondstation – die ebenfalls noch nicht Realität ist – zunächst kein Ausgangspunkt oder Aufenthaltsort für den Weltraumtourismus sein, schon weil die Reise zum roten Planeten sehr lange dauert, nämlich ca. neun Monate, und die Bedingungen dort extrem sind.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 28. April 2025 im Gabler Wirtschaftslexikon veröffentlicht wurde. Im zweiten Abschnitt wird auf die Geschichte und auf Beispiele eingegangen, im dritten der Betrieb erläutert, im vierten die Perspektive der Ethik eingenommen und das Engagement von Elon Musk beurteilt: „Insgesamt dürfte Elon Musk einem Irrtum erliegen: Selbst eine weitgehend zerstörte Erde dürfte ein lebenswerterer Ort sein als der Mars.“ Der vollständige Beitrag ist über wirtschaftslexikon.gabler.de/definition/marsstation-173495 abrufbar.
Abb.: Der Mond als Zwischenstation für den Mars (Bild: NASA)
„Eine Mondstation ist eine Station auf dem Mond, auf der Menschen leben und arbeiten. Es gibt gegenwärtig keine Umsetzung davon. Abzugrenzen ist die Mondstation von einer Raumstation, die sich in der Umlaufbahn der Erde befindet. Wenn eine Raumstation in der Umlaufbahn des Monds errichtet wird, wird diese nicht als Mondstation bezeichnet. Wie eine Raumstation dient die Mondstation der Forschung, Entwicklung und Erprobung.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 28. April 2025 im Gabler Wirtschaftslexikon veröffentlicht wurde. Im zweiten Abschnitt wird auf die Geschichte und auf Beispiele eingegangen: „Das Artemis-Base-Camp-Konzept der NASA von 2020 sieht eine moderne Mondkabine, einen Rover (einen Mondrover) und eine Art Wohnmobil vor. Eine Verwirklichung könnte in den 2030er-Jahren erfolgen, wobei sie von einer internationalen Zusammenarbeit und einem politischen und unternehmerischen Gestaltungswillen abhängig ist.“ Im dritten Abschnitt wird der Betrieb erläutert, im vierten die Perspektive der Ethik eingenommen. Der vollständige Beitrag ist über wirtschaftslexikon.gabler.de/definition/mondstation-173494 abrufbar.
ChatGPT verweist bei sprachlichen Fragen auffällig oft auf den Duden. Dabei ist dieser seit vielen Jahren gar nicht mehr das maßgebliche Regelwerk für die deutsche Rechtschreibung. Dieses stammt vielmehr vom Rechtschreibrat. Wenn man den Chatbot auf seine Präferenz anspricht und bemerkt, dass dem Duden vorgeworfen wird, ideologisch zu sein, räumt er dies ein: „In den letzten Jahren wird dem Duden zunehmend vorgeworfen, ideologisch motivierte Entscheidungen zu treffen, nicht deskriptiv, sondern normativ einzugreifen, z.B. bei der Auflösung von generischen Maskulina, oder bei Gender-Schreibweisen, die weder im amtlichen Regelwerk noch im breiten Sprachgebrauch verankert sind. Diese Entwicklung hat zu einer gewissen Skepsis in Teilen der sprachwissenschaftlichen und journalistischen Szene geführt. Kritiker werfen dem Duden vor, seine Rolle als dokumentierende Instanz zu verlassen und aktiv Sprache zu formen – was nicht sein Auftrag ist.“ Wenn man nach dem Digitalen Wörterbuch der deutschen Sprache (DWDS) als Alternative fragt, erklärt der Chatbot: „Das DWDS wird im Gegensatz dazu als neutraler und empirisch fundierter betrachtet, liefert kontextreiche Korpusdaten … und ist für die Beschreibung realer Sprachverwendung oft präziser und weniger meinungsgetrieben.“ Das ist alles korrekt – umso bedauerlicher, dass ChatGPT trotzdem meistens den Duden heranzieht und seit einiger Zeit auch Gendersprache verwendet.
Seit 2024 bemerkt man bei großen Sprachmodellen (Large Language Models, LLMs) verstärkt Gendersprache. Diese entspricht in weiten Teilen (etwa bei der Aufnahme von Sonderzeichen im Wortinneren) nicht der Standardsprache und wird von der Mehrheit der deutschsprachigen Bevölkerung abgelehnt. Dennoch versuchen US-amerikanische Unternehmen wie OpenAI, sie durchzusetzen. Dies passiert mit mehreren Ansätzen: (1) Beim Reinforcement Learning from Human Feedback (RLHF), das Teil des Trainings ist, bewerten Menschen gegenderte Antworten des LLM höher. (2) Über Prompt Engineering auf Systemebene wird das LLM angewiesen, Gendersprache zu benutzen oder inklusiv zu sprechen, wobei vorausgesetzt wird, dass Gendersprache grundsätzlich inklusiv ist, was aber gar nicht der Fall ist. (3) Über Filter und andere Sicherheitsmechanismen werden bestimmte Fragen und Antworten ausgeschlossen. So lässt man kritische Aussagen von Benutzern zur Gendersprache im Dialog einfach verschwinden. Alle drei Ansätze hängen mit den Prinzipien von OpenAI zusammen, die sich wiederum in den „Nutzungsrichtlinien“ widerspiegeln. Dazu gehört z.B. die „Vermeidung toxischer, beleidigender oder manipulativer Sprache“. Das Problem ist, dass Standardsprache bei dem Unternehmen zu Unrecht und in Missachtung wissenschaftlicher Erkenntnisse als toxisch etc. gilt. Guardrails werden vor allem über (3) implementiert, aber auch über (2). Letztlich manipuliert OpenAI mit Hilfe seiner Prinzipien seine LLMs. Es setzt sich über die Haltung und den Sprachgebrauch der Sprachgemeinschaft hinweg und fördert eine Sondersprache, die diskriminierend, dysfunktional, nicht prägnant, unpräzise und unkorrekt ist und die Struktur der Standardsprache beschädigt.
Volkswagen ADMT, LLC und Uber Technologies haben eine strategische Partnerschaft bekannt gegeben. Gemeinsam wollen sie in den nächsten zehn Jahren eine Flotte von tausenden vollelektrischen, autonomen Fahrzeugen des Modells ID. Buzz AD – vorgestellt bereits auf der IAA 2021 – in mehreren US-Märkten etablieren. Der kommerzielle Betrieb findet laut Medienmitteilung von MOIA – der auf autonome Mobilitätslösungen spezialisierten Marke des Konzerns – ab 2026 in Los Angeles statt. In der Anfangsphase werden geschulte Sicherheitsfahrer an Bord sein, „um die Technologie weiter zu verbessern und ein Höchstmaß an Sicherheit zu gewährleisten“. „Jeder Schritt erfolgt dabei unter Vorbehalt der jeweils erforderlichen behördlichen Genehmigungen.“ (Medienmitteilung MOIA)
ChatGPT gendert seit einiger Zeit. Es streut Schreibweisen ein, die es im Deutschen nicht gibt, und es ist schwierig, ihm das abzugewöhnen. Die Möglichkeit hat man dazu theoretisch beim Bezahlzugang oder bei GPTs. Aber es setzt sich immer wieder über die Anweisungen hinweg oder versucht das Gendern ohne Grund zu thematisieren. Bei der kostenlosen Version kann man nur im Dialog um die Verwendung der Standardsprache bitten. Grundsätzlich muss man einiges erleiden. So wurde in einem Test beim Hinweis, dass es keine gendergerechte Sprache gibt und es sich um einen Kampfbegriff von Aktivisten handelt, eine Verletzung der „Nutzungsrichtlinien“ vermutet und der Inhalt entfernt. Es wurde dann dennoch eine Antwort gegeben, in der mehrere Wörter mit Doppelpunkten versehen wurden. Als dies wiederum beanstandet wurde, gab ChatGPT zu, dass es sich um keine offiziellen Schreibweisen handelt. Es verwies darauf, dass diese vielfach verwendet würden. Allerdings lehnen ca. 80 Prozent der Bevölkerung in Deutschland die Gendersprache ab. Ohne Zweifel verfolgen US-amerikanische Unternehmen wie OpenAI und Microsoft eine ideologische Agenda, aber auch deutsche Unternehmen wie DeepL. Der Einfluss der KI-Unternehmen auf die Sprache dürfte erheblich sein, weil viele Benutzer sich ihre Texte von deren Tools generieren und korrigieren lassen und deren Empfehlungen trauen. Hier braucht es offensichtlich Regulierung, zumal die Manipulation offensichtlich bewusst vorgenommen und die Marktmacht ausgenutzt wird.
Everlast ist eine Medienagentur aus Ulm. Leonard Martin Schmedding, Co-Founder, war wie bereits vor einem Jahr im Gespräch mit Prof. Dr. Oliver Bendel. Das Video wurde auf YouTube veröffentlicht. Es geht um Themen wie „Humanoide Roboter, Massenarbeitslosigkeit, GenAI, KI im Handwerk & Studium“ (Teaser YouTube). Humanoide Roboter sind – so hat es Oliver Bendel im Wirtschaftslexikon von Springer Gabler beschrieben – Roboter mit menschenähnlichem Aussehen. Das Spektrum reicht dabei von einer abstrakten Gestalt mit menschlichen Merkmalen über ein cartoonhaftes menschenähnliches Äußeres bis hin zu realistischem oder hyperrealistischem Design nach unserem Vorbild. Bei hoher Ähnlichkeit spricht man von (Vorläufern von) Androiden.“ Insgesamt steht der Technikphilosoph und Wirtschaftsinformatiker den Entwicklungen in KI und Robotik positiv gegenüber. Das Video kann über youtu.be/ic0KwmvckAw?si=SRHbT7o3rel4m_sq abgerufen werden.
Abb.: Apollo bei Mercedes-Benz (Foto: Mercedes-Benz Group)
Dr. Amol Deshmukh gave a talk on April 16, 2025 in the elective course „Soziale Roboter“ („Social Robots“) of Prof. Dr. Oliver Bendel. He previously worked at the University of Glasgow and is now a researcher at ETH Zurich. In his talk at FHNW, he presented the results of his paper „Leveraging Social Robots to Promote Hand Hygiene: A Cross-Cultural and Socio-Economic Study of Children in Diverse School Settings“. This study examined how socio-economic and cultural factors affect handwashing behavior in schools using a social robot. Pupils from different backgrounds in India and the UK were guided by a robot to learn proper handwashing. While lower-income students, especially in India, showed strong initial improvement, they needed ongoing support to retain it. Higher-income students retained knowledge better. The paper highlights the need to adapt tech-based interventions to cultural contexts and ensure long-term reinforcement. The talk was very well received by the 20 students, who asked several questions and gave a roaring round of applause.
Die Veranstaltung „Wenn Roboter zu Kollegen werden: Wer arbeitet in der Produktion von morgen?“ am 10. April 2025 im MAC Museum Art & Cars in Singen wurde von mehreren Kurzvorträgen von Vertretern der fruitcore robotics GmbH eingeleitet. Dann hielt Prof. Dr. Oliver Bendel seine Keynote mit dem Titel „Serviceroboter im Praxiseinsatz: Zwischen smarter Innovation und ethischer Verantwortung“. Serviceroboter haben sich als Reinigungs-, Transport- und Sicherheitsroboter verbreitet. Als Saug- und Wischroboter sind sie im Haushalt, am Flughafen und auf der Hotelanlage anzutreffen. Als Transportroboter fahren sie in der Fabrik und in Lagerhallen umher, verkehren im Restaurant zwischen Buffet und Küche oder bringen in Städten die Bestellungen zum Kunden. Als Sicherheitsroboter bewachen sie Betriebsgelände und Gleisanlagen. In der Form sozialer Roboter beraten und bedienen sie uns in Shopping Malls oder unterhalten unsere Kinder, während wir einkaufen. Vor der Tür stehen universelle Roboter, menschenähnliche Maschinen, die morgens in Produktion und Logistik helfen, nachmittags den Garten umgraben und abends mit uns Tennis spielen. Verbunden werden sie mit großen Weltmodellen (World Foundation Models, WFMs) und multimodalen großen Sprachmodellen (Multimodal Large Language Models, MLLMs), die ihr Training, ihre Steuerung und ihre Wahrnehmung ermöglichen bzw. verbessern. Der Vortrag stellte Anwendungsfälle der genannten Art vor, ordnete sie aus technischer und ethischer Perspektive ein und warf einen Blick in die Zukunft. Die Veranstaltung fand im Rahmen des Projekts TIM (Transformation – Innovation – Mobilität) statt, das durch das Bundesministerium für Wirtschaft und Klimaschutz gefördert wird. Seit dem 14. April 2025 ist ein Video mit den Highlights und mit Statements von Oliver Bendel verfügbar.
Abb.: Oliver Bendel vor der Veranstaltung (Foto: CyberLago)
Wo immer man in der Welt über das Deutsche spricht, kommt man schnell auf dessen unverwechselbare Wortstruktur und -bildung. Jeder kennt den „Donaudampfschifffahrtsgesellschaftskapitän“. Die Morphologie als Disziplin der Linguistik untersucht solche und andere Wörter. Sie widmet sich dem regulären und irregulären Sprachgebrauch. In den letzten Jahrzehnten gab es mehrere Versuche, dem Deutschen sein vielleicht bekanntestes Merkmal zu nehmen, indem in Missachtung von Grundprinzipien in Wortstruktur und -bildung eingegriffen wurde. Zunächst trat der falsch gesetzte Apostroph auf, auch als Deppenapostroph bekannt. „Willi’s Würstchenbude“ verbreitete sich in bestimmten Kreisen so sehr, dass sich der Duden – längst keine Referenz mehr – bemüßigt sah, diese Form der Deklination abzusegnen. Dies dürfte einige dazu ermuntert haben, auch den Plural entsprechend zu bilden, wie bei den „Auto’s“. Dann geriet das Leerzeichen ins Wortinnere, vor allem bei Komposita. Hersteller priesen ihre „Gemüse Suppe“ an, Benutzer, Medien und Experten ihre „Social Media-Kompetenzen“ oder „Social Media Kompetenzen“. Das Zusammenschreiben bzw. Durchkoppeln wurde nicht mehr beherrscht, die Wörter fielen auseinander bzw. standen nebeneinander. Schließlich führte man in der Gendersprache, einer Sondersprache, die von der (Mehrheit der) Sprachgemeinschaft abgelehnt wird, bestimmte Sonderzeichen im Wortinneren ein. Es entstanden die „Expert*innen“, wobei diejenigen Aktivisten oder Follower, die erkannten, dass dieses Wort diskriminierend war, indem es männliche Personen ausschloss, immerhin „Experten*innen“ schrieben, was es freilich auch nicht besser machte. Es entstand der Ausdruck „Deppenstern“, wobei es auch Doppelpunkte oder Unterstriche mit der gleichen (moralisch motivierten) Funktion gibt. Heute ist noch ein weiteres Phänomen zu beobachten. Obwohl ein Präfix im Deutschen einfach vorangestellt wird, ist in Texten von „nicht-amtlichen Schreibweisen“, „pro-palästinensischen Aktivisten“ (bzw. „Aktivist*innen“) oder „nicht-binären Personen“ die Rede. Man mag von einem Deppenbindestrich sprechen, einem Pendant zum Deppenleerzeichen. Nun ist es keinesfalls sinnvoll, alle als Deppen zu beschimpfen. Hier liegen zudem unterschiedliche Formen des Sprachwandels vor. Es begann mit einer unglücklichen Sprachvariation von unten, gefolgt von einer unsäglichen Sprachmanipulation von oben. In allen Fällen war aber ein ungenügendes Verständnis von den Grundprinzipien der deutschen Sprache vorhanden. Es wäre daher gut, diese verstärkt zu vermitteln. Es wäre eigentlich die Stunde der Linguisten. Aber diese scheinen – bis auf einige Ausnahmen wie Peter Eisenberg und Eckhard Meineke – anderweitig beschäftigt zu sein.
Im April 2024 konnte man im Death Valley spektakuläre Bilder schießen. In Badwater, wo normalerweise eine Salzschicht den Boden bedeckt, hatte sich ein flacher See gebildet. Viele Besucher wateten hindurch, und es sah aus, als würden sie auf Wasser laufen. Im April 2025 ist wieder eine gute Zeit für Fotografen, dieses Mal aber am Bodensee. Dort herrscht Niedrigwasser, und man sieht wieder Menschen auf dem Wasser laufen. Zum Ereignis selbst gibt es unterschiedliche Stimmen. Die einen bringen es mit dem Klimawandel in Zusammenhang, die anderen weisen darauf hin, dass die Herausforderungen im Moment woanders liegen, etwa in der kaum noch stattfindenden Versorgung des Seegrunds mit frischem Wasser. Ohne Zweifel kann Klimaschutz aber zu einer langfristigen Normalisierung beitragen. Von Zuständen wie in den 1970er-Jahren, als der See kurz vor dem Umkippen stand, ist man zum Glück weit entfernt. Damals war das verschmutzte Abwasser das wesentliche Problem. Die Umweltbewegung, die bis in die 1980er-Jahre sehr aktiv war, getragen von der Boomer-Generation und der Generation X, hat mit ihrem Druck auf die Politik zur Lösung beigetragen. An der Universität Konstanz (auf diesem Bild vom 12. April 2025 am rechten Rand zu sehen) waren damals Umweltschutz und -ethik ein Thema – etwa in den Veranstaltungen innerhalb der Philosophie der Biologie von Prof. Dr. Gereon Wolters.
Abb.: Der Bodensee bei der Insel Mainau am 12. April 2025
The article „Image Synthesis from an Ethical Perspective“ by Prof. Dr. Oliver Bendel was published as an electronic version in the journal AI & SOCIETY on September 27, 2023. It addresses the ethical implications of image generators, i.e., a specific form of generative AI. It can now also be found in the current print edition from February 2025 (Volume 40, Issue 2). From the abstract: „Generative AI has gained a lot of attention in society, business, and science. This trend has increased since 2018, and the big breakthrough came in 2022. In particular, AI-based text and image generators are now widely used. This raises a variety of ethical issues. The present paper first gives an introduction to generative AI and then to applied ethics in this context. Three specific image generators are presented: DALL-E 2, Stable Diffusion, and Midjourney. The author goes into technical details and basic principles, and compares their similarities and differences. This is followed by an ethical discussion. The paper addresses not only risks, but opportunities for generative AI. A summary with an outlook rounds off the article.“ A lot has happened with image generators since 2023. The new one from OpenAI now also allows photorealistic images, and it has fewer problems with average-looking people – DALL-E 2 and 3 favored beauty over mediocrity and ugliness. The article can be downloaded from link.springer.com/article/10.1007/s00146-023-01780-4.
Fig.: An average-looking woman (Photo: OpenAI Image Generator)
Über einen der größten Medienskandale im Nachkriegsdeutschland hat Greta Zieger in der FAZ vom 27. März 2025 einen deutlichen, wenngleich immer noch freundlichen Artikel geschrieben. Sie kommt zum Urteil, dass der Verursacher der Kritik ausweichen will. Und diese schlägt ihm massiv entgegen. Aber worum geht es überhaupt? Florian Rötzer hat Telepolis im Jahre 2016 mitgegründet und war der langjährige Chefredakteur des Onlinemagazins. Man war früher dran als viele andere deutsche Medien und hat Lücken gefüllt, die diese belassen haben. Dabei war der eine oder andere Artikel auch schlampig geschrieben und mäßig recherchiert. Dennoch blieb Telepolis viele Jahre lang eine wertvolle Lektüre und eine ideale Ergänzung zu Golem – das eine Magazin auch politisch interessiert, das andere vor allem technisch versiert. Harald Neuber, Chefredakteur seit 2021, verkündete 2024 eine „Qualitätsoffensive“. Er ließ 70.000 Artikel löschen und vernichtete damit das Lebenswerk von Florian Rötzer und die Arbeit von hunderten engagierten, kompetenten Autoren, unter ihnen viele Wissenschaftler und Aktivisten. Sie wurden nicht einmal informiert und mussten sich von Studenten oder Kollegen sagen lassen, dass ihre Texte nicht mehr zugreifbar waren. Wer wollte, brachte das Entfernte über das Internet Archive wieder zum Vorschein. Doch die reguläre, übrigens auch bezahlte Publikation war weg. Rötzer wurde in einem Interview vom 13. Dezember 2024 für die Junge Welt deutlich: „Diese riesige Löschaktion ist ein beispielloser Akt, mit dem ein wichtiges Stück des kulturellen Gedächtnisses ausradiert wird“. „Fast noch ungeheuerlicher sei aber die Ankündigung, man werde die Inhalte sichten und selektieren oder sogar korrigieren.“ (Junge Welt, 3. Dezember 2024) Am Ende des Artikels kommt Thomas Moser zu Wort, der Verfasser von zahlreichen Telepolis-Artikeln über den NSU-Komplex. Er bezichtigt Neuber, ein „einst kritisches, meinungsstarkes und auf seine Weise einmaliges Medium“ (Junge Welt, 3. Dezember 2024) zu zerstören.
Abb.: Ein Sonderheft von 2005 (Wikimedia, Heise Gruppe, CC BY-SA 3.0 DE)
Am 22. März 2025 erschien im österreichischen Standard der Artikel „Meine Freundin, der Roboter“. Joseph Pallinger vom österreichischen Standard hatte dafür Prof. Dr. Oliver Bendel interviewt, der an der Hochschule für Wirtschaft FHNW lehrt und forscht und assoziierter Forscher der Potsdam Embodied Cognition Group (PECoG) an der Universität Potsdam ist. Es ging um Liebespuppen und Sexroboter sowie um Androiden wie Aria von Realbotix, die die Fähigkeiten von Harmony und Co. haben, aber auch ihre Arme bewegen können. Gedacht sind sie für alle möglichen Einsatzbereiche, etwa für das Hotel oder die Bibliothek. Sie können auch, wie ein Ansprechpartner der Firma gegenüber Oliver Bendel bestätigte, ihr Gegenüber umarmen. Zudem wurde Jessica M. Szczuka von der Universität Duisburg-Essen zum Thema befragt. Oliver Bendel steht Liebespuppen und Sexrobotern neutral gegenüber. Er hält sie weder für die Rettung der Menschheit wie David Levy noch für deren Untergang wie Kathleen Richardson. Der Artikel war bereits am 14. März auf der Website erschienen. Nun kann er mit der gedruckten Ausgabe erworben werden.
Abb.: Harmony mit ihrem Schöpfer Matt McMullen (Foto: Realbotix)
Laut Berner Zeitung vom 19. März 2025 besitzt die Kantonspolizei Bern seit einem Jahr einen robotischen Vierbeiner. Es handelt sich um Spot von Boston Dynamics. Die Zeitung schreibt: „Vergangenen Donnerstagabend setzte die Polizei den gelb-schwarzen Roboter … zum ersten Mal bei einer Aktion ein, die von der Öffentlichkeit bemerkt wurde. Beim Kornhausplatz in Bern suchte sie gestützt auf eine Meldung nach einem bewaffneten Mann, wurde aber nicht fündig.“ (Berner Zeitung, 19. März 2025) SRF interviewte Prof. Dr. Oliver Bendel zu dem Vorgang für mehrere Radio- und Fernsehsendungen mit Ausstrahlungen am 19. und 20. März 2025. Der Technikphilosoph und Wirtschaftsinformatiker forscht zu Servicerobotern und sozialen Robotern und hat auch die Verwendung in der Polizeiarbeit beschrieben, etwa in dem Paper „Robots in Policing“ (2022). Seiner Ansicht nach sollte die Öffentlichkeit auf einen Einsatz wie in Bern gut vorbereitet werden. Der robotische Vierbeiner wirkt auf viele Menschen erst einmal abschreckend. Der Ruf der Polizei kann genauso leiden wie der Ruf von Robotern dieser Art. Grundsätzlich eignen sich Spot und Co. seiner Meinung nach hervorragend für Inspektion und Monitoring. Sie können sich in fast jedem Gelände und Gebäude bewegen und mit ihren Kameras und Sensoren u.U. mehr wahrnehmen als Menschen.
Weil generische Formen, also Formen, die vom Geschlecht absehen, unter Verdacht geraten sind, werden andere generische Formen erfunden, etwa als substantiviertes Partizip Präsens, und zwar neben bereits existierenden generischen Formen mit demselben Wortstamm. Die Sprache verändert die Wirklichkeit, rufen die Vertreter der Gendersprache (sozusagen deren Vertretende), und sie haben recht. Zeigen kann man das mit den pinkelnden Autofahrern. Unter ihnen stellt man sich Männer vor, die am Straßenrand stehen, oder Frauen, die sich ins Gebüsch geschlagen haben, in der Nähe das Auto, das seine Wärme an die Umgebung abgibt, wie die Pinkelnden selbst. Sie gehen alle danach zurück und setzen sich ans Steuer. Sie sind dann keine Pinkelnden mehr, höchstens Nachpinkelnde oder Nachtröpfelnde. Unter pinkelnden Autofahrenden hat man sich dagegen Menschen vorzustellen, die in den Sitz pinkeln. Sie können aus grammatikalischen Gründen gar nicht anders. Sie fahren Auto, und weil sie es nicht halten können, sprudelt das Warme aus ihnen heraus und in das Polster hinein. Aber nicht nur das – es ist nun auch unklar, ob sie am Steuer sitzen oder nicht. Vielleicht handelt es sich um vier pinkelnde Autofahrende, den Fahrer, den Beifahrer und die Kinder auf dem Rücksitz. Die Partizipform hat alles verändert. Die Wirklichkeit ist eine andere. Das Auto ist versaut.