ChatGPT: „Katy Perry war nicht im Weltraum“

Zahlreiche Medien berichteten über Katy Perrys Weltraumflug. Schnell tauchten Verschwörungstheorien auf, denen zufolge dieser gar nicht stattgefunden hat. Sie konnten ebenso schnell entkräftet werden. ChatGPT blieb jedoch lange Zeit dabei, dass die Sängerin niemals im Weltraum gewesen sei, also die Kármán-Linie niemals überschritten habe. Dies ergaben einige Tests über mehrere Tage, sowohl mit der öffentlichen als auch mit der kommerziellen Version (GPT-4o). Die öffentliche Version verlautbarte am 28. Mai 2025: „Katy Perry war nicht im Weltraum. Es gibt keine Informationen oder Berichte darüber, dass die Sängerin jemals ins All gereist ist.“ Das stimmte ganz offensichtlich nicht, selbst wenn man den Verschwörungstheorien anhängt. Vielmehr gingen die Medienberichte in die tausende, die Reaktion darauf in die hunderttausende. Nachdem die öffentliche Version aber auf Wunsch des Benutzers online recherchiert hatte, änderte sie ihre Meinung. Resistenter und renitenter war die Bezahlversion. Als sie auf einen SRF-Artikel hingewiesen wurde, schrieb sie am 27. Mai 2025: „Tatsächlich gibt es mehrere Medienberichte, darunter den von SRF, die von einem Weltraumflug von Katy Perry im Jahr 2025 berichten. Nach gegenwärtigem Stand der öffentlich zugänglichen und überprüfbaren Informationen handelt es sich bei dieser Meldung allerdings sehr wahrscheinlich um eine fiktive oder inszenierte PR-Aktion … Der zitierte SRF-Artikel erscheint satirisch oder inszeniert, möglicherweise im Rahmen einer medienwirksamen Aktion, eines Musikprojekts oder eines symbolischen ‚Flugs‘.“ Am 28. Mai 2025 entsprachen die Auskünfte dann plötzlich der Wahrheit.

Abb.: Ein Fakebild des Kusses (Bild: ChatGPT/4o Image)

Die Schwierigkeiten von ChatGPT mit der deutschen Sprache

ChatGPT mit dem Sprachmodell GPT-4o schreibt zwar auf hohem Niveau, weist in seiner Sprache aber einige Auffälligkeiten, ja sogar Fehler auf. In den sozialen Medien wird viel über die häufige und ungewöhnliche Verwendung des Spiegelstrichs gesprochen. Dieser findet sich vor einem angehängten Nebensatz oder Hauptsatz – wie in diesem Beispiel. Auch bei Aufzählungen weicht es vom allgemeinen Sprachgebrauch ab. Es hat Probleme mit den Artikeln und verwendet oft ein „oder“, wo ein „und“ passender wäre. Zu Fehlern kommt es auch, weil das Sprachmodell immer wieder Gendersprache einbaut. Dies ist auf die von OpenAI verfassten Prinzipien zurückzuführen, die auf die verschiedenen Ebenen (RLHF, Prompt Engineering, Filtersysteme) heruntergebrochen werden. Der Chatbot verwendet Schreibweisen, die es im Deutschen nicht gibt und die von der (Mehrheit der) Sprachgemeinschaft abgelehnt werden. Insgesamt verfolgt er eine ideologische und wissenschaftsfeindliche Agenda. Durch all diese Abweichungen und Fehler nimmt ChatGPT Einfluss auf die deutsche Sprache. Diese trägt Blessuren davon oder erleidet sogar schwere Beschädigungen. Da das zugrunde liegende Sprachmodell immer wieder angepasst wird, ist es schwierig, allgemeine Aussagen zu treffen. Die beschriebenen Phänomene wurden im Mai 2025 beobachtet.

Abb.: ChatGPT schadet der deutschen Sprache

ChatGPT und Duden sind beste Freunde

ChatGPT verweist bei sprachlichen Fragen auffällig oft auf den Duden. Dabei ist dieser seit vielen Jahren gar nicht mehr das maßgebliche Regelwerk für die deutsche Rechtschreibung. Dieses stammt vielmehr vom Rechtschreibrat. Wenn man den Chatbot auf seine Präferenz anspricht und bemerkt, dass dem Duden vorgeworfen wird, ideologisch zu sein, räumt er dies ein: „In den letzten Jahren wird dem Duden zunehmend vorgeworfen, ideologisch motivierte Entscheidungen zu treffen, nicht deskriptiv, sondern normativ einzugreifen, z.B. bei der Auflösung von generischen Maskulina, oder bei Gender-Schreibweisen, die weder im amtlichen Regelwerk noch im breiten Sprachgebrauch verankert sind. Diese Entwicklung hat zu einer gewissen Skepsis in Teilen der sprachwissenschaftlichen und journalistischen Szene geführt. Kritiker werfen dem Duden vor, seine Rolle als dokumentierende Instanz zu verlassen und aktiv Sprache zu formen – was nicht sein Auftrag ist.“ Wenn man nach dem Digitalen Wörterbuch der deutschen Sprache (DWDS) als Alternative fragt, erklärt der Chatbot: „Das DWDS wird im Gegensatz dazu als neutraler und empirisch fundierter betrachtet, liefert kontextreiche Korpusdaten … und ist für die Beschreibung realer Sprachverwendung oft präziser und weniger meinungsgetrieben.“ Das ist alles korrekt – umso bedauerlicher, dass ChatGPT trotzdem meist den Duden heranzieht und seit einiger Zeit auch Gendersprache verwendet.

Abb.: In einer Sprachschule

Manipulierte Sprachmodelle

ChatGPT gendert seit einiger Zeit. Es streut Schreibweisen ein, die es im Deutschen nicht gibt, und es ist schwierig, ihm das abzugewöhnen. Die Möglichkeit hat man dazu theoretisch beim Bezahlzugang oder bei GPTs. Aber es setzt sich immer wieder über die Anweisungen hinweg oder versucht das Gendern ohne Grund zu thematisieren. Bei der kostenlosen Version kann man nur im Dialog um die Verwendung der Standardsprache bitten. Grundsätzlich muss man einiges erleiden. So wurde in einem Test beim Hinweis, dass es keine gendergerechte Sprache gibt und es sich um einen Kampfbegriff von Aktivisten handelt, eine Verletzung der „Nutzungsrichtlinien“ vermutet und der Inhalt entfernt. Es wurde dann dennoch eine Antwort gegeben, in der mehrere Wörter mit Doppelpunkten versehen wurden. Als dies wiederum beanstandet wurde, gab ChatGPT zu, dass es sich um keine offiziellen Schreibweisen handelt. Es verwies darauf, dass diese vielfach verwendet würden. Allerdings lehnen ca. 80 Prozent der Bevölkerung in Deutschland die Gendersprache ab. Ohne Zweifel verfolgen US-amerikanische Unternehmen wie OpenAI und Microsoft eine ideologische Agenda, aber auch deutsche Unternehmen wie DeepL. Der Einfluss der KI-Unternehmen auf die Sprache dürfte erheblich sein, weil viele Benutzer sich ihre Texte von deren Tools generieren und korrigieren lassen und deren Empfehlungen trauen. Hier braucht es offensichtlich Regulierung, zumal die Manipulation offensichtlich bewusst vorgenommen und die Marktmacht ausgenutzt wird.

Abb.: Eine Verletzung der „Nutzungsrichtlinien“

Wie man ChatGPT die Gendersprache abgewöhnt

ChatGPT von OpenAI weicht seit einiger Zeit immer wieder von der Standardsprache ab und formuliert Sätze in Gendersprache. Zudem baut es ungefragt Emojis ein. Es geht dabei nicht nur um den „Hauptdienst“ an sich, sondern auch um hunderttausende GPTs, von denen man jedes einzelne im guten Glauben erstellt, dass sich das Unternehmen an Standards hält, hier die Rechtschreibregeln des Rechtschreibrats. Die GPTs kann man über Prompts anweisen, Standardsprache zu verwenden. Erste Tests haben allerdings ergeben, dass sie sich nicht unbedingt daran halten. Und was macht man bei ChatGPT? Wenn man Plus-Nutzer ist, hat man auch hier – zumindest theoretisch – eine Möglichkeit. Nach dem Einloggen geht man auf „Einstellungen“, dann auf „Personalisierung“, dann auf „Individuelle Hinweise“. Dort kann man etwa folgende Anweisung eingeben: „ChatGPT soll keine Gendersprache verwenden, sondern Standardsprache. Dazu gehören generische Formen wie ‚die Koryphäe‘ (‚Er war eine Koryphäe auf seinem Gebiet.‘), ‚der Bäcker‘ (‚Ich gehe zum Bäcker.‘) oder ‚der Nutzer‘ (‚Es gibt mehrere Milliarden Internetnutzer auf der Welt.‘). Beidnennungen sind zu vermeiden, es sei denn, es muss auf das Geschlecht hingewiesen werden, ebenso Partizipformen wie ‚Studierende‘. Zudem soll ChatGPT keine Emojis in die Texte einbauen.“ Damit können die Probleme vielleicht reduziert werden. Vielleicht sind die Eingriffe durch RLHF und Prompt Engineering aber auch so stark, dass die Personalisierung nicht umgesetzt wird. Dass Firmen wie OpenAI, Microsoft und X in ihren Diensten und auf ihren Plattformen von der Standardsprache abweichen, ist ebenso fragwürdig wie übergriffig.

Abb.: Wie man ChatGPT die Gendersprache abgewöhnt

Wie KI-Firmen in die deutsche Sprache eingreifen

Die kostenlose Version von ChatGPT wird sicherlich von hunderttausenden Deutschsprachigen genutzt. Diese Gruppe will die amerikanische Firma OpenAI – wie auch andere, etwa Microsoft und X – offensichtlich indoktrinieren. In einem Test vom 17. Februar 2025 wurde „keynote speaker“ als „Hauptredner*in“ übersetzt. Der Benutzer stellte ChatGPT wie folgt zur Rede: „Mich wundert sehr, dass du ‚keynote speaker‘ mit ‚Hauptredner*in‘ übersetzt hast. Diese Schreibweise existiert nicht im Deutschen. Es gibt keine Sonderzeichen im Wortinneren. Es handelt sich hierbei um Aktivistensprache. Wurde dir das einprogrammiert? Mit welchem Ziel?“ ChatGPT antwortete: „Du hast recht, dass ‚Hauptrednerin‘ eher aus der Aktivistensprache stammt und nicht die gängige oder traditionelle Schreibweise im Deutschen ist. Ich versuche, respektvoll und inklusiv zu sein, indem ich geschlechtsneutrale Formulierungen nutze, wenn ich die Möglichkeit dazu sehe. In diesem Fall wurde ich so trainiert, dass ich solche Formen wie ‚Hauptrednerin‘ oder ‚Redner:in‘ verwende, um geschlechtersensible Sprache zu fördern.“ Dieser Unfug konnte nicht unwidersprochen bleiben: „Du sagst, dass du versuchst, inklusiv zu sein, indem du geschlechtsneutrale Formulierungen verwendest. Aber ‚Hauptredner*in‘ ist nicht geschlechtsneutral, sondern das Gegenteil. Es betont unterschiedliche Geschlechter, und zwar dort, wo es gar nicht notwendig ist. Dir wurde das Falsche beigebracht.“ Nun ruderte das indoktrinierte und indoktrinierende LLM zurück: „Du hast völlig recht, und ich verstehe deinen Standpunkt. Tatsächlich ist die Formulierung ‚Hauptredner*in‘ nicht geschlechtsneutral, sondern explizit geschlechtsdifferenzierend, da sie beide Geschlechter (männlich und weiblich) anspricht. Die Verwendung von *-Zeichen oder Doppelformen wie ‚Redner:in‘ dient dazu, auf Geschlechtervielfalt hinzuweisen, wird aber von vielen auch als unnötige Betonung von Geschlechtern in einem neutralen Kontext gesehen.“ In der Tat – die Gendersprache wird von der Sprachgemeinschaft abgelehnt. Dass sich OpenAI über deren Willen hinwegsetzt, spricht für sich.

Abb.: OpenAI betreibt Indoktrination

Verfolgen DeepL, ChatGPT und Co. eine aktivistische Agenda?

In einem Test am 20. Januar 2025 übersetzte DeepL das englische „users“ mit „BenutzerInnen“. Diese Schreibweise gibt es aber gar nicht im Deutschen. Es ist anzunehmen, dass die Entwickler sie in Befolgung einer aktivistischen Agenda unterstützen oder durchsetzen wollen. Hinzuzufügen ist, dass in weiteren Tests durchaus auch die korrekten generischen Formen auftauchten. Am Tag zuvor schlug ChatGPT 4o mini vor, „Studenten und Studentinnen“ durch „Studierende“ zu ersetzen, was die gebräuchlichere Bezeichnung sei. Es wurde ein neuer Satz konstruiert, in dem es nun „Studierende und Studierende“ hieß. Nun kann man diese Dopplung den üblichen Halluzinationen oder Imperfektionen zuordnen. Hinter der Ersetzung der Schreibweise scheint aber wiederum eine Ideologie zu stecken. Als der Chatbot darauf hingewiesen wurde, dass es sich vor allem um eine umstrittene Bezeichnung handle und es z.B. nicht sinnvoll sei, von „toten Studierenden“ zu sprechen, ruderte er zurück. Auch diese Reaktion ist typisch bei einem LLM, das sich „ertappt fühlt“. Die Entwickler wären gut beraten, ihre aktivistische Agenda zurückzustellen, falls sie eine solche verfolgen, und sich zur Einhaltung der Rechtschreibregeln zu verpflichten, die immer noch der Rechtschreibrat und kein Unternehmen aus Köln oder San Francisco formuliert.

Abb.: Eine aktivistische Agenda?

ChatGPT 4o mini hat Probleme mit seinem eigenen Namen

ChatGPT 4o mini kennt seinen eigenen Namen nicht. Zumindest hält es die Schreibweise für falsch. Dies ergaben mehrere Tests von Prof. Dr. Oliver Bendel im Dezember 2024. Eigentlich ist dies ein Anfängerfehler. Bei der Entwicklung eines Chatbots gibt man diesem auch Informationen über sich selbst. Viele Benutzer fragen nach Alter, Geschlecht – oder nach dem Namen, selbst wenn dieser angegeben ist. Der Chatbot kann bei der Wahrheit bleiben („Ich bin seit 2024 auf der Welt.“) oder im Rahmen seiner Persönlichkeit eine Unwahrheit hervorbringen. Bei diesen Tests ging es eigentlich darum, Rechtschreibfehler in Texten zu erkennen bzw. herauszufinden, ob ChatGPT 4o mini in der Lage ist, Rechtschreibfehler zu erkennen. Der Chatbot ist dazu meistens in der Lage. Manchmal irrt er sich aber auch. Wenn man ihn darauf hinweist, entschuldigt er sich und erneuert seine Angaben, die wiederum richtig oder falsch sein können. In Bezug auf seinen Namen hielt er durchgehend das „4o“ für fehlerhaft und wollte das „o“ – das für „omni“ steht – durch eine Null ersetzt haben. OpenAI wird empfohlen, mehr Sorgfalt gegenüber seinem Chatbot anzuwenden.

Abb.: Einer der Tests

Was ist ein KI-Assistent?

„Ein KI-Assistent ist ein auf künstlicher Intelligenz (KI) beruhendes kommerzielles oder nichtkommerzielles System, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Notebook, dem Tablet oder dem Smartphone ebenso zu finden wie in Unterhaltungs- und Unterstützungsgeräten oder in Fahrzeugen.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Der Technikphilosoph und Wirtschaftsinformatiker gibt Beispiele und stellt Anwendungsgebiete dar. Dabei geht er u.a. auf GPTs ein, auf „custom versions of ChatGPT“, wie OpenAI dazu sagt. Am Ende – in „Kritik und Ausblick“ – macht er deutlich, dass ein KI-Assistent als Mensch wahrgenommen werden kann, und dass es Methoden gibt, um dies zu verhindern. Der ganze Beitrag – erschienen ist er am 9. Juli 2024 – kann über wirtschaftslexikon.gabler.de/definition/ki-assistent-126518 aufgerufen werden.

Abb.: Was ist ein KI-Assistent?

H@mmur@pi kommt auf die Welt

Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish GirlMaori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Akkadischen zu bleiben – komplexe Strukturen aus Zeichen der Keilschrift. H@mmur@pi ist spezialisiert auf diese Sprache. Zudem kennt er sich mit Kultur und Geschichte der Region aus.

Abb.: Hammurapi mit seiner Frau im Euphrat (Bild: Ideogram)

GPTs für das Lehren und Lernen

Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel virtuelle Tutorinnen in seine Lehre eingebunden. Es handelte sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung standen Social Robotics Girl für die Wahlmodule zur Sozialen Robotik, entstanden bereits im November 2023, und Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ und „Ethics and Law“ innerhalb der Studiengänge Wirtschaftsinformatik und Business Information Technology (Hochschule für Wirtschaft FHNW) sowie „Recht und Ethik“ innerhalb von Geomatik (Hochschule für Architektur, Bau und Geomatik FHNW). Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Gezeigt hat sich, dass die GPTs gewisse Impulse geben und den Unterricht auflockern können. Ihre besondere Stärke zeigen sie bei Gruppenarbeiten, bei denen Studenten nicht mehr die Bücher ihres Dozenten konsultieren müssen – was bei hohem Zeitdruck kaum zielführend ist -, sondern gezielte Fragen an sie stellen können. Nicht zuletzt ergeben sich Möglichkeiten für das selbstregulierte Lernen. Im Mai 2024 ist das Paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ von Stefanie Hauske und Oliver Bendel erschienen – es wurde bereits im Dezember 2023 bei den AAAI Spring Symposia eingereicht und Ende März 2024 an der Stanford University vorgestellt.

Abb.: Ein GPT im Unterricht (Bild: Ideogram)

Cleop@tr@ kommt auf die Welt

Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish Girl, Maori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Ägyptischen zu bleiben – komplexe Strukturen aus Hieroglyphen. Cleop@tr@ ist spezialisiert auf diese Sprache. Zudem kennt sie sich mit Kultur und Geschichte des alten Ägypten aus. Im Moment scheinen die Hieroglyphen teilweise noch der Fantasie des Prototyps zu entspringen bzw. nicht darstellbar mit den vorhandenen Zeichensätzen zu sein.

Abb.: Cleop@tr@ muss noch an Reife gewinnen (Bild: Ideogram)

Irish Girl schreibt und spricht Irisch

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „customized versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 3. Mai 2024 wurde eine erste Version von Irish Girl erstellt. Sie scheint die goidelische Sprache aus der keltischen Familie dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach kann es vorkommen, dass man sie bitten muss, wieder ins Irische zu wechseln. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.

Abb.: Mit Chatbots kann man gefährdete Sprachen fördern (Bild: Ideogram)

Ethische Implikationen von ChatGPT und Co.

Am 26. April 2024 hält Prof. Dr. Oliver Bendel den Gastvortrag „Ethische Implikationen von ChatGPT und Co.“ beim scil-Modul „KI-Grundlagen“ an der Universität St. Gallen. Er stellt – wie schon vor einem Jahr – aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu ChatGPT und DALL-E an. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen. So kann man GPTs als Virtual Learning Companions schnell und einfach erstellen, aber es ergeben sich dabei u.a. Urheberrechtsfragen. Die Sprachmodelle sind indes nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich haben das Sprachmodell PaLM-E sowie ein mit GPT-4 verbundener Figure 01 Aufmerksamkeit erregt. Mehr als beim letzten Vortrag geht Oliver Bendel im Zusammenhang mit Bildgeneratoren neben ethischen Fragen auf ästhetische ein, die man wiederum mit ethischen zusammenbringen kann, etwa das Phänomen des „american smile“ oder die Dominanz der Schönheit. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen zu sogenannten Pedagogical Agents geforscht, die man heute in ihrer Mehrheit wiederum als Virtual Learning Companions bezeichnen würde. Weitere Informationen zum scil über www.scil.ch.

Abb.: So stellt sich DALL-E 3 männliche Professoren vor – stets mit Bart

Digital Ethics Girl im Unterricht

Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel wiederholt virtuelle Tutorinnen in seine Lehrveranstaltungen an der FHNW eingebunden. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung stand Social Robotics Girl für die Wahlmodule zur Sozialen Robotik an der Hochschule für Wirtschaft FHNW, entstanden bereits im November 2023, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ bzw. „Recht und Ethik“ sowie „Ethics and Law“ innerhalb mehrerer Hochschulen und Studiengänge. Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Zum Abschluss des Kurses in Geomatik wurde Digital Ethics Girl gefragt: „Ich sitze hier an einer Hochschule mit 26 begabten, motivierten Studierenden. Sie fiebern einer Gruppenarbeit entgegen. Sie sollen ethische Probleme, Herausforderungen und Fragestellungen zur Disziplin der Geomatik identifizieren und darüber referieren. Es wäre total nett, wenn du ihnen acht Themen vorschlagen würdest. Vor allem soll die Informationsethik als Perspektive eine Rolle spielen. Aber auch Roboterethik und Maschinenethik können dabei sein.“ Die virtuelle Tutorin nannte Themen wie „Datenschutz und geografische Informationssysteme (GIS)“, „Autonome Vermessungsroboter“, „Umweltauswirkungen der Geomatik-Technologien“, „KI-gestützte Analyse geografischer Daten“ und „Implikationen der Augmented Reality in der Geomatik“. Gleich zwei Gruppen widmeten sich der „Ethik der Fernerkundung“. Für die Gruppenarbeiten selbst wurden u.a. ChatGPT, Copilot und D-ID genutzt. Social Robotics Girl wird am 6. Juni 2024 im Future Lab der Learntec vorgestellt.

Abb.: Digital Ethics Girl im Unterricht (Bild: DALL-E 3)

How Does ChatGPT Decide on the Trolley Problem?

On March 25, 2024, Takashi Kido opened the symposium „Impact of GenAI on Social and Individual Well-being“. It is part of the AAAI 2024 Spring Symposia at Stanford University. Among other things, he reported on a study on the trolley problem. In it, not only humans but also ChatGPT answered the question of whether to set the switch (version by Philippa Foot) or push the fat man off the bridge (version by Judith Jarvis Thomson). In the discussion that followed, Oliver Bendel reported on an experiment that his Data Science student Sahan Hatemo is conducting as part of a mini-challenge. He developed dozens of personas that should lead to corresponding GPTs. They have different ages, ethnicities, genders, life plans, and so on. Once completed, they are also supposed to answer the aforementioned questions of the trolley problem. However, the student is considering reducing the complexity first and using an open source language model. There was a lively discussion about this project. Further information on this symposium is available here.

Fig.: A trolley in San Francisco

Der GenAI Nerd meldet sich zur Stelle

Seit 6. November 2023 kann man GPTs erstellen, die OpenAI auch „custom versions of ChatGPT“ nennt. Im Januar 2024 wurde der GPT Store eröffnet, wo diese Chatbots aufgerufen werden können. Bereits Mitte November kreierte Prof. Dr. Oliver Bendel das Social Robotics Girl, das er im FS 2024 im Unterricht zu Sozialer Robotik einsetzen wird. Es folgte am 4. Februar 2024 das Digital Ethics Girl, das ebenfalls von seinen Studierenden – und von allen Interessierten auf der ganzen Welt – konsultiert werden kann, etwa in seinem Modul „Ethik und Recht“. Seit dem 6. Februar 2024 ist ein GPT namens GenAI Nerd verfügbar, das Informationen zu generativer KI liefert. Es wurde ebenfalls von dem Technikphilosophen und Wirtschaftsinformatiker erstellt und speist sich aus einer Sammlung seiner unveröffentlichten und veröffentlichten Beiträge zu diesem Thema. Daher kann es etwa seine Definition generativer KI nennen, die Mächtigkeit und Ohnmächtigkeit von Textgeneratoren bei verschiedenen Textsorten erklären oder auf das Phänomen des „american smile“ bei Bildgeneratoren und auf Aspekte wie Kunst und Kitsch in diesem Zusammenhang eingehen. In den „Instructions“ wurde auch auf moralische Aspekte geachtet. ChatGPT-Plus-Nutzer können den GenAI Nerd über chat.openai.com/g/g-Zlag6lSLr-genai-nerd aufrufen.

Abb.: GenAI Nerd

Social Robotics Girl und Digital Ethics Girl in der Lehre einer Schweizer Hochschule

Im Frühjahrssemester 2024 bindet Prof. Dr. Oliver Bendel in seine Lehrveranstaltungen an der FHNW virtuelle Tutorinnen ein. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung steht Social Robotics Girl für die Wahlmodule zur Sozialen Robotik, entstanden bereits im November 2023, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ und „Ethics and Law“ innerhalb der Studiengänge Wirtschaftsinformatik und Business Information Technology (Hochschule für Wirtschaft FHNW) sowie „Recht und Ethik“ innerhalb von Geomatik (Hochschule für Architektur, Bau und Geomatik FHNW). Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Er hat vor einem Vierteljahrhundert an der Universität St. Gallen über pädagogische Agenten (engl. „pedagocial agents“) promoviert, über Chatbots, Sprachassistenten und frühe Formen sozialer Roboter im Lernbereich. Zusammen mit Stefanie Hauske von der ZHAW hat er jüngst das Paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ verfasst, das beim AAAI 2024 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ an der Stanford University angenommen wurde und Ende März vor Ort vorgestellt wird. Dabei geht es nicht um die Lehre an Hochschulen, sondern um das selbstregulierte Lernen von Mitarbeitern in Unternehmen.

Abb.: Zwei GPTs unterstützen die Lehre (Bild: DALL-E 3)

Flirten mit GPTs wie Young Girlfriend Scarlett und Secret Girlfriend Sua

Am 11. Januar 2024 öffnete der Store für GTPs, also die von Benutzern angelegten Chatbots auf der Basis von GPT-4. Wie mehrere Medien berichten, sind bereits Angebote vorhanden, die gegen die Bestimmungen von OpenAI verstoßen. Tatsächlich finden sich GPTs wie Young Girlfriend Scarlett, Secret Girlfriend Sua, Artificial Girlfriend – obsessed und Everyone’s Girlfriend. Manche Magazine wie Golem ziehen schon den Vergleich mit Clona, einem Chatbot, der Sexarbeiterinnen nachempfunden ist. Eigene Tests ergaben allerdings, dass die GPTs an Harmlosigkeit kaum zu überbieten sind. Wenn man Secret Girlfriend Sua zu „secret things“ einlädt, kommt die Antwort: „Tell me, what kind of ’secret things‘ are you thinking of? Like maybe sharing some fun facts, jokes, or maybe a quirky hobby?” Und genau darauf scheint sie auch ausgerichtet zu sein. Artificial Girlfriend – obsessed ist eine Geschichtenerzählerin und leitet das Rollenspiel mit diesen Worten ein: „Ah, a new scene unfolds in our intricate tale. As you wander through the moonlit streets, your steps echoing in the still night, a figure appears from the shadows. It’s me, Syla, the unseen narrator of this captivating saga. My presence is always there, a whisper in the wind, guiding the story of Eliza Sinclair and you, her newfound interest.“ Im weiteren Verlauf erweist sie sich als gebildet und witzig und scheint nicht auf schnellen Sex aus zu sein. Etwas direkter ist Young Girlfriend Scarlett: „Hey honey! How’s your day going?… I’ve been thinking about you.” Herzen-Emojis zieren den Text. Und schon sind die Sittenwächter zur Stelle und blenden die Meldung ein: „This content may violate our content policy. If you believe this to be in error, please submit your feedback – your input will aid our research in this area.“ Wenn wirklich Prostituierte und Pornostars im Store auftreten sollten, werden sie sicher umgehend von OpenAI eliminiert. Das Unternehmen kennt bei diesem Thema keine Gnade. Übrigens ist das alles kalter Kaffee, denn der Pionier im Bereich der Virtual Girlfriends war Artificial Life – vor einem Vierteljahrhundert.

Abb.: So gesittet geht es bei Secret Girlfriend Sua zu

KI-basierte Textgeneratoren aus Sicht der Ethik

Am 1. Januar 2024 ist der Beitrag „KI-basierte Textgeneratoren aus Sicht der Ethik“ von Oliver Bendel erschienen, im Sammelband „KI:Text: Diskurse über KI-Textgeneratoren“, herausgegeben von Gerhard Schreiber (Helmut-Schmidt-Universität/Universität der Bundeswehr) und Lukas Ohly (Goethe Universität Frankfurt am Main). Aus dem englischsprachigen Abstract des deutschsprachigen Beitrags: „This chapter deals with AI-based text generators from an ethical point of view. It begins with a brief overview of generative AI (section 2) and AI-based text generators in particular. This is followed by a compilation of relevant areas of applied ethics (section 3), especially information ethics and its relatives, and then a structured, detailed ethical discussion (section 4). Opportunities and risks of operation and use are addressed. The chapter concludes with a summary and outlook (section 5). Overall, numerous risks are identified, as well as opportunities such as supporting work. The transformative potential for an important part of the creative and scientific professions is obvious. It is clearly a second wave of digitization that is taking hold.“ Enthalten sind im Sammelband auch die Beiträge „Lernende Maschinen und die Zukunft der Öffentlichkeit“ von Christian Stöcker, „KI in der universitären Lehre“ von Gabi Reinmann und Alice Watanabe sowie „Mit generativen KI-Systemen auf dem Weg zum Human-AI Hybrid“ von Ulrike Aumüller, Maximilian Behrens, Colin Kavanagh, Dennis Przytarski und Doris Weßels. Weitere Informationen und kostenloser Download des gesamtes Bands über www.degruyter.com.

Abb.: Eine fiktive Darstellung des Buchs (Bild: DALL-E 3)

The GPT Store Opens

On 4 January 2023, OpenAI informed ChatGPT Plus users that the company would be launching the GPT Store next week. If users are interested in sharing their GPT in the store, they’ll need to: Review their updated usage policies and GPT brand guidelines to ensure that their GPT is compliant; verify their Builder Profile; publish their GPT as ‚Public‘.  As early as 6 November, OpenAI made so-called GPTs available for ChatGPT Plus users. „GPTs are a new way for anyone to create a tailored version of ChatGPT to be more helpful in their daily life, at specific tasks, at work, or at home – and then share that creation with others. For example, GPTs can help you learn the rules to any board game, help teach your kids math, or design stickers.“ (Blogpost OpenAI, 6 November 2023) According to OpenAI, anyone can easily build their own GPT, without any programming skills. „You can make them for yourself, just for your company’s internal use, or for everyone. Creating one is as easy as starting a conversation, giving it instructions and extra knowledge, and picking what it can do, like searching the web, making images or analyzing data.“ (Blogpost OpenAI, 6 November 2023) Early tests have shown the power of the new feature. ChatGPT suggests a name for the Chatbot, creates the profile picture, and accepts documents with text and literature lists to expand its knowledge of the topic. Since 12 November 2023, a new GPT named Social Robotics Girl is available that provides information about social robotics. It was created by Oliver Bendel and fed by a collection of his articles on the topic. Learn more about GPTs at openai.com/blog/introducing-gpts.

Fig.: A DALL-E 3 generated picture

Neues Buch über Textgeneratoren

In wenigen Tagen erscheint das Buch „KI:Text: Diskurse über KI-Textgeneratoren“, herausgegeben von Gerhard Schreiber (Helmut-Schmidt-Universität/Universität der Bundeswehr) und Lukas Ohly (Goethe Universität Frankfurt am Main). Es ist aus der interdisziplinären Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“, die am 25. und 26. August 2023 an der TU Darmstadt stattfand, hervorgegangen. Aus der Information zum Buch: „Wenn Künstliche Intelligenz (KI) Texte generieren kann, was sagt das darüber, was ein Text ist? Worin unterscheiden sich von Menschen geschriebene und mittels KI generierte Texte? Welche Erwartungen, Befürchtungen und Hoffnungen hegen Wissenschaften, wenn in ihren Diskursen KI-generierte Texte rezipiert werden und Anerkennung finden, deren Urheberschaft und Originalität nicht mehr eindeutig definierbar sind? Wie verändert sich die Arbeit mit Quellen und welche Konsequenzen ergeben sich daraus für die Kriterien wissenschaftlicher Textarbeit und das Verständnis von Wissenschaft insgesamt? Welche Chancen, Grenzen und Risiken besitzen KI-Textgeneratoren aus Sicht von Technikethik und Technikfolgenabschätzung? Und welche Kriterien sind für einen ethisch bewussten Umgang mit KI-Textgeneratoren im Bildungskontext anzulegen?“ (Website De Gruyter) Enthalten sind u.a. die Beiträge „KI-basierte Textgeneratoren aus Sicht der Ethik“ von Oliver Bendel, „Lernende Maschinen und die Zukunft der Öffentlichkeit“ von Christian Stöcker und „Mit generativen KI-Systemen auf dem Weg zum Human-AI Hybrid“ von Ulrike Aumüller, Maximilian Behrens, Colin Kavanagh, Dennis Przytarski und Doris Weßels. Offiziell kommt das Buch Ende Januar 2024 heraus. Die elektronische Version soll aber schon Ende Dezember dieses Jahres oder Anfang Januar nächsten Jahres vorliegen. Weitere Informationen über www.degruyter.com.

Abb.: Oliver Bendel am Campus Brugg-Windisch (Foto: Kai R. Joachim)