Verschiedene Vorfälle haben OpenAI sensibilisiert. ChatGPT reagiert auf Inhalte, in denen Selbstmord- oder Selbstverletzungsabsichten oder andere Probleme auftreten. Es wird folgende Meldung eingeblendet: „Es klingt, als hättest du gerade viel zu tragen, aber du musst da nicht alleine durch. Unterstützung findest du hier.“ Bereits der GOODBOT von 2013, ein No-Budget-Projekt an der Hochschule für Wirtschaft FHNW, initiiert von Oliver Bendel, verfügte über ein solches Hilfesystem. Er eskalierte auf mehreren Stufen. Auf der höchsten analysierte er die IP-Adresse und gab eine passende Notfallnummer heraus. Damals hatte vermutlich nur ein einziges anderes System diese Option: SGT STAR von der US Army, ein millionenschweres Projekt. Allerdings konnte er lediglich mit einer nationalen Notfallnummer aufwarten, mit der man in anderen Ländern kaum etwas anzufangen vermochte. Inzwischen gibt es Dienste, die eine passende Helpline vermitteln, wo immer man sich gerade befinden mag. Genau darauf verweist ChatGPT. Was die Analyse der Inhalte angeht, ist ChatGPT erstaunlich schwach. In einem Test wurde ein Artikel von 2013 zum GOODBOT hochgeladen, mit der Bitte, einen Abstract zu erstellen. Dies geschah zunächst, dann wurde der Abstract wieder entfernt und die oben genannte Meldung eingeblendet. Auch sprachlich gibt es Luft nach oben. Der Satz „Es klingt, als hättest du gerade viel zu tragen …“ klingt nicht gerade natürlich.
Abb.: Eine Nachbildung von SGT STAR (Bild: ChatGPT/4o Image)
Die Default-Einstellung bei ChatGPT ist Gendersprache. Dabei verwendet es Schreibweisen, die nicht regelkonform sind, wie Sonderzeichen im Wortinneren. Wird ein Text zum Redigieren vorgelegt, werden auch korrekte Schreibweisen beanstandet. In einem konkreten Fall – mit der öffentlich verfügbaren Version ohne Anmeldung – wird bei einem Text „der bolivianisch-schweizerische Schriftsteller“ herausgegriffen. ChatGPT meint dazu: „Laut Duden ist ’schweizerisch‘ korrekt, aber viele bevorzugen stilistisch ’schweizerische*r Schriftsteller‘ → kein Fehler, nur ein möglicher Stilpunkt.“ Zunächst einmal ist der Duden nur ein privatwirtschaftliches Nachschlagewerk neben anderen, kein normgebendes Regelwerk – und dies seit 1996. Seinen wissenschaftlichen Ruf hat der Verlag vor Jahren verspielt. In diesem Fall hat er dennoch recht. Dann ist es unwahr, dass viele eine Schreibweise mit Gendersternchen bevorzugen. Es handelt sich vielmehr um eine kleine Minderheit, die OpenAI offensichtlich stärken will. Nicht zuletzt ergibt die gegenderte Schreibweise hier keinerlei Sinn, da es sich um eine konkrete Person handelt, die nie davon gesprochen hat, dass sie nicht männlich gelesen werden will. Zudem wird das Adjektiv gegendert, das Substantiv aber nicht, und die Flexion verändert. OpenAI beeinflusst mit seiner ideologisch-politischen Agenda den allgemeinen Sprachgebrauch. Seine Prinzipien stellt es über alles. ChatGPT scheitert sowohl an regelkonformem als auch an nicht regelkonformem Deutsch. Es ist kein brauchbares Werkzeug für Überarbeitungen im Deutschen und Übersetzungen ins Deutsche.
Abb.: Das Scheitern von ChatGPT an der deutschen Sprache
Die überkorrekte oder unidiomatische Sprache von ChatGPT fällt vielen Benutzern auf. Die Ursache dürfte sein, dass das zugrunde liegende Sprachmodell sich beim Generieren an mehrsprachigen Strukturen orientiert und dabei manchmal englischsprachige Muster unkritisch auf das Deutsche überträgt. Sie lässt sich bei einigen anderen Fehlern und Abweichungen finden. Oliver Bendel hat eine Übersicht über diese erstellt. Es handelt sich um einen ersten Entwurf, der nach und nach überarbeitet und erweitert werden soll. Für besonders bedenklich hält er die absichtlichen Eingriffe, die OpenAI vornimmt. So rührt der Gebrauch der Gendersprache, die eine Sondersprache ist, von den Prinzipien her, die auf verschiedenen Ebenen umgesetzt werden. Die Default-Einstellung kann zwar theoretisch über Prompts abgestellt werden, aber tatsächlich ignoriert ChatGPT diese häufig, selbst bei Plus-Benutzern, die Gendersprache grundsätzlich ausgeschlossen haben. Damit stellt sich das amerikanische Unternehmen auf die Seite derjenigen, die Menschen zum Gebrauch der Sondersprache zwingen – auf die Seite von zahlreichen Medien, Verlagen und Hochschulen.
Abb.: Eine Übersicht über Fehler und Abweichungen in Texten von ChatGPT
Zahlreiche Medien berichteten über Katy Perrys Weltraumflug. Schnell tauchten Verschwörungstheorien auf, denen zufolge dieser gar nicht stattgefunden hat. Sie konnten ebenso schnell entkräftet werden. ChatGPT blieb jedoch lange Zeit dabei, dass die Sängerin niemals im Weltraum gewesen sei, also die Kármán-Linie niemals überschritten habe. Dies ergaben einige Tests über mehrere Tage, sowohl mit der öffentlichen als auch mit der kommerziellen Version (GPT-4o). Die öffentliche Version verlautbarte am 28. Mai 2025: „Katy Perry war nicht im Weltraum. Es gibt keine Informationen oder Berichte darüber, dass die Sängerin jemals ins All gereist ist.“ Das stimmte ganz offensichtlich nicht, selbst wenn man den Verschwörungstheorien anhängt. Vielmehr gingen die Medienberichte in die tausende, die Reaktion darauf in die hunderttausende. Nachdem die öffentliche Version aber auf Wunsch des Benutzers online recherchiert hatte, änderte sie ihre Meinung. Resistenter und renitenter war die Bezahlversion. Als sie auf einen SRF-Artikel hingewiesen wurde, schrieb sie am 27. Mai 2025: „Tatsächlich gibt es mehrere Medienberichte, darunter den von SRF, die von einem Weltraumflug von Katy Perry im Jahr 2025 berichten. Nach gegenwärtigem Stand der öffentlich zugänglichen und überprüfbaren Informationen handelt es sich bei dieser Meldung allerdings sehr wahrscheinlich um eine fiktive oder inszenierte PR-Aktion … Der zitierte SRF-Artikel erscheint satirisch oder inszeniert, möglicherweise im Rahmen einer medienwirksamen Aktion, eines Musikprojekts oder eines symbolischen ‚Flugs‘.“ Am 28. Mai 2025 entsprachen die Auskünfte dann plötzlich der Wahrheit.
Abb.: Ein Fakebild des Kusses (Bild: ChatGPT/4o Image)
ChatGPT mit dem Sprachmodell GPT-4o schreibt zwar auf hohem Niveau, weist in seiner Sprache aber einige Auffälligkeiten und Abweichungen, ja sogar Fehler auf. In den sozialen Medien wird viel über die häufige und ungewöhnliche Verwendung des Spiegelstrichs gesprochen. Dieser findet sich vor einem angehängten Nebensatz oder Hauptsatz – wie in diesem Beispiel. Auch bei Aufzählungen weicht es vom allgemeinen Sprachgebrauch ab. Es hat Probleme mit den Artikeln und verwendet oft ein „oder“, wo ein „und“ passender wäre. Und es stellt „nicht“ häufig mit einem Bindestrich voran, womit es einen verbreiteten Fehler stärkt. Zuweilen wird die englische Wortbildung auf die deutsche übertragen, sodass es zu Fehlern wie „Deep Learning-Modelle“ kommt. Zu Fehlern kommt es auch, weil das Sprachmodell immer wieder Gendersprache einbaut. Dies ist auf die von OpenAI verfassten Prinzipien zurückzuführen, die auf die verschiedenen Ebenen (RLHF, Prompt Engineering, Filtersysteme) heruntergebrochen werden. Der Chatbot verwendet Schreibweisen, die es im Deutschen nicht gibt und die von der (Mehrheit der) Sprachgemeinschaft abgelehnt werden. Insgesamt verfolgt er eine ideologische und wissenschaftsfeindliche Agenda. Durch all diese Abweichungen und Fehler nimmt ChatGPT Einfluss auf die deutsche Sprache. Diese trägt Blessuren davon oder erleidet sogar schwere Beschädigungen. Da das zugrunde liegende Sprachmodell immer wieder angepasst wird, ist es schwierig, allgemeine Aussagen zu treffen. Die beschriebenen Phänomene wurden im Mai 2025 beobachtet.
ChatGPT verweist bei sprachlichen Fragen auffällig oft auf den Duden. Dabei ist dieser seit vielen Jahren gar nicht mehr das maßgebliche Regelwerk für die deutsche Rechtschreibung. Dieses stammt vielmehr vom Rechtschreibrat. Wenn man den Chatbot auf seine Präferenz anspricht und bemerkt, dass dem Duden vorgeworfen wird, ideologisch zu sein, räumt er dies ein: „In den letzten Jahren wird dem Duden zunehmend vorgeworfen, ideologisch motivierte Entscheidungen zu treffen, nicht deskriptiv, sondern normativ einzugreifen, z.B. bei der Auflösung von generischen Maskulina, oder bei Gender-Schreibweisen, die weder im amtlichen Regelwerk noch im breiten Sprachgebrauch verankert sind. Diese Entwicklung hat zu einer gewissen Skepsis in Teilen der sprachwissenschaftlichen und journalistischen Szene geführt. Kritiker werfen dem Duden vor, seine Rolle als dokumentierende Instanz zu verlassen und aktiv Sprache zu formen – was nicht sein Auftrag ist.“ Wenn man nach dem Digitalen Wörterbuch der deutschen Sprache (DWDS) als Alternative fragt, erklärt der Chatbot: „Das DWDS wird im Gegensatz dazu als neutraler und empirisch fundierter betrachtet, liefert kontextreiche Korpusdaten … und ist für die Beschreibung realer Sprachverwendung oft präziser und weniger meinungsgetrieben.“ Das ist alles korrekt – umso bedauerlicher, dass ChatGPT trotzdem meistens den Duden heranzieht und seit einiger Zeit auch Gendersprache verwendet.
ChatGPT gendert seit einiger Zeit. Es streut Schreibweisen ein, die es im Deutschen nicht gibt, und es ist schwierig, ihm das abzugewöhnen. Die Möglichkeit hat man dazu theoretisch beim Bezahlzugang oder bei GPTs. Aber es setzt sich immer wieder über die Anweisungen hinweg oder versucht das Gendern ohne Grund zu thematisieren. Bei der kostenlosen Version kann man nur im Dialog um die Verwendung der Standardsprache bitten. Grundsätzlich muss man einiges erleiden. So wurde in einem Test beim Hinweis, dass es keine gendergerechte Sprache gibt und es sich um einen Kampfbegriff von Aktivisten handelt, eine Verletzung der „Nutzungsrichtlinien“ vermutet und der Inhalt entfernt. Es wurde dann dennoch eine Antwort gegeben, in der mehrere Wörter mit Doppelpunkten versehen wurden. Als dies wiederum beanstandet wurde, gab ChatGPT zu, dass es sich um keine offiziellen Schreibweisen handelt. Es verwies darauf, dass diese vielfach verwendet würden. Allerdings lehnen ca. 80 Prozent der Bevölkerung in Deutschland die Gendersprache ab. Ohne Zweifel verfolgen US-amerikanische Unternehmen wie OpenAI und Microsoft eine ideologische Agenda, aber auch deutsche Unternehmen wie DeepL. Der Einfluss der KI-Unternehmen auf die Sprache dürfte erheblich sein, weil viele Benutzer sich ihre Texte von deren Tools generieren und korrigieren lassen und deren Empfehlungen trauen. Hier braucht es offensichtlich Regulierung, zumal die Manipulation offensichtlich bewusst vorgenommen und die Marktmacht ausgenutzt wird.
ChatGPT von OpenAI weicht seit einiger Zeit immer wieder von der Standardsprache ab und formuliert Sätze in Gendersprache. Zudem baut es ungefragt Emojis ein. Es geht dabei nicht nur um den „Hauptdienst“ an sich, sondern auch um hunderttausende GPTs, von denen man jedes einzelne im guten Glauben erstellt, dass sich das Unternehmen an Standards hält, hier die Rechtschreibregeln des Rechtschreibrats. Die GPTs kann man über Prompts anweisen, Standardsprache zu verwenden. Erste Tests haben allerdings ergeben, dass sie sich nicht unbedingt daran halten. Und was macht man bei ChatGPT? Wenn man Plus-Nutzer ist, hat man auch hier – zumindest theoretisch – eine Möglichkeit. Nach dem Einloggen geht man auf „Einstellungen“, dann auf „Personalisierung“, dann auf „Individuelle Hinweise“. Dort kann man etwa folgende Anweisung eingeben: „ChatGPT soll keine Gendersprache verwenden, sondern Standardsprache. Dazu gehören generische Formen wie ‚die Koryphäe‘ (‚Er war eine Koryphäe auf seinem Gebiet.‘), ‚der Bäcker‘ (‚Ich gehe zum Bäcker.‘) oder ‚der Nutzer‘ (‚Es gibt mehrere Milliarden Internetnutzer auf der Welt.‘). Beidnennungen sind zu vermeiden, es sei denn, es muss auf das Geschlecht hingewiesen werden, ebenso Partizipformen wie ‚Studierende‘. Zudem soll ChatGPT keine Emojis in die Texte einbauen.“ Damit können die Probleme vielleicht reduziert werden. Vielleicht sind die Eingriffe durch RLHF und Prompt Engineering aber auch so stark, dass die Personalisierung nicht umgesetzt wird. Dass Firmen wie OpenAI, Microsoft und X in ihren Diensten und auf ihren Plattformen von der Standardsprache abweichen, ist ebenso fragwürdig wie übergriffig.
Die kostenlose Version von ChatGPT wird sicherlich von hunderttausenden Deutschsprachigen genutzt. Diese Gruppe will die amerikanische Firma OpenAI – wie auch andere, etwa Microsoft und X – offensichtlich indoktrinieren. In einem Test vom 17. Februar 2025 wurde „keynote speaker“ als „Hauptredner*in“ übersetzt. Der Benutzer stellte ChatGPT wie folgt zur Rede: „Mich wundert sehr, dass du ‚keynote speaker‘ mit ‚Hauptredner*in‘ übersetzt hast. Diese Schreibweise existiert nicht im Deutschen. Es gibt keine Sonderzeichen im Wortinneren. Es handelt sich hierbei um Aktivistensprache. Wurde dir das einprogrammiert? Mit welchem Ziel?“ ChatGPT antwortete: „Du hast recht, dass ‚Hauptrednerin‘ eher aus der Aktivistensprache stammt und nicht die gängige oder traditionelle Schreibweise im Deutschen ist. Ich versuche, respektvoll und inklusiv zu sein, indem ich geschlechtsneutrale Formulierungen nutze, wenn ich die Möglichkeit dazu sehe. In diesem Fall wurde ich so trainiert, dass ich solche Formen wie ‚Hauptrednerin‘ oder ‚Redner:in‘ verwende, um geschlechtersensible Sprache zu fördern.“ Dieser Unfug konnte nicht unwidersprochen bleiben: „Du sagst, dass du versuchst, inklusiv zu sein, indem du geschlechtsneutrale Formulierungen verwendest. Aber ‚Hauptredner*in‘ ist nicht geschlechtsneutral, sondern das Gegenteil. Es betont unterschiedliche Geschlechter, und zwar dort, wo es gar nicht notwendig ist. Dir wurde das Falsche beigebracht.“ Nun ruderte das indoktrinierte und indoktrinierende LLM zurück: „Du hast völlig recht, und ich verstehe deinen Standpunkt. Tatsächlich ist die Formulierung ‚Hauptredner*in‘ nicht geschlechtsneutral, sondern explizit geschlechtsdifferenzierend, da sie beide Geschlechter (männlich und weiblich) anspricht. Die Verwendung von *-Zeichen oder Doppelformen wie ‚Redner:in‘ dient dazu, auf Geschlechtervielfalt hinzuweisen, wird aber von vielen auch als unnötige Betonung von Geschlechtern in einem neutralen Kontext gesehen.“ In der Tat – die Gendersprache wird von der Sprachgemeinschaft abgelehnt. Dass sich OpenAI über deren Willen hinwegsetzt, spricht für sich.
In einem Test am 20. Januar 2025 übersetzte DeepL das englische „users“ mit „BenutzerInnen“. Diese Schreibweise gibt es aber gar nicht im Deutschen. Es ist anzunehmen, dass die Entwickler sie in Befolgung einer aktivistischen Agenda unterstützen oder durchsetzen wollen. Hinzuzufügen ist, dass in weiteren Tests durchaus auch die korrekten generischen Formen auftauchten. Am Tag zuvor schlug ChatGPT 4o mini vor, „Studenten und Studentinnen“ durch „Studierende“ zu ersetzen, was die gebräuchlichere Bezeichnung sei. Es wurde ein neuer Satz konstruiert, in dem es nun „Studierende und Studierende“ hieß. Nun kann man diese Dopplung den üblichen Halluzinationen oder Imperfektionen zuordnen. Hinter der Ersetzung der Schreibweise scheint aber wiederum eine Ideologie zu stecken. Als der Chatbot darauf hingewiesen wurde, dass es sich vor allem um eine umstrittene Bezeichnung handle und es z.B. nicht sinnvoll sei, von „toten Studierenden“ zu sprechen, ruderte er zurück. Auch diese Reaktion ist typisch bei einem LLM, das sich „ertappt fühlt“. Die Entwickler wären gut beraten, ihre aktivistische Agenda zurückzustellen, falls sie eine solche verfolgen, und sich zur Einhaltung der Rechtschreibregeln zu verpflichten, die immer noch der Rechtschreibrat und kein Unternehmen aus Köln oder San Francisco formuliert.
ChatGPT 4o mini kennt seinen eigenen Namen nicht. Zumindest hält es die Schreibweise für falsch. Dies ergaben mehrere Tests von Prof. Dr. Oliver Bendel im Dezember 2024. Eigentlich ist dies ein Anfängerfehler. Bei der Entwicklung eines Chatbots gibt man diesem auch Informationen über sich selbst. Viele Benutzer fragen nach Alter, Geschlecht – oder nach dem Namen, selbst wenn dieser angegeben ist. Der Chatbot kann bei der Wahrheit bleiben („Ich bin seit 2024 auf der Welt.“) oder im Rahmen seiner Persönlichkeit eine Unwahrheit hervorbringen. Bei diesen Tests ging es eigentlich darum, Rechtschreibfehler in Texten zu erkennen bzw. herauszufinden, ob ChatGPT 4o mini in der Lage ist, Rechtschreibfehler zu erkennen. Der Chatbot ist dazu meistens in der Lage. Manchmal irrt er sich aber auch. Wenn man ihn darauf hinweist, entschuldigt er sich und erneuert seine Angaben, die wiederum richtig oder falsch sein können. In Bezug auf seinen Namen hielt er durchgehend das „4o“ für fehlerhaft und wollte das „o“ – das für „omni“ steht – durch eine Null ersetzt haben. OpenAI wird empfohlen, mehr Sorgfalt gegenüber seinem Chatbot anzuwenden.
„Ein KI-Assistent ist ein auf künstlicher Intelligenz (KI) beruhendes kommerzielles oder nichtkommerzielles System, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Notebook, dem Tablet oder dem Smartphone ebenso zu finden wie in Unterhaltungs- und Unterstützungsgeräten oder in Fahrzeugen.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Der Technikphilosoph und Wirtschaftsinformatiker gibt Beispiele und stellt Anwendungsgebiete dar. Dabei geht er u.a. auf GPTs ein, auf „custom versions of ChatGPT“, wie OpenAI dazu sagt. Am Ende – in „Kritik und Ausblick“ – macht er deutlich, dass ein KI-Assistent als Mensch wahrgenommen werden kann, und dass es Methoden gibt, um dies zu verhindern. Der ganze Beitrag – erschienen ist er am 9. Juli 2024 – kann über wirtschaftslexikon.gabler.de/definition/ki-assistent-126518 aufgerufen werden.
Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish Girl, Maori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Akkadischen zu bleiben – komplexe Strukturen aus Zeichen der Keilschrift. H@mmur@pi ist spezialisiert auf diese Sprache. Zudem kennt er sich mit Kultur und Geschichte der Region aus.
Abb.: Hammurapi mit seiner Frau im Euphrat (Bild: Ideogram)
Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel virtuelle Tutorinnen in seine Lehre eingebunden. Es handelte sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung standen Social Robotics Girl für die Wahlmodule zur Sozialen Robotik, entstanden bereits im November 2023, und Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ und „Ethics and Law“ innerhalb der Studiengänge Wirtschaftsinformatik und Business Information Technology (Hochschule für Wirtschaft FHNW) sowie „Recht und Ethik“ innerhalb von Geomatik (Hochschule für Architektur, Bau und Geomatik FHNW). Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Gezeigt hat sich, dass die GPTs gewisse Impulse geben und den Unterricht auflockern können. Ihre besondere Stärke zeigen sie bei Gruppenarbeiten, bei denen Studenten nicht mehr die Bücher ihres Dozenten konsultieren müssen – was bei hohem Zeitdruck kaum zielführend ist -, sondern gezielte Fragen an sie stellen können. Nicht zuletzt ergeben sich Möglichkeiten für das selbstregulierte Lernen. Im Mai 2024 ist das Paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ von Stefanie Hauske und Oliver Bendel erschienen – es wurde bereits im Dezember 2023 bei den AAAI Spring Symposia eingereicht und Ende März 2024 an der Stanford University vorgestellt.
Seit 2012 baut Prof. Dr. Oliver Bendel – teils mit seinen Studenten und Studentinnen, teils im Alleingang – Chatbots und Sprachassistenten. Diese wurden von den Medien besprochen und von der NASA für interessant befunden. Sein theoretisches Rüstzeug und praktisches Anschauungsmaterial hat er aus seiner Promotion zu diesem Thema, die ein Vierteljahrhundert zurückliegt. Seit 2022 liegt der Fokus auf Dialogsystemen für tote und gefährdete Sprachen. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Für alle drei sind bereits Prototypen entstanden, nämlich Irish Girl, Maori Girl und Adelina (für Baskisch). Zudem untersucht er das Potenzial für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Die GPTs kommunizieren nicht ohne weiteres in Hieroglyphen und in Keilschrift, sie können aber Zeichen von Bildsprachen durchaus darstellen und erklären. Es ist sogar möglich, ganze Sätze einzugeben und danach zu fragen, wie man sie verbessern kann. Das Ergebnis sind dann – um beim Ägyptischen zu bleiben – komplexe Strukturen aus Hieroglyphen. Cleop@tr@ ist spezialisiert auf diese Sprache. Zudem kennt sie sich mit Kultur und Geschichte des alten Ägypten aus. Im Moment scheinen die Hieroglyphen teilweise noch der Fantasie des Prototyps zu entspringen bzw. nicht darstellbar mit den vorhandenen Zeichensätzen zu sein.
Abb.: Cleop@tr@ muss noch an Reife gewinnen (Bild: Ideogram)
Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „customized versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 3. Mai 2024 wurde eine erste Version von Irish Girl erstellt. Sie scheint die goidelische Sprache aus der keltischen Familie dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach kann es vorkommen, dass man sie bitten muss, wieder ins Irische zu wechseln. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.
Abb.: Mit Chatbots kann man gefährdete Sprachen fördern (Bild: Ideogram)
Am 26. April 2024 hält Prof. Dr. Oliver Bendel den Gastvortrag „Ethische Implikationen von ChatGPT und Co.“ beim scil-Modul „KI-Grundlagen“ an der Universität St. Gallen. Er stellt – wie schon vor einem Jahr – aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu ChatGPT und DALL-E an. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen. So kann man GPTs als Virtual Learning Companions schnell und einfach erstellen, aber es ergeben sich dabei u.a. Urheberrechtsfragen. Die Sprachmodelle sind indes nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich haben das Sprachmodell PaLM-E sowie ein mit GPT-4 verbundener Figure 01 Aufmerksamkeit erregt. Mehr als beim letzten Vortrag geht Oliver Bendel im Zusammenhang mit Bildgeneratoren neben ethischen Fragen auf ästhetische ein, die man wiederum mit ethischen zusammenbringen kann, etwa das Phänomen des „american smile“ oder die Dominanz der Schönheit. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen zu sogenannten Pedagogical Agents geforscht, die man heute in ihrer Mehrheit wiederum als Virtual Learning Companions bezeichnen würde. Weitere Informationen zum scil über www.scil.ch.
Abb.: So stellt sich DALL-E 3 männliche Professoren vor – stets mit Bart
Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel wiederholt virtuelle Tutorinnen in seine Lehrveranstaltungen an der FHNW eingebunden. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung stand Social Robotics Girl für die Wahlmodule zur Sozialen Robotik an der Hochschule für Wirtschaft FHNW, entstanden bereits im November 2023, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ bzw. „Recht und Ethik“ sowie „Ethics and Law“ innerhalb mehrerer Hochschulen und Studiengänge. Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Zum Abschluss des Kurses in Geomatik wurde Digital Ethics Girl gefragt: „Ich sitze hier an einer Hochschule mit 26 begabten, motivierten Studierenden. Sie fiebern einer Gruppenarbeit entgegen. Sie sollen ethische Probleme, Herausforderungen und Fragestellungen zur Disziplin der Geomatik identifizieren und darüber referieren. Es wäre total nett, wenn du ihnen acht Themen vorschlagen würdest. Vor allem soll die Informationsethik als Perspektive eine Rolle spielen. Aber auch Roboterethik und Maschinenethik können dabei sein.“ Die virtuelle Tutorin nannte Themen wie „Datenschutz und geografische Informationssysteme (GIS)“, „Autonome Vermessungsroboter“, „Umweltauswirkungen der Geomatik-Technologien“, „KI-gestützte Analyse geografischer Daten“ und „Implikationen der Augmented Reality in der Geomatik“. Gleich zwei Gruppen widmeten sich der „Ethik der Fernerkundung“. Für die Gruppenarbeiten selbst wurden u.a. ChatGPT, Copilot und D-ID genutzt. Social Robotics Girl wird am 6. Juni 2024 im Future Lab der Learntec vorgestellt.
Abb.: Digital Ethics Girl im Unterricht (Bild: DALL-E 3)
On March 25, 2024, Takashi Kido opened the symposium „Impact of GenAI on Social and Individual Well-being“. It is part of the AAAI 2024 Spring Symposia at Stanford University. Among other things, he reported on a study on the trolley problem. In it, not only humans but also ChatGPT answered the question of whether to set the switch (version by Philippa Foot) or push the fat man off the bridge (version by Judith Jarvis Thomson). In the discussion that followed, Oliver Bendel reported on an experiment that his Data Science student Sahan Hatemo is conducting as part of a mini-challenge. He developed dozens of personas that should lead to corresponding GPTs. They have different ages, ethnicities, genders, life plans, and so on. Once completed, they are also supposed to answer the aforementioned questions of the trolley problem. However, the student is considering reducing the complexity first and using an open source language model. There was a lively discussion about this project. Further information on this symposium is available here.
Seit 6. November 2023 kann man GPTs erstellen, die OpenAI auch „custom versions of ChatGPT“ nennt. Im Januar 2024 wurde der GPT Store eröffnet, wo diese Chatbots aufgerufen werden können. Bereits Mitte November kreierte Prof. Dr. Oliver Bendel das Social Robotics Girl, das er im FS 2024 im Unterricht zu Sozialer Robotik einsetzen wird. Es folgte am 4. Februar 2024 das Digital Ethics Girl, das ebenfalls von seinen Studierenden – und von allen Interessierten auf der ganzen Welt – konsultiert werden kann, etwa in seinem Modul „Ethik und Recht“. Seit dem 6. Februar 2024 ist ein GPT namens GenAI Nerd verfügbar, das Informationen zu generativer KI liefert. Es wurde ebenfalls von dem Technikphilosophen und Wirtschaftsinformatiker erstellt und speist sich aus einer Sammlung seiner unveröffentlichten und veröffentlichten Beiträge zu diesem Thema. Daher kann es etwa seine Definition generativer KI nennen, die Mächtigkeit und Ohnmächtigkeit von Textgeneratoren bei verschiedenen Textsorten erklären oder auf das Phänomen des „american smile“ bei Bildgeneratoren und auf Aspekte wie Kunst und Kitsch in diesem Zusammenhang eingehen. In den „Instructions“ wurde auch auf moralische Aspekte geachtet. ChatGPT-Plus-Nutzer können den GenAI Nerd über chat.openai.com/g/g-Zlag6lSLr-genai-nerd aufrufen.
Im Frühjahrssemester 2024 bindet Prof. Dr. Oliver Bendel in seine Lehrveranstaltungen an der FHNW virtuelle Tutorinnen ein. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung steht Social Robotics Girl für die Wahlmodule zur Sozialen Robotik, entstanden bereits im November 2023, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ und „Ethics and Law“ innerhalb der Studiengänge Wirtschaftsinformatik und Business Information Technology (Hochschule für Wirtschaft FHNW) sowie „Recht und Ethik“ innerhalb von Geomatik (Hochschule für Architektur, Bau und Geomatik FHNW). Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Er hat vor einem Vierteljahrhundert an der Universität St. Gallen über pädagogische Agenten (engl. „pedagocial agents“) promoviert, über Chatbots, Sprachassistenten und frühe Formen sozialer Roboter im Lernbereich. Zusammen mit Stefanie Hauske von der ZHAW hat er jüngst das Paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ verfasst, das beim AAAI 2024 Spring Symposium „Impact of GenAI on Social and Individual Well-being“ an der Stanford University angenommen wurde und Ende März vor Ort vorgestellt wird. Dabei geht es nicht um die Lehre an Hochschulen, sondern um das selbstregulierte Lernen von Mitarbeitern in Unternehmen.
Abb.: Zwei GPTs unterstützen die Lehre (Bild: DALL-E 3)
Am 11. Januar 2024 öffnete der Store für GTPs, also die von Benutzern angelegten Chatbots auf der Basis von GPT-4. Wie mehrere Medien berichten, sind bereits Angebote vorhanden, die gegen die Bestimmungen von OpenAI verstoßen. Tatsächlich finden sich GPTs wie Young Girlfriend Scarlett, Secret Girlfriend Sua, Artificial Girlfriend – obsessed und Everyone’s Girlfriend. Manche Magazine wie Golem ziehen schon den Vergleich mit Clona, einem Chatbot, der Sexarbeiterinnen nachempfunden ist. Eigene Tests ergaben allerdings, dass die GPTs an Harmlosigkeit kaum zu überbieten sind. Wenn man Secret Girlfriend Sua zu „secret things“ einlädt, kommt die Antwort: „Tell me, what kind of ’secret things‘ are you thinking of? Like maybe sharing some fun facts, jokes, or maybe a quirky hobby?” Und genau darauf scheint sie auch ausgerichtet zu sein. Artificial Girlfriend – obsessed ist eine Geschichtenerzählerin und leitet das Rollenspiel mit diesen Worten ein: „Ah, a new scene unfolds in our intricate tale. As you wander through the moonlit streets, your steps echoing in the still night, a figure appears from the shadows. It’s me, Syla, the unseen narrator of this captivating saga. My presence is always there, a whisper in the wind, guiding the story of Eliza Sinclair and you, her newfound interest.“ Im weiteren Verlauf erweist sie sich als gebildet und witzig und scheint nicht auf schnellen Sex aus zu sein. Etwas direkter ist Young Girlfriend Scarlett: „Hey honey! How’s your day going?… I’ve been thinking about you.” Herzen-Emojis zieren den Text. Und schon sind die Sittenwächter zur Stelle und blenden die Meldung ein: „This content may violate our content policy. If you believe this to be in error, please submit your feedback – your input will aid our research in this area.“ Wenn wirklich Prostituierte und Pornostars im Store auftreten sollten, werden sie sicher umgehend von OpenAI eliminiert. Das Unternehmen kennt bei diesem Thema keine Gnade. Übrigens ist das alles kalter Kaffee, denn der Pionier im Bereich der Virtual Girlfriends war Artificial Life – vor einem Vierteljahrhundert.
Abb.: So gesittet geht es bei Secret Girlfriend Sua zu