DeepL and ChatGPT Generate Incorrect Translations

Users who translate texts from English or another language into German and are not native speakers of the target language should be cautious when using services such as DeepL and ChatGPT. 1. For both, the default setting is not the standard language, as one might assume, but a special language that is rejected by the majority of the language community and does not follow the official rules. These are determined for all German-speaking countries by the Rechtschreibrat. DeepL and ChatGPT follow their own rules or the inconsistent ideas of activists. The German language generated by DeepL and ChatGPT is often dysfunctional, incorrect, and imprecise. Formal inaccuracies can lead to inaccuracies in content. 2. If AI systems do not know words, they may simply replace them with completely different ones. In one test, DeepL translated „Animal-Computer Interaction“ as „Mensch-Computer-Interaktion“ („Human-Computer Interaction“). This made the text factually incorrect. 3. Overall, especially with ChatGPT, English language structures are transferred to German. This results in unnatural-sounding lists, unlinked compounds („Deep Learning Modelle“ or „Deep Learning-Modelle“ instead of „Deep-Learning-Modelle“), and unnecessary or incorrect hyphens („nicht-amtliche Regeln“ instead of „nichtamtliche Regeln“).

Fig.: A Russian-German dictionary

DeepL ersetzt Wörter, wenn es sie nicht kennt

Über die Unzulänglichkeiten und Zumutungen von DeepL wurde immer wieder berichtet. So verwendet es oft keine Standardsprache, sondern eine Sondersprache. Insbesondere bei Nichtmuttersprachlern besteht die Gefahr, dass aus ihren korrekten englischen oder anderssprachigen Texten inkorrekte deutsche werden, ohne dass sie dies bemerken oder ändern können. Bei ChatGPT ist dasselbe der Fall – dort ist die Sondersprache, die sich auf privat ausgedachte oder spontan erfundene Regeln stützt, sogar mit der Standardeinstellung vorgegeben. Kaum bekannt ist, dass DeepL einfach Wörter ersetzt, wenn es sie nicht kennt. Wer nicht im Detail überprüft oder eine Unaufmerksamkeit begeht, gibt womöglich einen sinnentstellten oder sinnentleerten Text ab. Bei einem Test wurde ein Blogpost, der in englischer Sprache vorlag, in die deutsche Sprache übersetzt. Aus „Animal-Computer Interaction“ („Tier-Computer-Interaktion“) wurde einfach „Mensch-Computer-Interaktion“ gemacht. Das Wort „Animal-Computer Interaction“ mag nicht jedem geläufig sein, aber es gibt zahlreiche Artikel dazu und eine Konferenz, die jedes Jahr stattfindet. Solche Falschübersetzungen würde man von den bekannten LLMs erwarten, aber nicht unbedingt von DeepL. Dabei konnte man durchaus gewarnt sein.

Abb.: Die Falschübersetzung von DeepL

Verfolgen DeepL, ChatGPT und Co. eine aktivistische Agenda?

In einem Test am 20. Januar 2025 übersetzte DeepL das englische „users“ mit „BenutzerInnen“. Diese Schreibweise gibt es aber gar nicht im Deutschen. Es ist anzunehmen, dass die Entwickler sie in Befolgung einer aktivistischen Agenda unterstützen oder durchsetzen wollen. Hinzuzufügen ist, dass in weiteren Tests durchaus auch die korrekten generischen Formen auftauchten. Am Tag zuvor schlug ChatGPT 4o mini vor, „Studenten und Studentinnen“ durch „Studierende“ zu ersetzen, was die gebräuchlichere Bezeichnung sei. Es wurde ein neuer Satz konstruiert, in dem es nun „Studierende und Studierende“ hieß. Nun kann man diese Dopplung den üblichen Halluzinationen oder Imperfektionen zuordnen. Hinter der Ersetzung der Schreibweise scheint aber wiederum eine Ideologie zu stecken. Als der Chatbot darauf hingewiesen wurde, dass es sich vor allem um eine umstrittene Bezeichnung handle und es z.B. nicht sinnvoll sei, von „toten Studierenden“ zu sprechen, ruderte er zurück. Auch diese Reaktion ist typisch bei einem LLM, das sich „ertappt fühlt“. Die Entwickler wären gut beraten, ihre aktivistische Agenda zurückzustellen, falls sie eine solche verfolgen, und sich zur Einhaltung der Rechtschreibregeln zu verpflichten, die immer noch der Rechtschreibrat und kein Unternehmen aus Köln oder San Francisco formuliert.

Abb.: Eine aktivistische Agenda?

DeepL verwendet gegenderte Sprache

DeepL gilt als eines der besten Übersetzungstools der Welt. Tatsächlich schneidet es in vielen Tests und Vergleichen besser ab als Google Translate und Co. Allerdings stellt sich die Frage, welche Regeln die Firma aus Köln im Deutschen umsetzt. Wenn man einen englischen Text hat, in dem der „user“ vorkommt, kann es sein, dass dieser mit „NutzerInnen“ übersetzt wird. Dieses Wort mit Binnen-I existiert aber nicht in der deutschen Sprache. Es handelt sich um gegenderte Sprache, um eine Fantasiesprache einer bestimmten Gruppe. Der Rechtschreibrat lehnt diese Schreibweise ebenso ab wie „Nutzer*innen“, „Nutzer:innen“ oder „Nutzer_innen“. Wenn aber ein Übersetzungstool nicht der amtlichen Rechtschreibung folgt, verfehlt es letztlich seinen Sinn und Zweck. Diejenigen, die es besser wissen, müssen den Text nachkorrigieren, und diejenigen, die es nicht besser wissen, bekommen eine falsche Sprache aufgedrängt. Ähnliches lässt sich bei DeepL Write beobachten, dem Redigiertool der gleichen Firma. „Die Ärzt*innen“ wurde bei einem Test als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre übrigens „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Ob sich das deutsche Unternehmen mit seiner politisch-moralischen Positionierung einen Gefallen tut, darf bezweifelt werden. Dass es alles andere als professionell verfährt, ist offensichtlich.

Abb.: Ein scherzhaft verwendeter Genderstern in Zürich