Falschinformationen im Tages-Anzeiger

Im Artikel „Mann in Zürich mit Hiebwaffe verletzt“ schrieb der Tages-Anzeiger am 10. November 2024: „Für die Spurensicherung waren Spezialistinnen des Forensischen Instituts Zürich vor Ort. Die weiteren Ermittlungen werden durch die Staatsanwaltschaft I für schwere Gewaltkriminalität und die Kantonspolizei Zürich geführt.“ Auf X wurde der Stadtpolizei Zürich am selben Tag die Frage gestellt, ob diese Angabe im Tages-Anzeiger korrekt ist. Am 11. November 2024 antwortete sie auf nochmalige Nachfrage: „Wir haben in unserer Medienmitteilung ‚Spezialist*innen‘ kommuniziert.“ Die Stadtpolizei Zürich verwendet demnach für die öffentliche Kommunikation Schreibweisen, die es im allgemeinen Sprachgebrauch gar nicht gibt und die von der (großen Mehrheit der) Sprachgemeinschaft weder gewünscht noch benutzt werden. Die Medien wiederum machen daraus Falschinformationen, denn vermutlich waren sowohl Männer als auch Frauen beteiligt. „Spezialistinnen“ als movierte Form der generischen Form „Spezialisten“ kann einzig und allein für weibliche Personen stehen. Ein generisches Femininum dieser Art – falls die Zeitung versuchte, in diese Richtung zu denken – existiert nicht. Man sieht es allenfalls mit Blick auf das Tierreich. Beispiele sind „Ente“ (movierte Form „Enterich“, alternativ „Erpel“) und „Katze“ (movierte Form „Kater“). Der Tages-Anzeiger hat weder auf X reagiert noch den Bericht korrigiert. Bei ihm finden sich häufig Falschinformationen dieser Art. Übertroffen wird er darin nur noch von der Republik. Und vom SRF.

Abb.: Ob eine Fehlermeldung wohl hilft?

@llegra im Tages-Anzeiger

Ausgestorbene und gefährdete Sprachen werden in erster Linie durch Audiokonservierung und die Sammlung und Digitalisierung von Schriften bewahrt und durch gezielte Maßnahmen zum Spracherwerb gefördert. Eine weitere Möglichkeit wäre die Entwicklung von Conversational Agents, die diese Sprachen beherrschen. Damit hätte man einen interaktiven Gesprächspartner, mit dem man auf eine andere Art und Weise lernt. Der Chatbot @llegra, mit dem man im rätoromanischen Idiom Vallader kommunizieren kann, wurde im Jahre 2023 auf Basis von GPT-4 entwickelt. Er kann Text verarbeiten und ausgeben und verfügt über eine Sprachausgabe. Zusätzlich wurde er mit einer manuell erstellten Wissensbasis ausgestattet. Nach Inside IT hat nun der Tages-Anzeiger, die wichtigste Schweizer Zeitung neben der NZZ, über das Projekt berichtet, das von Prof. Dr. Oliver Bendel initiiert wurde. Der Informations- und Maschinenethiker ist auch Sponsor des Low-Budget-Projekts. Implementiert hat den Prototyp sein Student Dalil Jabou, der zahlreiche technische Schwierigkeiten gemeistert hat. Es werden bis 11. August 2023 noch laufend Verbesserungen durchgeführt. Der Artikel kann hier aufgerufen werden.

Abb.: Der Chatbot @llegra

Über Beziehungen und Gespräche mit Chatbots, Sprachassistenten und sozialen Robotern

Simone Luchetta vom Tages-Anzeiger hat Prof. Dr. Oliver Bendel zu Chatbots befragt. Eine Frage war, wie er den Einsatz von Chatbots in der Geschäftswelt bewerte und ob es welche gebe, die wirklich nützlich sind. Seine Antwort: „Nach der Jahrtausendwende gab es einen Boom bei Chatbots. Sie waren auf den Websites von Banken und Versicherungen und anderen Unternehmen zu finden. Damals konnten sie die Erwartungen nicht erfüllen. Dabei existierten ambitionierte Anwendungen wie Cor@ von der Deutschen Bank oder Anna von IKEA. Sie konnten den Benutzer beraten und Seiten aufrufen – und auch viele soziale Aspekte abdecken. Heute gibt es wieder einen Boom. Zahlreiche Unternehmen setzen Chatbots auf Websites oder in Apps ein, um Kundenanfragen automatisiert zu bearbeiten. Manche wickeln den Vorgang vollständig ab und machen das mehr oder weniger zufriedenstellend. Mir gefällt nicht, dass zuweilen nur bestimmte Kanäle wie WhatsApp bereitstehen. Ich benutze solche Dienste aus verschiedenen Gründen nicht. Viele Chatbots sind sinnvoll und hilfreich, unterhaltsam und lustig sowie einfach in der Bedienung. Wenn die gewünschten Informationen schnell übermittelt werden und diese richtig und nützlich sind, ist es den Benutzern meist egal, dass sie mit Maschinen und nicht mit Menschen kommunizieren. Mit Chatbots dieser Art können Unternehmen automatisieren und so einsparen. Zudem ist man damit rund um die Uhr ansprechbar. Einige Chatbots können aber auch heute die Erwartungen nicht erfüllen. Die Kunden oder die Bürger reagieren genervt. Sie wünschen sich einen menschlichen Kontakt. Und tatsächlich stellen manche Chatbots einen solchen her, sobald sie überfordert sind. Man spricht von hybriden Lösungen oder auch von Cyborgs. Ein Cyborg ist eine Kombination von Mensch und Technik. Normale Cyborgs sind biologische Strukturen, in die technische eingepasst werden. Umgekehrte Cyborgs sind technische Strukturen, in die biologische eingepasst werden. Bei Chatbots kann man beides realisieren – sicherlich überwiegen umgekehrte Cyborgs, denn die menschliche Arbeitskraft ist nachgelagert.“ Das Interview umfasste weitere Fragen und Antworten, auch zu Beziehungen mit Chatbots und Sprachassistenten und sozialen Robotern. Einige Aussagen sind in den Artikel „Meine unheimlich nette Freundin“ eingeflossen, der am 13. und 14. November 2022 in mehreren Schweizer Zeitungen erschienen ist, etwa im Tages-Anzeiger und in der Basler Zeitung. Er ist Teil eines aktuellen KI-Schwerpunkts der Tamedia-Gruppe.

Abb.: Oliver Bendel im Gespräch mit 3sat

 

SBB testen Warnanlage, die Tierlaute imitiert

Durch Züge verursachte Wildtierunfälle sind im Weinland bei Zürich häufig, insbesondere auf zwei Abschnitten. Um die Zahl der Kollisionen zu senken, testen die SBB laut Tages-Anzeiger eine neuartige Warnanlage. Fahre ein Zug in das entsprechende Gebiet hinein, werde ein Lautsprecher am Gleis aktiviert. Die Anlage imitiere Tierlaute, welche die Tiere mit einer natürlichen Gefahr in Verbindung bringen, um sie vor herannahenden Zügen zu warnen – so erklärt es SBB-Sprecher Martin Meier gegenüber der Schweizer Zeitung. „Etwa eine Minute im Voraus ertönt aus den Lautsprechern eine Tierlaut-Kombination, die der realen Lautstärke der jeweiligen Tiere entspricht.“ (Tages-Anzeiger, 12. April 2022) Der Journalist Markus Brupbacher erklärt dies beispielhaft so: „Nähern sich zum Beispiel im Wald Spaziergänger, gibt der Eichelhäher Laute von sich, mit denen der Vogel auch andere Tiere warnt. Oder ein Reh warnt mit Lauten sein Kitz oder andere Rehe vor einer Gefahr. Die akustische SBB-Warnanlage ahmt daher die Schreckrufe von Eichelhähern, Rehen und Wildschweinen nach, um alle Wildtiere zu warnen.“ (Tages-Anzeiger, 12. April 2022) Solche Warnsysteme könnten interessante Bestandteile und Erweiterungen von tierfreundlichen Maschinen sein, wie sie etwa an der Hochschule für Wirtschaft FHNW prototypisch entwickelt werden. Der Artikel ist kostenpflichtig hier erhältlich.

Abb.: Der Schreckruf des Eichelhähers eignet sich für das System

Ein Chatbot mit Emotionserkennung

Der BESTBOT ist eine unmoralische Maschine in einer moralischen. Er ähnelt einer Matrjoschka, der Holzpuppe, in der weitere Holzpuppen stecken. Dies betonte Oliver Bendel in einem Gespräch mit dem Tages-Anzeiger. In die offene Welt würde er den Chatbot deshalb nicht entlassen. Dieser bleibt im Labor der Maschinenethik. Der BESTBOT wurde 2018 an der Hochschule für Wirtschaft FHNW entwickelt. Bereits im März 2018 stellte der Informations- und Maschinenethiker im Rahmen der AAAI Spring Symposia sein Paper „From GOODBOT to BESTBOT“ vor, das die Grundlage für das Projekt legte. David Studer programmierte den Chatbot in Java. Der BESTBOT ist ein vernetztes System, das Suchmaschinen und Lexika benutzt. Er analysiert die Texteingaben des Benutzers mit textbasierter Emotionserkennungssoftware. Zugleich wird Gesichtserkennung eingesetzt, wiederum mit Emotionserkennung. Wenn der Benutzer zum Beispiel angibt, dass es ihm gut geht, sein Gesicht aber anderes verrät, spricht der Chatbot diesen Widerspruch an. Dieser erkennt sowohl kleine als auch große Sorgen. Dies ist ohne Zweifel von hohem Nutzen, gerade wenn der Benutzer sich etwas antun will. Zugleich kann Gesichtserkennung, vor allem im Zusammenhang mit Emotionserkennung, hochproblematisch sein. Oliver Bendel rät davon ab, solche Systeme bei der automatisierten Kommunikation und im öffentlichen Raum einzusetzen. Der ganzseitige Artikel im Tages-Anzeiger zum BESTBOT ist am 12. Dezember 2018 erschienen und kann hier heruntergeladen werden.

Abb.: Der Chatbot verfügt über Emotionserkennung