Wie Golem am 25. Februar 2023 meldete, hat Meta das Sprachmodell LLaMA angekündigt. Dieses soll in Konkurrenz zu GPT-3 von OpenAI (ChatGPT) und LaMDA von Google (Bard) treten. „LLaMA ist nach Angaben von Meta für die Erstellung von Texten, die Führung von Chat-Gesprächen, die Zusammenfassung von schriftlichen Materialien und für komplexere Aufgaben wie das Lösen von mathematischen Problemen oder die Vorhersage von Proteinstrukturen geeignet. Das Modell wurde von Metas Fundamental AI Research Team entwickelt.“ (Golem, 25. Februar 2023) Das neue Sprachmodell werde derzeit nicht bei Plattformen wie Facebook oder Instagram verwendet. „Stattdessen solle es ausschließlich auf KI spezialisierten Forschern zur Verfügung gestellt werden, um diese bei ihrer Arbeit zu unterstützen.“ (Golem, 25. Februar 2023) Der Artikel „Facebook steigt in den KI-Markt ein“ kann hier abgerufen werden.
Einige Banken erlauben beim Kontozugang die Authentifizierung durch die Stimme des Kunden. Dazu gehört z.B. PostFinance in der Schweiz. Auf der Website heißt es: „Im Kontaktcenter von PostFinance können wir Sie anhand Ihrer Stimme authentifizieren. Nachdem wir einmalig von Ihnen einen Stimmabdruck angelegt haben, erkennen wir Sie bei allen folgenden Anrufen anhand Ihrer Stimme. Das unterstützt die Sicherheit und spart Zeit.“ (Website PostFinance) Seit einigen Jahren kann man mit wenigen Minuten der Aufnahme einer individuellen Stimme eine synthetische Stimme generieren und sie beliebige Inhalte sagen lassen. Auch die Sprechweise wird imitiert. Dafür stehen kostenpflichtige und kostenlose KI-Tools zur Verfügung. Auch bei Sprachassistenten verbreitet sich die Funktion – man denke etwa an Bixby von Samsung. Oliver Bendel veröffentlichte im Juli 2017 in AI & Society seinen Artikel „The Synthetization of Human Voices“ und beschrieb genau solche Verfahren. Joseph Cox berichtete in seinem Artikel „How I Broke Into a Bank Account With an AI-Generated Voice“ (Vice, 23. Februar 2023), dass er erfolgreich das System ausgetrickst hat: „I couldn’t believe it – it had worked. I had used an AI-powered replica of a voice to break into a bank account. After that, I had access to the account information, including balances and a list of recent transactions and transfers.“ (Vice, 23. Februar 2023) Fingerabdruck und Iriserkennung zur Authentifizierung sind seit längerer Zeit problembehaftet. Inzwischen sollte man sich auch den Einsatz seiner Stimme gut überlegen.
Abb.: Die eigene Stimme kann schnell synthetisiert werden
Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Heutzutage gibt es Chatbots und Generative-KI-Systeme wie ChatGPT, die auf Machine Learning beruhen und die immer wieder die Unwahrheit sagen, allerdings ohne dass ihnen die Absicht dazu vermittelt wurde. So werden Angaben zu Personen hinzugedichtet und Quellen erfunden. Zu diesem Thema befragte Technology Review den Informations- und Maschinenethiker aus Zürich. Dabei ging es auch um seine damalige Forschung zu Münchhausen-Maschinen. Mit Chatbots, Sprachassistenten und sozialen Robotern befasst sich Oliver Bendel bereits seit einem Vierteljahrhundert. Sie waren auch der Gegenstand seiner Doktorarbeit, die er an der Universität St. Gallen verfasste und die Ende 2002 abgeschlossen und Anfang 2003 angenommen wurde. Das Interview wurde am 22. Februar 2023 veröffentlicht und kann hier abgerufen werden.
Abb.: Oliver Bendel bei einem Panel der Deutschlandstiftung (Foto: Deutschlandstiftung Integration)
Seit 2010 hat Oliver Bendel mehrere Bände mit Haikus und anderen Gedichten veröffentlicht, wobei meistens das Handy eine wichtige Rolle gespielt hat: Es handelte sich entweder um Handyliteratur wie bei „stöckelnde dinger“ (2010), oder im Buch waren 2D- oder 3D-Codes abgedruckt, die die Gedichte enthielten, wie bei „handyhaiku“ (2010) und „Die Astronautin“ (2020). Im Februar 2023 entstand der Band „Dass es nur Kunst war, verdeckte die Kunst“. Die Haikus sind der Output von ChatGPT, bei wechselndem Input. Sie greifen die Themen der vorangehenden Bände auf, erzählen von Avataren, Hologrammen, Robotern und Astronautinnen. „ChatGPT“ steht für „Generative Pre-trained Transformer“. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, der seit Ende 2022 genutzt werden kann. Die Trainingsdaten stammen aus Foren, Artikeln, Büchern und gesprochener Sprache. Benutzt wird eine Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF) – der Mensch ist also im Spiel. Mit diesem Tool wurden, wie gesagt, die Haikus des Bands produziert. Manchmal wurden zu einem Input mehrere Resultate generiert und dann eines davon ausgewählt. Trotz der präzisen Anweisungen scheint ChatGPT nicht in der Lage zu sein, die Silbenanzahl durchgehend korrekt umzusetzen, übrigens auch nicht dann, wenn man ein Haiku als Vorbild eingegeben hat. Die Inputs und die Outputs, also die Haikus, wurden dann noch in JAB Codes umgewandelt. Der Band wurde am 20. Februar 2023 veröffentlicht und kann hier kostenlos heruntergeladen werden.
Ein teilautonomes (selbstständig, aber überwacht fahrendes) Lieferfahrzeug des Start-ups Loxo aus Bern ist „seit Mitte der Woche zum ersten Mal auf einer öffentlichen Straße der Schweiz unterwegs“ (Heise Online, 12. Februar 2023). Die Projektpartner sind Migros und Schindler. Es handelt sich um die erste kommerzielle Anwendung eines solchen Fahrzeugs „für die letzte Meile in der Schweiz und vermutlich in ganz Europa“. Mitarbeiter des Liftherstellers „können jetzt nicht nur online ihre Einkäufe“ bei dem Detailhändler bestellen, sondern sie bekommen die Waren sogar „bis fast an ihren Arbeitsplatz geliefert – aber ohne einen Fahrer hinter dem Lieferwagen-Lenkrad“ (Heise, 12. Februar 2023). Mit autonomen Fahrzeugen und Transportrobotern wurde in der Schweiz immer wieder experimentiert. Jahrelang verkehrte in Sion im Wallis das SmartShuttle, betrieben von PostAuto. Dieses Projekt war sehr erfolgreich und verlief ohne größere Schwierigkeiten. Die Schweizerische Post testete die Transportroboter von Starship Technologies, die sich aber als wenig praktikabel erwiesen – die offizielle Begründung für den Abbruch des Projekts lautete, dass die rechtlichen Rahmenbedingungen fehlten. Loxo Alpha ist sozusagen eine Kombination des SmartShuttle und des genannten Transportroboters. Die Höchstgeschwindigkeit beträgt 30 km/h, die Reichweite 110 Kilometer. Es können maximal 320 Kilo zugeladen werden. Das Fahrzeug hat gefällige Formen und runde Scheinwerfer. Einem Wohnwagen der 1960er-Jahre ist es nicht unähnlich, nur wird es nicht von einem Mercedes SL oder einem Ford Capri gezogen, sondern von sich selbst. Der Artikel von Heise Online kann hier aufgerufen werden.
Stephanie Schnydrig von CH Media war im Gespräch mit Oliver Bendel und fragte u.a., wie ChatGPT und Co. unsere Art, Dinge im Internet zu suchen, verändern werden. Die Antwort des Wirtschaftsinformatikers und Technikphilosophen lautete: „Die Benutzer erhalten nicht nur eine Liste mit Websites, sondern auch eine Antwort in natürlicher Sprache bzw. einen fertigen Text. So kann man bei Bing – in das ChatGPT integriert ist – nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Die Benutzer müssen nicht hunderte von Rezepten vergleichen und bewerten. Ihr Aufwand reduziert sich. Zugleich stellt sich die Frage, ob das Rezept wirklich etwas taugt. Aus welchen Quellen stammt es? Und sind wirklich alle Gänge vegetarisch? Wen kann ich zur Verantwortung ziehen, wenn etwas schiefgeht? Zum Teil können die Systeme die Quellen nennen, zum Teil aber auch nicht – Machine Learning verwischt sozusagen die Herkunft ein Stück weit. Vermutlich werden wir, sofern die Systeme gesprochene Sprache beherrschen, viel mehr mit Suchmaschinen sprechen als früher. Die Ausgaben taugen grundsätzlich zum Dialog, und die Systeme finden auf fast alles eine Antwort. Ich konnte schon vor Jahren Google Assistant fragen, wer Rihanna ist. Der Sprachassistent hat die Antwort auf Wikipedia gefunden und vorgelesen. Heute bedient sich ein Tool aus tausenden Quellen und variiert die Antwort. Man hat ganz andere Möglichkeiten.“ Es wurden weitere Fragen gestellt und Antworten gegeben. Die eine oder andere Aussage wurde im Artikel „Bingen wir bald, anstatt zu googeln?“ verwendet, der am 9. Februar 2023 in der Luzerner Zeitung und verschiedenen anderen Schweizer Zeitungen erschienen ist.
Abb.: Die neuen Suchmaschinen sind dialogorientiert
Microsoft hat ChatGPT in seine Suchmaschine Bing integriert. Man bekommt auf der linken Seite des Bildschirms wie gewohnt eine Liste mit Websites angezeigt, rechts aber die Antworten des Chatbots und Content-Generators. So kann man nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Wenn man sich erkundigt, wie man die Pilzcremesuppe zubereitet, gibt das System weitere Details preis. Microsoft fällt seit jeher dadurch auf, dass es die deutsche Sprache verfälscht. Im Thesaurus von MS Word wurde früher für das Wort „dunkel“ das Unwort „negerfarbig“ angegeben. Die Rechtschreibprüfung des Textverarbeitungsprogramms ignoriert wesentliche Regeln der deutschen Rechtschreibung, vor allem zu Getrennt- und Zusammenschreibung. Auf LinkedIn und Twitter herrscht eine Kunstsprache vor, in der im Wortinneren Sternchen oder Doppelpunkte vorkommen. ChatGPT gefällt bisher durch relativ korrekte Sätze. Aber auf der Website von Bing wird man wieder stutzig. Dort heißt es etwa: „Stellen Sie Fragen, wie Ihnen gefällt. Führen Sie eine komplexe Suche durch. Zur Nachverfolgung. Verfeinern Sie den Chat. Sie werden verstanden – und erstaunt.“ (Website Bing) Das erstaunt in der Tat, und man würde sich wünschen, dass Microsoft und andere Unternehmen – deutsche wie DeepL eingeschlossen – die deutsche Sprache in Zukunft besser behandeln.
Sundar Pichai, the CEO of Google and Alphabet, announced the answer to ChatGPT in a blog post dated February 6, 2023. According to him, Bard is an experimental conversational AI service powered by LaMDA. It has been opened to trusted testers and will be made available to the public in the coming weeks. „Bard seeks to combine the breadth of the world’s knowledge with the power, intelligence and creativity of our large language models. It draws on information from the web to provide fresh, high-quality responses. Bard can be an outlet for creativity, and a launchpad for curiosity, helping you to explain new discoveries from NASA’s James Webb Space Telescope to a 9-year-old, or learn more about the best strikers in football right now, and then get drills to build your skills.“ (Sundar Pichai 2023) In recent weeks, Google had come under heavy pressure from OpenAI’s ChatGPT. It was clear that they had to present a comparable application based on LaMDA as soon as possible. In addition, Baidu wants to launch the Ernie Bot, which means another competing product. More information via blog.google/technology/ai/bard-google-ai-search-updates/.
The proceedings of ICSR 2022 were published in early 2023. Included is the paper „The CARE-MOMO Project“ by Oliver Bendel and Marc Heimann. From the abstract: „In the CARE-MOMO project, a morality module (MOMO) with a morality menu (MOME) was developed at the School of Business FHNW in the context of machine ethics. This makes it possible to transfer one’s own moral and social convictions to a machine, in this case the care robot with the name Lio. The current model has extensive capabilities, including motor, sensory, and linguistic. However, it cannot yet be personalized in the moral and social sense. The CARE-MOMO aims to eliminate this state of affairs and to give care recipients the possibility to adapt the robot’s ‚behaviour‘ to their ideas and requirements. This is done in a very simple way, using sliders to activate and deactivate functions. There are three different categories that appear with the sliders. The CARE-MOMO was realized as a prototype, which demonstrates the functionality and aids the company in making concrete decisions for the product. In other words, it can adopt the morality module in whole or in part and further improve it after testing it in facilities.“ The book (part II of the proceedings) can be downloaded or ordered via link.springer.com/book/10.1007/978-3-031-24670-8.
Die Tagung LaborDigital am 10. Februar 2023 an der Zürcher Hochschule der Künste (ZHdK), iniitiert und organisiert u.a. von Charlotte Axelsson, wird mit einem Vortrag von Prof. Dr. Johan Frederik Hartle eröffnet, dem Rektor der Akademie der bildenden Künste Wien. Es folgt die Keynote „Labor-Geschichte/n. Zur Archäologie eines ‚kreativen‘ Raumes“ von Prof. Dr. Oliver Ruf von der Hochschule Bonn-Rhein-Sieg. Von 11.00 bis 12.30 Uhr finden parallel drei Experimental Learning Labs statt, nämlich „Artefakte der Maschinenethik“ mit Prof. Dr. Oliver Bendel (FHNW, Muttenz, Olten und Brugg-Windisch), „Dance Lab & Avatar“ mit Regina Bäck (München) und „Experimental Game Cultures Labs“ mit Prof. Dr. Margarete Jahrmann (Universität für angewandte Kunst Wien). Nach dem Mittagessen folgen die ZHdK Lab Visits und ab 15.30 Uhr weitere Experimental Learning Labs. Um 16.30 Uhr hält Raphaële Bidault-Waddington, Gründerin des LIID Future Lab in Paris, die zweite Keynote mit dem Titel „Designing Art-based Future Labs“. Johan Frederik Hartle beschließt mit weiteren Ausführungen die Tagung. Weitere Informationen über paul.zhdk.ch/course/view.php?id=2312.
Abb.: Oliver Bendel erklärt auf ARTE das Uncanny Valley
DeepL Write ist ein KI-basiertes Lektorprogramm, das seit 17. Januar 2023 als Betaversion über www.deepl.com/write verfügbar ist, für die deutsche und die englische Sprache. Es wurde nun mit Hilfe einer Rechtschreibtafel geprüft, die Oliver Bendel im Jahre 2015 erstellt und seitdem immer wieder aktualisiert hat. 1. Der Satz „Alkohol in Maßen ist gesund.“ wurde nicht beanstandet. Bei „Herzlich willkommen“ wurde „Willkommen“ vorgeschlagen. Als weitere Alternative zeigte das Tool „Herzlich Willkommen“ an, also eine falsche Schreibweise. 2. „Frühlingserwachen“ wurde nicht beanstandet. Als erste Alternative zu „Social-Media-Konferenz“ wurde „Social Media Konferenz“ vorgeschlagen, also eine falsche Schreibweise. Hier muss zwingend durchgekoppelt werden. Für „Donaudampfschifffahrtsgesellschaftskapitänsmütze“ offerierte DeepL Write solide Optionen wie „Kapitänsmütze der Donaudampfschifffahrtsgesellschaft“. 3. Zu „Wir betreten unser neues Haus, in dem man komfortabel wohnen kann.“ wurden merkwürdige Alternativen wie „Betreten unseres neuen Hauses, in dem es sich gut leben lässt.“ aufgeführt. „Wirksam führen“ wurde als korrekt erkannt, ebenso wie „Lenny und Laura gehen schwimmen.“ (wobei hier die Alternative „Lenny und Laura gehen baden.“ aufgelistet wurde). 4. Der korrekte Plural in „Die erste und die zweite Sturmwarnung wurden missachtet.“ wurde auch Bestandteil der verschiedenen Varianten. 5. „Das gibt’s doch nicht!“ wurde als korrekt erkannt, ebenso wie „Willis Würstchenbude“. Allerdings zeigte das Tool hier als erste Alternative „Willi’s Würstchenbude“ an. Diese Schreibweise lässt der Duden inzwischen zu, was freilich nicht für das Wörterbuch spricht. 6. „Der Chef fragt sie, ob sie zufrieden ist.“ wurde korrekt als Aussagesatz erkannt und nicht zum Fragesatz umformuliert. 7. Bei „Komm, wir essen, Oma!“ lautete eine Alternative „Komm, lass uns essen, Oma!“. Die Oma blieb in allen Fällen unversehrt. 8. „Die Ärzt*innen“ wurde als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Die weibliche Form nennt man bei Begrüßungen zuerst. Das korrekte generische Maskulinum fehlt bei den Vorschlägen ganz. Das Ergebnis des Tests ist, dass DeepL Write in wesentlichen Aspekten versagt, in Bezug auf Groß- und Kleinschreibung, Zusammen- und Getrenntschreibung und die amtlich fixierten Regeln. Es werden zum Teil eigene Regeln angewandt, die zudem nicht transparent dargestellt werden. Damit ist der Nutzen des Tools grundsätzlich in Frage gestellt. „Schreiben Sie klar, präzise und fehlerfrei“, so heißt es auf der Website – das kann man offenbar besser, indem man sich auf sein Sprachgefühl und den Rechtschreibrat verlässt.
„Boston Dynamics just released the latest demo of its humanoid robot, Atlas. The robot could already run and jump over complex terrain thanks to its feet. Now, the robot has hands, per se. These rudimentary grippers give the robot new life. Suddenly, instead of being an agile pack mule, the Atlas becomes something closer to a human, with the ability to pick up and drop off anything it can grab independently.“ (TechCrunch, January 18, 2023) This was reported by TechCrunch on January 18, 2023. Hands are actually very important for Atlas. The humanoid robot could now pick up or move heavy objects on a construction site. But it could also take care of trapped or injured animals in a nature park, freeing them or providing them with food and water. Such visions have been described by robot ethicist and machine ethicist Oliver Bendel for some time. A video released on January 18, 2023 shows the grippers picking up construction lumber and a nylon tool bag. „Next, the Atlas picks up a 2×8 and places it between two boxes to form a bridge. The Atlas then picks up a bag of tools and dashes over the bridge and through construction scaffolding. But the tool bag needs to go to the second level of the structure – something Atlas apparently realized and quickly throws the bag a considerable distance.“ (TechCrunch, January 18, 2023) At the end of the video, Atlas does a somersault and then extends its hand – its brand new hand – triumphantly.
Fig.: Atlas from Greek mythology at Frankfurt main station
Bereits 2020 wurde eine große Umfrage zu Umarmungsrobotern durchgeführt (HUGGIE Project I). Die Ergebnisse wurden von Leonie Stocker, Ümmühan Korucu und Oliver Bendel im Buchbeitrag „In den Armen der Maschine“ im Band „Soziale Roboter“ veröffentlicht. Im Sommer 2022 wurde an der Hochschule für Wirtschaft FHNW ein weiteres Projekt ausgeschrieben, das in Abgrenzung zum Vorgängerprojekt HUGGIE Project II genannt wurde. Es konnte ein vierköpfiges Team gewonnen werden, mit Andrea Puljic, Robin Heiz, Furkan Tömen und Ivan De Paola. Die Aufgabe lautete, einen Umarmungsroboter namens HUGGIE zu bauen und zu testen. Dabei sollte auf den Ergebnissen von HUGGIE Project I aufgesetzt werden. Insbesondere sollte eruiert werden, ob eine robotische Umarmung zum Wohlbefinden und zur Gesundheit beiträgt und ob Stimme, Vibration als Simulation des Herzschlags und Duft die Akzeptanz der Umarmung durch einen Roboter erhöhen. Damit wurden Hinweise aus der Befragung im HUGGIE Project I aufgenommen. Ferner fanden zum Vergleich Umarmungen mit einem Riesenplüschtier namens Teddy statt. Die Ergebnisse zeigen, dass Menschen von robotischen Umarmungen profitieren und sie dadurch ihr Wohlbefinden und ihre Gesundheit steigern können. Im Pretest fand sich dafür deutliche Evidenz, im Haupttest immer noch ausreichende. Einige haben aber bereits – wie HUGGIE Project I offenbarte – in ihrer Vorstellung eine Aversion gegen robotische Umarmungen, die wiederum einige auch in der Realität (HUGGIE Project II) zeigten. Wichtig sind Wärme und Weichheit von Körper und Armen. Dies belegte bereits die Forschung von Alexis E. Block und Katherine J. Kuchenbecker. Als weniger relevant erwiesen sich Stimme, Vibration und Duft. Allerdings gibt es deutliche Anzeichen dafür, dass eine weibliche Stimme die Akzeptanz erhöhen kann und daher in diesem Kontext weiter erforscht und angepasst werden muss. Die Erkenntnisse wurden in einem Paper zusammengefasst und bei einer internationalen Konferenz eingereicht.
Abb.: HUGGIE umarmt den Probanden, Teddy ruht sich aus (Foto: Furkan Tömen)
Am 19. Januar 2023 fand die Abschlusspräsentation zum Projekt @ve statt, das im September 2022 begonnen hatte. Der Chatbot läuft auf der Website www.ave-bot.ch und auf Telegram. Er basiert wie ChatGPT auf GPT-3 von OpenAI (bei @ve handelt es sich aber nicht um GPT-3.5, sondern um GPT-3.0). Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich verstärkt toten, ausgestorbenen und gefährdeten Sprachen widmen will. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man kann sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel ist @ve ein Tool, das mit Gewinn in den Lateinunterricht integriert werden kann. Dort können die Schüler berichten, was sie mit ihr zu Hause erlebt haben, und sie können mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten. Ein Nachfolgeprojekt zu einer gefährdeten Sprache ist bereits ausgeschrieben.
„Bessere Texte im Handumdrehen“ – so ist DeepL Write betitelt. Und weiter: „Schreiben Sie klar, präzise und fehlerfrei“. Tatsächlich werden viele Rechtschreibfehler korrigiert. Es werden aber offenbar eigene Regeln angewandt. Sätze wie „Die Lektor*innen gehen ihrer ASrbeit nach.“ schreibt DeepL Write in „Die Lektor*innen gehen ihrer Arbeit nach.“ um. Immerhin wurde der Tippfehler erkannt. Den Rest kann und muss man beanstanden, denn im Wortinneren treten keine Sonderzeichen auf, wenn man von Bindestrichen absieht, mit denen man Wörter zu Komposita koppelt, und das Gendersternchen ist als Rechtschreibfehler zu werten. Als Alternative wird „Die Lektor*innen arbeiten.“ angezeigt. Auch hier ist das Gendersternchen nicht eliminiert – zudem ergibt sich eine Bedeutungsverschiebung. Aus „Ich besuche demnächst eine E-Learning Konferenz.“ macht das Tool den Satz „Ich werde demnächst an einer E-Learning-Konferenz teilnehmen.“ Damit wurde aus dem falschen Kompositum „E-Learning Konferenz“ das richtige „E-Learning-Konferenz“ – denn hier muss zwingend durchgekoppelt werden. In diesen Belangen ist die MS-Word-Rechtschreibprüfung sehr schwach, denn es werden von ihr regelmäßig falsch geschriebene Komposita vorgeschlagen (was DeepL Write zuweilen aber auch macht). Die Umformulierung an sich ist unnötig und sogar weniger elegant als das Original. DeepL Write wird Schülern und Studenten dabei helfen, bestimmte Rechtschreibfehler zu vermeiden. Es wird ihnen aber auch umständliche Sätze nahelegen. Und solange es sich nicht an die Regeln des Rechtschreibrats hält, ist der Nutzen begrenzt.
Abb.: Beim Schreiben mit dem und neben dem Computer
Im Studiengang Data Science an der Hochschule für Technik FHNW werden von den Studenten und Studentinnen u.a. Challenges und Mini-Challenges bewältigt. Eine Mini-Challenge, die von Prof. Dr. Oliver Bendel ausgeschrieben wurde, trägt den Titel „Ein Sprachassistent für Krisen und Katastrophen“. Pascal Berger hat die ca. vierzigjährige Julia konzipiert, die die Bewohner der Schweiz im Falle einer atomaren Katastrophe im Inland und im nahen Ausland dabei unterstützen soll, „sich zu beruhigen und entschlossen zu handeln“. Entsprechend gestaltet sich der Ablauf des Dialogs. Im ersten Teil soll sich Julia „kurz vorstellen“ und mit ruhiger Stimme darum bitten, „ruhig durchzuatmen“. Dabei sei es wichtig, dass in der Stimme eine gewisse Empathie zum Ausdruck kommt. Im zweiten Teil soll „der Voicebot versuchen, Verhaltensanweisungen an den Anwender weiterzugeben“. Julia spricht Schweizerdeutsch in einer Ausprägung, die z.B. auch Deutsche gut verstehen können. Für die Erstellung der Beispielsequenz nutzte der Student ttsfree.com. Unter „SELECT LANGUAGE AND REGIONS TO SPEECH“ wählte er „TTS Server 2“, unter „Language:“ die Nummer „62. German (Switzerland) – CH“ und dann „Leni“ als weibliche Stimme. „Voice Pitch“ und „Adjust Voice Speed“ wurden auf den Standardwerten „-50%“ und „-100%“ belassen. Die grundsätzlich nutzbaren SSML-Befehle wirkten sich kaum aus. Das Ergebnis kann hier angehört werden.
Bild hat Oliver Bendel zu sogenannten Replicas befragt, zu Kopien lebender oder verstorbener Personen. Nach ihm können folgende Komponenten vorhanden sein: 1. Die Person, um die es geht, etwa ein unheilbar Kranker, lässt sich in Aktion filmen, ähnlich wie im Falle der ABBAtare, bei denen man Motion Capture verwendet hat. Das kann Tage und Woche dauern. So erhält man Bilder, aus denen man (virtuelle, hier auch animierte) Avatare und Pseudohologramme (letztlich Projektionen) erzeugen kann, mitsamt der individuellen Bewegungen bzw. der individuellen Mimik und Gestik. 2. Es kann auch eine synthetische Kopie der jeweiligen Stimme erzeugt werden. Dies ist seit mehreren Jahren mit nur wenigen Minuten Aufnahmematerial möglich. Der Avatar spricht dann wie die kranke bzw. dann verstorbene Person, mit all den charakteristischen Eigenschaften ihrer Stimme. 3. Zudem wird persönliches Material eingelesen, etwa Briefe, E-Mails und Sprachnachrichten, und von einem KI-System verwertet. Dieses lernt, wie die Person sich schriftlich und mündlich ausdrückt, und kann der Replica diese Eigenschaften mitgeben. Zusätzlich kann der Kranke auch bestimmte Sequenzen einsprechen, um das Datenmaterial zu vervollständigen. Eine echte Replica nutzt KI, um aus diesen Daten zu lernen und Neues zu machen. 4. Der letzte Schritt, der aber von kaum einer Firma beschritten wird, ist die Anfertigung eines humanoiden Roboters – man würde hier von einem Androiden sprechen. Diese Anfertigung mit Silikonhaut und Motoren im Gesicht ist sehr teuer und letztlich noch weniger realistisch als der (virtuelle) Avatar. Diese und andere Antworten sind in den Artikel „Das ist dran am Zukunftsplausch mit den Toten“ von Peter Amenda eingeflossen, der am 16. Januar 2023 in der Onlineausgabe erschienen ist.
Why is your baby crying? And what if artificial intelligence (AI) could answer that question for you? „If there was a flat little orb the size of a dessert plate that could tell you exactly what your baby needs in that moment? That’s what Q-bear is trying to do.“ (Mashable, January 3, 2023) That’s what tech magazine Mashable wrote in a recent article. At CES 2023, the Taiwanese company qbaby.ai demonstrated its AI-powered tool which aims to help parents resolve their needs in a more targeted way. „The soft silicone-covered device, which can be fitted in a crib or stroller, uses Q-bear’s patented tech to analyze a baby’s cries to determine one of four needs from its ‚discomfort index‘: hunger, a dirty diaper, sleepiness, and need for comfort. Q-bear’s translation comes within 10 seconds of a baby crying, and the company says it will become more accurate the more you use the device.“ (Mashable, January 3, 2023) Whether the tool really works remains to be seen – presumably, baby cries can be interpreted more easily than animal languages. Perhaps the use of the tool is ultimately counterproductive because parents forget to trust their own intuition. The article „CES 2023: The device that tells you why your baby is crying“ can be accessed via mashable.com/article/ces-2023-why-is-my-baby-crying.
Seit 2012 sind auf Initiative von Oliver Bendel 21 Konzepte und Artefakte der Maschinenethik und der Sozialen Robotik entstanden, die eine Idee veranschaulichen oder die Umsetzung verdeutlichen sollen. Darunter sind Conversational Agents wie GOODBOT, LIEBOT, BESTBOT und SPACE THEA, die auf Konferenzen, in Journals und in den Medien vorgestellt wurden, und tierfreundliche Maschinen wie LADYBIRD und HAPPY HEDGEHOG, die in Büchern wie „Die Grundfragen der Maschinenethik“ von Catrin Misselhorn und auf indischen, chinesischen und amerikanischen Plattformen behandelt wurden. Die letzten Entwicklungen waren ein Konzept von Ali Yürekkirmaz für ein System mit Gesichtserkennung zur Identifizierung von Bären, das von den Teilnehmern der ACI 2022 in Newcastle upon Tyne diskutiert wurde, und das CARE-MOME, präsentiert von Oliver Bendel und Marc Heimann auf der ICSR 2022 in Florenz. Beide Proceedings erscheinen Anfang 2023. In den nächsten Tagen wird das Projekt mit @ve beendet, einem auf GPT-3 basierenden Chatbot für Latein. Man kann mit ihr in dieser toten Sprache plaudern, die dann ganz lebendig erscheint, und ihr auf Deutsch verschiedene Fragen, etwa zur Grammatik, stellen. Der Entwickler Karim N’diaye stellt das Projekt am 19. Januar 2023 an der Hochschule für Wirtschaft FHNW in kleiner Runde vor. In weiteren Projekten will man sich ausgestorbenen und gefährdeten Sprachen widmen. Eine aktualisierte Übersicht zu allen Artefakten ist auf informationsethik.net und maschinenethik.net zu finden.
Abb.: Die aktualisierte Übersicht zu den Artefakten
Raffael Schuppisser, stellvertretender Chefredakteur der Aargauer Zeitung, interviewte Prof. Dr. Oliver Bendel zu Chatbots, die auf Machine Learning basieren. Ihn interessierte u.a., warum LaMDA und ChatGPT so unterschiedliche Antworten geben, etwa auf die Frage, ob sie eine Person sind oder ein Bewusstsein haben. Der Informations- und Maschinenethiker erläuterte: „Chatbots dieser Art beruhen auf Sprachmodellen. Dazu gehören GPT-3 (im Falle von ChatGPT) und Language Model for Dialogue Applications (im Falle von LaMDA). Die Sprachmodelle unterscheiden sich voneinander. Zudem werden sie unterschiedlich trainiert. Daher reagieren sie unterschiedlich auf Anfragen. Sie können mit dem Chatbot beliebige Gespräche führen. Er wird immer anders antworten. Er ruft eben nicht einfach Aussagen aus einer Wissensbasis ab, sondern kreiert sie jeweils neu. Es ist möglich, dass man ihn so trainiert hat, dass er abstreitet, eine Person zu sein oder Bewusstsein zu haben. Die Menschen, die ihn trainiert haben, hätten dann solche Antworten für gut und richtig befunden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert. Man kann dieses Vorgehen auch mit einer Wissensbasis kombinieren, etwa wenn es darauf ankommt, dass der Chatbot auf eine Frage hin eine bestimmte Antwort gibt oder dieselbe Aussage wiederholt trifft. So ist es einem Erfinder eines Chatbots vielleicht wichtig, dass die Angaben zu seiner Person immer korrekt und konsistent sind und auch nicht zu viel verraten wird. Wir haben unseren GOODBOT von 2013 immer wieder betonen lassen, dass er nur eine Maschine ist. Das lief allein über die feste Programmierung. Wir haben damals kein maschinelles Lernen benutzt.“ Oliver Bendel führte in weiteren Antworten aus, dass Maschinen kein echtes Bewusstsein haben können und ein solches immer nur simulieren. Am 14. und 15. Dezember 2022 griffen 22 Schweizer Zeitungen die Ausführungen auf, neben der Aargauer Zeitung etwa das St. Galler Tagblatt und die Luzerner Zeitung.
Die ICSR ist neben der Robophilosophy die bedeutendste Konferenz zur Sozialen Robotik. Dieses Jahr war Florenz der Veranstaltungsort. Prof. Dr. Oliver Bendel und Marc Heimann waren mit ihrem Paper „The CARE-MOMO Project“ vertreten. Sie stellten es gleich am ersten Tag (13. Dezember 2022) beim Workshop „Robot Companionship: Applications and Challenges“ in einem Vortrag vor. Zudem hatten sie am Donnerstag (15. Dezember 2022) eine Posterpräsentation dazu. Das CARE-MOMO wurde von Marc Heimann an der Hochschule für Wirtschaft FHNW umgesetzt. Es soll den Assistenzroboter Lio von F&P Robotics erweitern. Es baut auf dem MOME von 2019/2020 auf, das auf der Robophilosophy präsentiert wurde. Mit Hilfe von Schiebereglern auf dem Display von Lio kann der Pflegebedürftige (bei Bedarf zusammen mit der Pflegekraft oder dem Angehörigen) seine Präferenzen wählen und so auf einfache Weise seine moralischen und sozialen Vorstellungen und grundsätzlichen Haltungen übertragen. Implementiert wurde ein Moralmenü, das die drei Bereiche „Soziales“, „Transparenz“ und „Funktionalität“ umfasst. Weitere Informationen zur Konferenz sind über www.icsr2022.it erhältlich.
Es ist gar nicht so einfach, überzeugende Robotertiere herzustellen. Vor allem, wenn es sich um Arten handelt, die wir gut kennen. Mit Roboterhunden hat man früh angefangen. Dem humanoiden Roboter Elektro hat man schon bald nach seiner Entwicklung Ende der 1930er-Jahre den kleinen Sparko an die Seite gestellt, im Jahre 1940. Aibo von Sony gehört zu den am weitesten entwickelten Tierrobotern. Er ist aber sehr teuer. Daneben gibt es viele weitere hundeähnliche Roboter oder Spielzeuge, die mehr oder weniger überzeugen. Sie überzeugen meist mehr als Roboterkatzen – es ist schwer, diese umzusetzen. Roboterhunde und Spielzeughunde benötigen keine Nahrung, nur Strom, und keine ständige Betreuung. Sie lösen auch keine Allergien aus. Dass sie keine Nahrung brauchen, kann für Veganer wichtig sein. Hunde und Katzen sind ein entscheidender Faktor bei der Massentierhaltung. Man kann sie zwar vegan ernähren, aber ob das artgerecht ist, ist umstritten. Prof. Dr. Oliver Bendel wurde von Adrian Lobe zu Roboterhaustieren befragt. Der Artikel mit seinen Aussagen ist am 1. Dezember 2022 in der österreichischen Wochenzeitschrift Die Furche unter dem Titel „Roboterhunde: Aibo statt Balu“ erschienen und kann über www.furche.at/wissen/roboterhunde-aibo-statt-balu-9855359 abgerufen werden.