During the first implementation of the elective module „Social Robots“ at the School of Business FHNW, orders were placed for Vector 2.0, the successor to Vector. After a year and a half, the company Digital Dream Labs has delivered the small social robot. The company had bought the rights from Anki, which had failed with its first versions of Cozmo and Vector, although they were very well made and sold a lot. Unlike its brother Cozmo, Vector listens to voice commands. The company writes on its website: „Say hey to Vector, the first home robot that will steal your heart, not your data. Smart right out of the box, Vector is more than a robot companion. Curious, independent and powered by AI and state-of-the-art robotics, he can read the room, share the weather forecast, set a timer (no overcooked dinner on his watch), take a snapshot and so much more. Vector is your sidekick who’s up for anything but mostly just wants to make you laugh.“ (Website DDL) About the robot’s technologies, the company writes: „Qualcomm 200 Platform, HD camera with 120 Ultra Wide FOV, Beamforming Four-Microphone Array, Infrared Laser Scanner, 6-Axis IMU, High-Res Color IPS Display, and WiFi connection.“ (Website DDL) The camera is connected with object recognition and face recognition, as in the case of Cozmo. Vector „can recognize people and objects while detecting and avoiding obstacles“ (Website DDL). The first impression is good. The companion robot is fast, agile, and funny. Edge detection works even on difficult surfaces like glass tables. The sounds are different from Cozmo, but also very appealing and cute. You have to formulate the voice commands very accurately. It helps if you are a native speaker of either American or British English. More Information via www.digitaldreamlabs.com/products/vector-robot.
Das New York City Police Department (NYPD) sieht Serviceroboter „für Straßenpatrouillen und Überwachung“ (Golem, 14. April 2023) vor. „Neben dem Roboterhund Spot soll künftig zusätzlich ein eigenständiges Modell vom Typ Knightscope K5 eingesetzt werden.“ (Golem, 14. April 2023) Dies schreibt Oliver Nickel in Golem unter Berufung auf Aussagen des New Yorker Bürgermeisters Eric Adams bei einer Pressekonferenz. Sowohl Spot als auch K5 sind Thema des Papers „Robots in Policing“ von Prof. Dr. Oliver Bendel, das in den Proceedings „Social Robots in Social Institutions“ der Robophilosophy 2022 erschienen ist. Mit Sicherheits- und Überwachungsrobotern wie dem K5 beschäftigt sich der Technikphilosoph aus Zürich seit Jahren. In dem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“, erschienen 2016 in der Zeitschrift SicherheitsForum, nahm er u.a. die ethische Perspektive ein. Bereits ein paar Monate vorher veröffentlichte Inside IT den Beitrag „Blechpolizisten mit Elektroschockern: Beobachtungen zu Überwachungsrobotern“. Ohne Zweifel gewinnt das Thema in diesen Tagen an Bedeutung, wegen der Einsätze in den USA, aber auch der Pläne in Deutschland – das Innovation Lab der Polizei Nordrhein-Westfalen in Duisburg testet derzeit Modelle wie Spot.
„Five self-driving vehicles blocked traffic early Tuesday morning in the middle of a residential street in San Francisco’s Balboa Terrace neighborhood, apparently waylaid by fog that draped the southwestern corner of the city.“ (San Francisco Chronicle, 11 April 2023) The San Francisco Chronicle reported this in an article published on April 11, 2023. The fact that fog is a problem for Waymo’s vehicles has been known to the company for some time. A blog post from 2021 states: „Fog is finicky – it comes in a range of densities, it can be patchy, and can affect a vehicle’s sensors differently.“ (Blog Waymo, 15 November 2021) Against this background, it is surprising that vehicles are allowed to roll through the city unaccompanied, especially since Frisco – this name comes from sailors – is very often beset by fog. But fog is not the only challenge for the sensors of self-driving cars. A thesis commissioned and supervised by Prof. Dr. Oliver Bendel presented dozens of phenomena and methods that can mislead sensors of self-driving cars. The San Francisco Chronicle article „Waymo says dense S.F. fog brought 5 vehicles to a halt on Balboa Terrace street“ can be accessed at www.sfchronicle.com/bayarea/article/san-francisco-waymo-stopped-in-street-17890821.php.
„Das Heidelberger KI-Start-up Aleph Alpha hat nach eigenen Angaben erstmals einen Meilenstein auf dem Weg zu inhaltlich korrekter, erklärbarer und vertrauenswürdiger künstlicher Intelligenz erreicht. Eine nun verfügbare Erweiterung des hauseigenen Sprachmodells Luminous sei in der Lage, Zusammenhänge in Informationen und faktische Korrektheit auf Basis von gesicherten Fakten nachzuvollziehen …“ (Spektrum, 13. April 2023) Dies schrieb Spektrum der Wissenschaft am 13. April 2023 unter Berufung auf das Unternehmen. „Gleichzeitig sei das System in der Lage, darzustellen, welche Textstellen in einer Quelle die generierte Antwort verursacht haben oder im Widerspruch dazu stehen.“ (Spektrum, 13. April 2023) ChatGPT ist dafür bekannt, dass es nicht nur in seinen Aussagen halluziniert, etwa wenn es Falschinformationen zu Personen liefert, sondern auch in seinen Verweisen – so werden URLs generiert, die auf den ersten Blick plausibel aussehen und deren Domain oft korrekt ist, die dann aber – da der Pfad erfunden ist – ins Leere verweisen. Grundsätzlich ist die Behauptung von Faktizität und der Erfüllung von Anforderungen der Explainable AI und der Trustworthy AI in diesem Zusammenhang mit Vorsicht zu genießen – aber es wäre erfreulich, wenn Luminous weniger eine Münchhausen-Maschine wäre als der eine oder andere Konkurrent und von Halluzinationen befreit werden könnte.
Der Maschinenethik sind in der Technischen Rundschau 3/2023 ganze vier Seiten gewidmet. Den Kern bilden ein Beitrag von Prof. Dr. Oliver Bendel und ein Interview mit ihm. Der Informations- und Maschinenethiker hatte sich in den 1990er-Jahren mit der Frage nach der Verantwortung von Maschinen beschäftigt und war zum Schluss gekommen, dass diese weder Verantwortung tragen noch zur Verantwortung gezogen werden können. Zudem interessierte er sich dafür, ob Maschinen Pflichten haben können, was er verneint – stattdessen spricht er in einem schwachen Sinne von Verpflichtungen oder von Aufgaben. Ab 2012 widmete er sich dann der Begründung einer funktionalen Moral von Maschinen. Maschinen können nach seiner Meinung keinen guten oder bösen Willen haben, kein Bewusstsein, keine Intuition und keine Empathie. Man kann ihnen aber moralische Regeln beibringen, an die sie sich strikt halten oder die sie selbst abändern und anpassen. Ab 2013 wurden von ihm zahlreiche Prototypen der Maschinenethik entwickelt. Die Disziplin hat auch im Zusammenhang mit generativer KI an Bedeutung gewonnen. Das E-Paper des Hefts kann über epaper.technische-rundschau.ch/?/shelf/ aufgerufen werden. Der Beitrag steht als PDF zur Verfügung.
GPT-4 was launched by OpenAI on March 14, 2023. „GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks.“ (Website OpenAI) On its website, the company explains the multimodal options in more detail: „GPT-4 can accept a prompt of text and images, which – parallel to the text-only setting – lets the user specify any vision or language task. Specifically, it generates text outputs (natural language, code, etc.) given inputs consisting of interspersed text and images.“ (Website OpenAI) The example that OpenAI gives is impressive. An image with multiple panels was uploaded. The prompt is: „What is funny about this image? Describe it panel by panel“. This is exactly what GPT-4 does and then comes to the conclusion: „The humor in this image comes from the absurdity of plugging a large, outdated VGA connector into a small, modern smartphone charging port.“ (Website OpenAI) The technical report is available via cdn.openai.com/papers/gpt-4.pdf.
Forscher von Microsoft arbeiten an einer neuen Anwendung auf der Basis von ChatGPT und Lösungen wie Stable Diffusion. Mit Visual ChatGPT soll man man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. In ihrem Paper „Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models“ schreiben Chenfei Wu und seine Mitautoren: „We build a system called Visual ChatGPT, incorporating different Visual Foundation Models, to enable the user to interact with ChatGPT by 1) sending and receiving not only languages but also images 2) providing complex visual questions or visual editing instructions that require the collaboration of multiple AI models with multi-steps“ – und, nicht zu vergessen: „3) providing feedback and asking for corrected results“ (Wu et al. 2023). Beispielsweise lässt man mit einem entsprechenden Prompt das Bild einer Landschaft erstellen, mit blauem Himmel, Hügeln, Wiesen, Blumen und Bäumen. Dann weist man Visual ChatGPT mit einem weiteren Prompt an, die Hügel flacher zu machen und den Himmel abendlicher und bewölkter. Zudem kann man das Programm fragen, welche Farbe die Blumen haben, und diese mit einem weiteren Prompt einfärben. Ein letzter Prompt lässt die Bäume herbstlicher erscheinen. Das Paper kann über arxiv.org heruntergeladen werden.
Forscher von Google und der TU Berlin haben am 6. März 2023 ein verkörpertes, multimodales Sprachmodell mit dem Namen PaLM-E vorgestellt, das virtuelle und physische Welt verbindet. So kann man per Spracheingabe einen Haushaltsroboter steuern und ihn dazu bringen, bestimmte Gegenstände zu holen oder andere Tätigkeiten zu verrichten. Der Prompt kann dabei vom Benutzer spontan aus seiner eigenen Beobachtung der Umwelt abgeleitet werden. Die Idee der PaLM-E-Architektur besteht laut Projektwebsite darin, kontinuierliche, verkörperte Beobachtungen wie Bilder, Zustandseinschätzungen oder andere Sensormodalitäten in den Spracheinbettungsraum eines vortrainierten Sprachmodells zu integrieren. Im Beispielvideo lautet die Instruktion in deutscher Übersetzung: „Bring mir die Reischips aus der Schublade“. Golem schreibt in einem Artikel: „Dazu analysiert Palm-E die Daten der Roboterkamera, ohne dass eine vorverarbeitete Szenendarstellung erforderlich ist. Damit entfällt die Notwendigkeit, dass ein Mensch die Daten vorverarbeitet oder kommentiert, was eine autonomere Robotersteuerung ermöglicht.“ (Golem, 10. März 2023) Im Video fährt der Roboter – ein Roboterarm auf einer mobilen Plattform, ganz ähnlich wie Lio – zur Schublade und entnimmt ihr die Packung. In dem Paper „ChatGPT for Robotics: Design Principles and Model Abilities“ von Microsoft-Forschern wird eine ähnliche Strategie verfolgt, wobei ChatGPT verwendet wird, das wiederum auf GPT-3 basiert. Allerdings handelt es sich um einen indirekten Ansatz, bei dem Code generiert wird. Das Paper zu PaLM-E kann hier heruntergeladen werden.
Alpha Mini ist ein sozialer Roboter, der sich durch geringe Größe (und damit gute Transportfähigkeit) und weitgehende natürlichsprachliche und motorische Fähigkeiten auszeichnet. Er kann im Schulunterricht eingesetzt werden, sowohl als Lehrer und Tutor als auch als Tool, mit dem man programmiert. Am 8. März 2023 startete an der Hochschule für Wirtschaft FHNW das Projekt „Little Teacher“, in dem Alpha Mini eine Hauptrolle spielt. Initiator ist Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Conversational Agents und soziale Roboter forscht. Andrin Allemann trägt im Rahmen seiner Abschlussarbeit zum Projekt bei. Alpha Mini soll in eine Lernumgebung integriert werden und mit anderen Komponenten wie einem Display interagieren und kommunizieren können. Er soll mit Hilfe von Bildern und Texten einfachen Lernstoff vermitteln und die Kinder durch gestisches und mimisches Feedback motivieren. Es handelt sich also um einen kleinen Lehrer mit großen Möglichkeiten. Grundsätzlich soll er sich an das neue schweizerische Bundesgesetz über den Datenschutz (Neues Datenschutzgesetz, nDSG) halten. Das Projekt dauert bis August 2023. Die Ergebnisse werden im Anschluss daran veröffentlicht.
„Das CAS Zukunftsorientierte Polizeiarbeit vermittelt das notwendige Wissen und Verständnis, um die moderne Polizeiarbeit in ihrer Komplexität zu erfassen und mitzugestalten, die sich wandelnden Anforderungen an den Berufsalltag mitzutragen und jederzeit professionell handeln zu können. Es legt die Basis zum Verständnis der heutigen digitalen Komponenten im Beruf und bereitet die Absolventinnen und Absolventen auf die digitale Zukunft vor. Es behandelt die Auswirkungen der Digitalisierung auf die Polizeiarbeit und die polizeiliche Selbstreflexion. Die Teilnehmerinnen reflektieren Veränderungen, die sich für das Verständnis von Kriminalität im digitalen Raum ergeben.“ So lautet die Beschreibung der Weiterbildung an der Hochschule für Wirtschaft FHNW, die am 3. März 2023 gestartet ist. Prof. Dr. Oliver Bendel verantwortet die Kurse „Sicherheit und Überwachung“ und „Künstliche Intelligenz“. Es wird u.a. auf Überwachungssysteme eingegangen, nicht zuletzt auf Überwachungsroboter, und eine ethische Reflexion vorgenommen. Auch digitale Selbstverteidigung wird ein Thema sein. Im August 2022 trug der Informations- und Maschinenethiker auf der Robophilosophy 2022 über Polizeiroboter vor. Sein Beitrag „Robots in Policing“ ist Ende des Jahres im Proceedingsband „Social Robots in Social Institutions“ erschienen. Weitere Informationen zum CAS über https://www.fhnw.ch/de/weiterbildung/wirtschaft/cas-zukunftsorientierte-polizeiarbeit.
Abb.: Bei der Robophilosophy 2022 (Foto: Robophilosophy)
Am 2. März 2023 sind Prof. Dr. Doris Weßels (Fachhochschule Kiel), Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Prof. Dr. Kristian Kersting (TU Darmstadt) zu Gast bei Gerd Scobel. Die Sendung dreht sich um ChatGPT und das zugrundeliegende GPT-3. Aufgezeichnet wurde sie am Abend des 28. Februar 2023 im Studio in Köln. Erläutert werden die technologischen Grundlagen und die gesellschaftlichen Auswirkungen. Doris Weßels erwähnt die Veränderungen, die sich an den Hochschulen ergeben, und spricht sich gegen ein Verbot des Programms aus. Oliver Bendel geht darauf ein, dass sich die Kompetenzen der Studenten und Studentinnen verschieben. Sie nehmen den automatisch generierten Content und redigieren und strukturieren ihn. Die Sprache kommt auch auf den kleinen Haiku-Band „Dass es nur Kunst war, verdeckte die Kunst“ von Oliver Bendel. Produziert wurde er mit Hilfe von ChatGPT. Abgedruckt sind die Inputs (Prompts) und Outputs (hier die Haikus). Der Informations- und Maschinenethiker ist der Überzeugung, dass KI imstande ist, Schönheit zu produzieren. Weitere Informationen über www.3sat.de/wissen/scobel/scobel—kulturschock-durch-ki-100.html.
Wie Golem am 25. Februar 2023 meldete, hat Meta das Sprachmodell LLaMA angekündigt. Dieses soll in Konkurrenz zu GPT-3 von OpenAI (ChatGPT) und LaMDA von Google (Bard) treten. „LLaMA ist nach Angaben von Meta für die Erstellung von Texten, die Führung von Chat-Gesprächen, die Zusammenfassung von schriftlichen Materialien und für komplexere Aufgaben wie das Lösen von mathematischen Problemen oder die Vorhersage von Proteinstrukturen geeignet. Das Modell wurde von Metas Fundamental AI Research Team entwickelt.“ (Golem, 25. Februar 2023) Das neue Sprachmodell werde derzeit nicht bei Plattformen wie Facebook oder Instagram verwendet. „Stattdessen solle es ausschließlich auf KI spezialisierten Forschern zur Verfügung gestellt werden, um diese bei ihrer Arbeit zu unterstützen.“ (Golem, 25. Februar 2023) Der Artikel „Facebook steigt in den KI-Markt ein“ kann hier abgerufen werden.
Einige Banken erlauben beim Kontozugang die Authentifizierung durch die Stimme des Kunden. Dazu gehört z.B. PostFinance in der Schweiz. Auf der Website heißt es: „Im Kontaktcenter von PostFinance können wir Sie anhand Ihrer Stimme authentifizieren. Nachdem wir einmalig von Ihnen einen Stimmabdruck angelegt haben, erkennen wir Sie bei allen folgenden Anrufen anhand Ihrer Stimme. Das unterstützt die Sicherheit und spart Zeit.“ (Website PostFinance) Seit einigen Jahren kann man mit wenigen Minuten der Aufnahme einer individuellen Stimme eine synthetische Stimme generieren und sie beliebige Inhalte sagen lassen. Auch die Sprechweise wird imitiert. Dafür stehen kostenpflichtige und kostenlose KI-Tools zur Verfügung. Auch bei Sprachassistenten verbreitet sich die Funktion – man denke etwa an Bixby von Samsung. Oliver Bendel veröffentlichte im Juli 2017 in AI & Society seinen Artikel „The Synthetization of Human Voices“ und beschrieb genau solche Verfahren. Joseph Cox berichtete in seinem Artikel „How I Broke Into a Bank Account With an AI-Generated Voice“ (Vice, 23. Februar 2023), dass er erfolgreich das System ausgetrickst hat: „I couldn’t believe it – it had worked. I had used an AI-powered replica of a voice to break into a bank account. After that, I had access to the account information, including balances and a list of recent transactions and transfers.“ (Vice, 23. Februar 2023) Fingerabdruck und Iriserkennung zur Authentifizierung sind seit längerer Zeit problembehaftet. Inzwischen sollte man sich auch den Einsatz seiner Stimme gut überlegen.
Abb.: Die eigene Stimme kann schnell synthetisiert werden
Der Lügenbot wurde 2013 von Prof. Dr. Oliver Bendel im Kontext der Maschinenethik ausgedacht und 2016 von seinem damaligen Projektmitarbeiter und Studenten Kevin Schwegler umgesetzt. Vorgestellt wurde er auf KI-Konferenzen an der Stanford University und in Krakau. Der LIEBOT, wie sein englischer Name lautet, suchte auf eine Frage des Benutzers eine wahre oder richtige Antwort und manipulierte diese nach einer von sieben verschiedenen Strategien. Er behauptete z.B. im Sommer 2016, dass Donald Trump der Präsident der USA sei. Oliver Bendel sprach auch von Münchhausen-Maschinen. Heutzutage gibt es Chatbots und Generative-KI-Systeme wie ChatGPT, die auf Machine Learning beruhen und die immer wieder die Unwahrheit sagen, allerdings ohne dass ihnen die Absicht dazu vermittelt wurde. So werden Angaben zu Personen hinzugedichtet und Quellen erfunden. Zu diesem Thema befragte Technology Review den Informations- und Maschinenethiker aus Zürich. Dabei ging es auch um seine damalige Forschung zu Münchhausen-Maschinen. Mit Chatbots, Sprachassistenten und sozialen Robotern befasst sich Oliver Bendel bereits seit einem Vierteljahrhundert. Sie waren auch der Gegenstand seiner Doktorarbeit, die er an der Universität St. Gallen verfasste und die Ende 2002 abgeschlossen und Anfang 2003 angenommen wurde. Das Interview wurde am 22. Februar 2023 veröffentlicht und kann hier abgerufen werden.
Abb.: Oliver Bendel bei einem Panel der Deutschlandstiftung (Foto: Deutschlandstiftung Integration)
Seit 2010 hat Oliver Bendel mehrere Bände mit Haikus und anderen Gedichten veröffentlicht, wobei meistens das Handy eine wichtige Rolle gespielt hat: Es handelte sich entweder um Handyliteratur wie bei „stöckelnde dinger“ (2010), oder im Buch waren 2D- oder 3D-Codes abgedruckt, die die Gedichte enthielten, wie bei „handyhaiku“ (2010) und „Die Astronautin“ (2020). Im Februar 2023 entstand der Band „Dass es nur Kunst war, verdeckte die Kunst“. Die Haikus sind der Output von ChatGPT, bei wechselndem Input. Sie greifen die Themen der vorangehenden Bände auf, erzählen von Avataren, Hologrammen, Robotern und Astronautinnen. „ChatGPT“ steht für „Generative Pre-trained Transformer“. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, der seit Ende 2022 genutzt werden kann. Die Trainingsdaten stammen aus Foren, Artikeln, Büchern und gesprochener Sprache. Benutzt wird eine Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF) – der Mensch ist also im Spiel. Mit diesem Tool wurden, wie gesagt, die Haikus des Bands produziert. Manchmal wurden zu einem Input mehrere Resultate generiert und dann eines davon ausgewählt. Trotz der präzisen Anweisungen scheint ChatGPT nicht in der Lage zu sein, die Silbenanzahl durchgehend korrekt umzusetzen, übrigens auch nicht dann, wenn man ein Haiku als Vorbild eingegeben hat. Die Inputs und die Outputs, also die Haikus, wurden dann noch in JAB Codes umgewandelt. Der Band wurde am 20. Februar 2023 veröffentlicht und kann hier kostenlos heruntergeladen werden.
Ein teilautonomes (selbstständig, aber überwacht fahrendes) Lieferfahrzeug des Start-ups Loxo aus Bern ist „seit Mitte der Woche zum ersten Mal auf einer öffentlichen Straße der Schweiz unterwegs“ (Heise Online, 12. Februar 2023). Die Projektpartner sind Migros und Schindler. Es handelt sich um die erste kommerzielle Anwendung eines solchen Fahrzeugs „für die letzte Meile in der Schweiz und vermutlich in ganz Europa“. Mitarbeiter des Liftherstellers „können jetzt nicht nur online ihre Einkäufe“ bei dem Detailhändler bestellen, sondern sie bekommen die Waren sogar „bis fast an ihren Arbeitsplatz geliefert – aber ohne einen Fahrer hinter dem Lieferwagen-Lenkrad“ (Heise, 12. Februar 2023). Mit autonomen Fahrzeugen und Transportrobotern wurde in der Schweiz immer wieder experimentiert. Jahrelang verkehrte in Sion im Wallis das SmartShuttle, betrieben von PostAuto. Dieses Projekt war sehr erfolgreich und verlief ohne größere Schwierigkeiten. Die Schweizerische Post testete die Transportroboter von Starship Technologies, die sich aber als wenig praktikabel erwiesen – die offizielle Begründung für den Abbruch des Projekts lautete, dass die rechtlichen Rahmenbedingungen fehlten. Loxo Alpha ist sozusagen eine Kombination des SmartShuttle und des genannten Transportroboters. Die Höchstgeschwindigkeit beträgt 30 km/h, die Reichweite 110 Kilometer. Es können maximal 320 Kilo zugeladen werden. Das Fahrzeug hat gefällige Formen und runde Scheinwerfer. Einem Wohnwagen der 1960er-Jahre ist es nicht unähnlich, nur wird es nicht von einem Mercedes SL oder einem Ford Capri gezogen, sondern von sich selbst. Der Artikel von Heise Online kann hier aufgerufen werden.
Stephanie Schnydrig von CH Media war im Gespräch mit Oliver Bendel und fragte u.a., wie ChatGPT und Co. unsere Art, Dinge im Internet zu suchen, verändern werden. Die Antwort des Wirtschaftsinformatikers und Technikphilosophen lautete: „Die Benutzer erhalten nicht nur eine Liste mit Websites, sondern auch eine Antwort in natürlicher Sprache bzw. einen fertigen Text. So kann man bei Bing – in das ChatGPT integriert ist – nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Die Benutzer müssen nicht hunderte von Rezepten vergleichen und bewerten. Ihr Aufwand reduziert sich. Zugleich stellt sich die Frage, ob das Rezept wirklich etwas taugt. Aus welchen Quellen stammt es? Und sind wirklich alle Gänge vegetarisch? Wen kann ich zur Verantwortung ziehen, wenn etwas schiefgeht? Zum Teil können die Systeme die Quellen nennen, zum Teil aber auch nicht – Machine Learning verwischt sozusagen die Herkunft ein Stück weit. Vermutlich werden wir, sofern die Systeme gesprochene Sprache beherrschen, viel mehr mit Suchmaschinen sprechen als früher. Die Ausgaben taugen grundsätzlich zum Dialog, und die Systeme finden auf fast alles eine Antwort. Ich konnte schon vor Jahren Google Assistant fragen, wer Rihanna ist. Der Sprachassistent hat die Antwort auf Wikipedia gefunden und vorgelesen. Heute bedient sich ein Tool aus tausenden Quellen und variiert die Antwort. Man hat ganz andere Möglichkeiten.“ Es wurden weitere Fragen gestellt und Antworten gegeben. Die eine oder andere Aussage wurde im Artikel „Bingen wir bald, anstatt zu googeln?“ verwendet, der am 9. Februar 2023 in der Luzerner Zeitung und verschiedenen anderen Schweizer Zeitungen erschienen ist.
Abb.: Die neuen Suchmaschinen sind dialogorientiert
Microsoft hat ChatGPT in seine Suchmaschine Bing integriert. Man bekommt auf der linken Seite des Bildschirms wie gewohnt eine Liste mit Websites angezeigt, rechts aber die Antworten des Chatbots und Content-Generators. So kann man nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Wenn man sich erkundigt, wie man die Pilzcremesuppe zubereitet, gibt das System weitere Details preis. Microsoft fällt seit jeher dadurch auf, dass es die deutsche Sprache verfälscht. Im Thesaurus von MS Word wurde früher für das Wort „dunkel“ das Unwort „negerfarbig“ angegeben. Die Rechtschreibprüfung des Textverarbeitungsprogramms ignoriert wesentliche Regeln der deutschen Rechtschreibung, vor allem zu Getrennt- und Zusammenschreibung. Auf LinkedIn und Twitter herrscht eine Kunstsprache vor, in der im Wortinneren Sternchen oder Doppelpunkte vorkommen. ChatGPT gefällt bisher durch relativ korrekte Sätze. Aber auf der Website von Bing wird man wieder stutzig. Dort heißt es etwa: „Stellen Sie Fragen, wie Ihnen gefällt. Führen Sie eine komplexe Suche durch. Zur Nachverfolgung. Verfeinern Sie den Chat. Sie werden verstanden – und erstaunt.“ (Website Bing) Das erstaunt in der Tat, und man würde sich wünschen, dass Microsoft und andere Unternehmen – deutsche wie DeepL eingeschlossen – die deutsche Sprache in Zukunft besser behandeln.
Sundar Pichai, the CEO of Google and Alphabet, announced the answer to ChatGPT in a blog post dated February 6, 2023. According to him, Bard is an experimental conversational AI service powered by LaMDA. It has been opened to trusted testers and will be made available to the public in the coming weeks. „Bard seeks to combine the breadth of the world’s knowledge with the power, intelligence and creativity of our large language models. It draws on information from the web to provide fresh, high-quality responses. Bard can be an outlet for creativity, and a launchpad for curiosity, helping you to explain new discoveries from NASA’s James Webb Space Telescope to a 9-year-old, or learn more about the best strikers in football right now, and then get drills to build your skills.“ (Sundar Pichai 2023) In recent weeks, Google had come under heavy pressure from OpenAI’s ChatGPT. It was clear that they had to present a comparable application based on LaMDA as soon as possible. In addition, Baidu wants to launch the Ernie Bot, which means another competing product. More information via blog.google/technology/ai/bard-google-ai-search-updates/.
The proceedings of ICSR 2022 were published in early 2023. Included is the paper „The CARE-MOMO Project“ by Oliver Bendel and Marc Heimann. From the abstract: „In the CARE-MOMO project, a morality module (MOMO) with a morality menu (MOME) was developed at the School of Business FHNW in the context of machine ethics. This makes it possible to transfer one’s own moral and social convictions to a machine, in this case the care robot with the name Lio. The current model has extensive capabilities, including motor, sensory, and linguistic. However, it cannot yet be personalized in the moral and social sense. The CARE-MOMO aims to eliminate this state of affairs and to give care recipients the possibility to adapt the robot’s ‚behaviour‘ to their ideas and requirements. This is done in a very simple way, using sliders to activate and deactivate functions. There are three different categories that appear with the sliders. The CARE-MOMO was realized as a prototype, which demonstrates the functionality and aids the company in making concrete decisions for the product. In other words, it can adopt the morality module in whole or in part and further improve it after testing it in facilities.“ The book (part II of the proceedings) can be downloaded or ordered via link.springer.com/book/10.1007/978-3-031-24670-8.
Die Tagung LaborDigital am 10. Februar 2023 an der Zürcher Hochschule der Künste (ZHdK), iniitiert und organisiert u.a. von Charlotte Axelsson, wird mit einem Vortrag von Prof. Dr. Johan Frederik Hartle eröffnet, dem Rektor der Akademie der bildenden Künste Wien. Es folgt die Keynote „Labor-Geschichte/n. Zur Archäologie eines ‚kreativen‘ Raumes“ von Prof. Dr. Oliver Ruf von der Hochschule Bonn-Rhein-Sieg. Von 11.00 bis 12.30 Uhr finden parallel drei Experimental Learning Labs statt, nämlich „Artefakte der Maschinenethik“ mit Prof. Dr. Oliver Bendel (FHNW, Muttenz, Olten und Brugg-Windisch), „Dance Lab & Avatar“ mit Regina Bäck (München) und „Experimental Game Cultures Labs“ mit Prof. Dr. Margarete Jahrmann (Universität für angewandte Kunst Wien). Nach dem Mittagessen folgen die ZHdK Lab Visits und ab 15.30 Uhr weitere Experimental Learning Labs. Um 16.30 Uhr hält Raphaële Bidault-Waddington, Gründerin des LIID Future Lab in Paris, die zweite Keynote mit dem Titel „Designing Art-based Future Labs“. Johan Frederik Hartle beschließt mit weiteren Ausführungen die Tagung. Weitere Informationen über paul.zhdk.ch/course/view.php?id=2312.
Abb.: Oliver Bendel erklärt auf ARTE das Uncanny Valley
DeepL Write ist ein KI-basiertes Lektorprogramm, das seit 17. Januar 2023 als Betaversion über www.deepl.com/write verfügbar ist, für die deutsche und die englische Sprache. Es wurde nun mit Hilfe einer Rechtschreibtafel geprüft, die Oliver Bendel im Jahre 2015 erstellt und seitdem immer wieder aktualisiert hat. 1. Der Satz „Alkohol in Maßen ist gesund.“ wurde nicht beanstandet. Bei „Herzlich willkommen“ wurde „Willkommen“ vorgeschlagen. Als weitere Alternative zeigte das Tool „Herzlich Willkommen“ an, also eine falsche Schreibweise. 2. „Frühlingserwachen“ wurde nicht beanstandet. Als erste Alternative zu „Social-Media-Konferenz“ wurde „Social Media Konferenz“ vorgeschlagen, also eine falsche Schreibweise. Hier muss zwingend durchgekoppelt werden. Für „Donaudampfschifffahrtsgesellschaftskapitänsmütze“ offerierte DeepL Write solide Optionen wie „Kapitänsmütze der Donaudampfschifffahrtsgesellschaft“. 3. Zu „Wir betreten unser neues Haus, in dem man komfortabel wohnen kann.“ wurden merkwürdige Alternativen wie „Betreten unseres neuen Hauses, in dem es sich gut leben lässt.“ aufgeführt. „Wirksam führen“ wurde als korrekt erkannt, ebenso wie „Lenny und Laura gehen schwimmen.“ (wobei hier die Alternative „Lenny und Laura gehen baden.“ aufgelistet wurde). 4. Der korrekte Plural in „Die erste und die zweite Sturmwarnung wurden missachtet.“ wurde auch Bestandteil der verschiedenen Varianten. 5. „Das gibt’s doch nicht!“ wurde als korrekt erkannt, ebenso wie „Willis Würstchenbude“. Allerdings zeigte das Tool hier als erste Alternative „Willi’s Würstchenbude“ an. Diese Schreibweise lässt der Duden inzwischen zu, was freilich nicht für das Wörterbuch spricht. 6. „Der Chef fragt sie, ob sie zufrieden ist.“ wurde korrekt als Aussagesatz erkannt und nicht zum Fragesatz umformuliert. 7. Bei „Komm, wir essen, Oma!“ lautete eine Alternative „Komm, lass uns essen, Oma!“. Die Oma blieb in allen Fällen unversehrt. 8. „Die Ärzt*innen“ wurde als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Die weibliche Form nennt man bei Begrüßungen zuerst. Das korrekte generische Maskulinum fehlt bei den Vorschlägen ganz. Das Ergebnis des Tests ist, dass DeepL Write in wesentlichen Aspekten versagt, in Bezug auf Groß- und Kleinschreibung, Zusammen- und Getrenntschreibung und die amtlich fixierten Regeln. Es werden zum Teil eigene Regeln angewandt, die zudem nicht transparent dargestellt werden. Damit ist der Nutzen des Tools grundsätzlich in Frage gestellt. „Schreiben Sie klar, präzise und fehlerfrei“, so heißt es auf der Website – das kann man offenbar besser, indem man sich auf sein Sprachgefühl und den Rechtschreibrat verlässt.