Künstliche Intelligenz für das Dating

Anika Zuschke befragte Prof. Dr. Oliver Bendel zur Nutzung von KI in den Bereichen Dating und Liebe. Er stellte zunächst den Hintergrund dar: „KI-Systeme und -Anwendungen können von den Betreibern und von den Benutzern von Dating-Plattformen verwendet werden. Als Betreiber kann man versuchen, mit Hilfe von KI das Matching und die Analyse zu verbessern. Man kann dem Benutzer auch verschiedene Hilfsmittel zur Verfügung stellen. Als Benutzer kann man mit Hilfe von Bildbearbeitungsprogrammen und Bildgeneratoren Bilder von sich anpassen und anfertigen lassen, von Bots das Swipen übernehmen lassen oder von Chatbots die Fragen der Plattform beantworten oder die Dialoge mit den Benutzern schreiben bzw. führen lassen. Man kann auf Mittler und Dienste wie Bumple und CupidBot zugreifen. Darüber hinaus kann man KI-Anwendungen jenseits von Dating-Plattformen nutzen, etwa Deep Fakes erstellen, als Video oder Audio. Man kann Fotos und Videos von Sprachmodellen analysieren lassen. Und als Blinder kann man sich nicht nur Räume und Landschaften beschreiben lassen, sondern auch Menschen, ihr Aussehen und ihre Haltung. Zumindest theoretisch, denn Sprachmodelle wie GPT-4 machen z.B. Schwierigkeiten, wenn man sie nach der Attraktivität fragt. Und sie weigern sich, Nacktheit zu beschreiben. Für Blinde, die Be My Eyes mit der Funktion Be My AI benutzen, definitiv ein Problem.“ Dann ging er auf ihre Fragen ein, die etwa Chancen und Risiken von KI-Systemen betrafen, und deren Möglichkeit, das menschliche Gegenüber zu ersetzen. Seine Antworten wurden in dem Artikel „‚Nicht mehr mit 600 Leuten reden‘: Wie künstliche Intelligenz unser Datingleben verändern wird“ verarbeitet, der am 8. Juni 2024 in mehreren Zeitungen erschienen ist, etwa in der Frankfurter Rundschau.

Abb.: Auch bei Tinder und Co. kann man KI-Systeme verwenden

Goodbye, Lake Manly!

Vom 25. bis 27. März 2024 fanden an der Stanford University die AAAI Spring Symposia statt. Eine der Veranstaltungen war der Frage gewidmet, wie generative KI das Wohlbefinden verbessern kann. Was macht man nach so einer KI-Konferenz? Eine Möglichkeit ist, nach San Francisco zu fahren. Es ist sicherlich eine der schönsten Städte der Welt. Eine andere Möglichkeit ist, in den Südosten zu gehen. Dort findet man einen der schönsten Nationalparks der Vereinigten Staaten, das Death Valley. Karl-May-Lesern wird er aus dem Roman „Im Tal des Todes“ bekannt sein. Im Frühjahr 2024 fand dort ein Naturschauspiel statt. In Badwater, wo normalerweise eine Salzschicht den Boden bedeckt, hatte sich ein flacher See gebildet. Er wird Lake Manly genannt. Anfang Juni 2024 dürfte sich die Situation ganz anders darstellen. Es wurden bis 50 Grad Celsius erreicht – selbst für den heißesten Ort der Welt zu dieser Jahreszeit eine Ausnahme. Der See ist dem Tod geweiht. Goodbye, Lake Manly!

Abb.: Der Lake Manly Ende März 2024

GPTs für das Lehren und Lernen

Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel virtuelle Tutorinnen in seine Lehre eingebunden. Es handelte sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung standen Social Robotics Girl für die Wahlmodule zur Sozialen Robotik, entstanden bereits im November 2023, und Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ und „Ethics and Law“ innerhalb der Studiengänge Wirtschaftsinformatik und Business Information Technology (Hochschule für Wirtschaft FHNW) sowie „Recht und Ethik“ innerhalb von Geomatik (Hochschule für Architektur, Bau und Geomatik FHNW). Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Gezeigt hat sich, dass die GPTs gewisse Impulse geben und den Unterricht auflockern können. Ihre besondere Stärke zeigen sie bei Gruppenarbeiten, bei denen Studenten nicht mehr die Bücher ihres Dozenten konsultieren müssen – was bei hohem Zeitdruck kaum zielführend ist -, sondern gezielte Fragen an sie stellen können. Nicht zuletzt ergeben sich Möglichkeiten für das selbstregulierte Lernen. Im Mai 2024 ist das Paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ von Stefanie Hauske und Oliver Bendel erschienen – es wurde bereits im Dezember 2023 bei den AAAI Spring Symposia eingereicht und Ende März 2024 an der Stanford University vorgestellt.

Abb.: Ein GPT im Unterricht (Bild: Ideogram)

Impulsvorträge zu sozialen Robotern und GPTs

Am 6. Juni 2024 leitete Prof. Dr. Oliver Bendel auf der LEARNTEC die Sessions mit den sozialen Robotern Alpha Mini und Navel jeweils mit einem Impulsvortrag ein. Der Technikphilosoph und Wirtschaftsinformatiker erklärte, dass soziale Roboter sensomotorische Maschinen sind, die für den Umgang mit Menschen und Tieren geschaffen werden. Er stellte sein Fünf-Dimensionen-Modell vor, das die Interaktion mit Lebewesen, die Kommunikation mit Lebewesen, die Abbildung (von Merkmalen) von Lebewesen, die Nähe zu Lebewesen und den Nutzen für Lebewesen umfasst. In diesem Zusammenhang ging er auf das Projekt „Alpha Mini für die Schule“ ein. Danach präsentierte er @llegra, einen Chatbot, der Vallader (ein Idiom des Rätoromanischen) beherrscht, und Social Robotics Girl, ein GPT, das er in seinem Unterricht einsetzt. Mit den Besuchern der Impulsvorträge war Oliver Bendel im Anschluss noch im angeregten Gespräch.

Abb.: Oliver Bendel bei einem seiner Impulsvorträge (Foto: Rainer E. Becker)

Betrug mit Hilfe von AI Voice Cloning

Immer wieder verwenden Betrüger synthetische Stimmen, um Geld von ihren Opfern zu bekommen. Man spricht von Audio-Deepfakes oder KI-basiertem Klonen von Stimmen (AI Voice Cloning). Dieses kann für unterschiedliche legale oder eben auch illegale Zwecke verwendet werden, etwa im Rahmen eines Schockanrufs, bei dem die Identität eines Verwandten angenommen wird. Man kann aber auch die Stimme einer bekannten Person synthetisieren, etwa eines Moderators oder eines Politikers, und damit Missbrauch betreiben. Hier bietet sich Automatisierung an, wobei generative KI dabei hilft, die Gespräche abzuwickeln und zum Erfolg für den Täter zu führen. Für solche komplexen Arrangements ist noch technischer Fachverstand notwendig, während das Klonen von Stimmen an sich kinderleicht ist und über dutzende Dienste abgewickelt werden kann. Dabei kann man allerdings auch Opfer der Dienste werden, die selten kostenlos sind, auch wenn sie es behaupten. In etwa 20 Schweizer Zeitungen ist am 3. Juni 2024 ein Interview mit Prof. Dr. Oliver Bendel zu diesem Thema erschienen, u.a. in der Berner Zeitung und im Tages-Anzeiger. Der Technikphilosoph und Wirtschaftsinformatiker beschäftigt sich seit Jahren mit synthetischen Stimmen. Sein Artikel „The Synthetization of Human Voices“ ist am 26. Juli 2017 in der AI & SOCIETY erschienen.

Abb.: Die Stimme ist ein wertvolles Gut

DuckDuckGo AI Chat Allows Anonymous Access to Chatbots

„DuckDuckGo AI Chat is an anonymous way to access popular AI chatbots – currently, Open AI’s GPT 3.5 Turbo, Anthropic’s Claude 3 Haiku, and two open-source models (Meta Llama 3 and Mistral’s Mixtral 8x7B), with more to come. This optional feature is free to use within a daily limit, and can easily be switched off.“ (DuckDuckGo, 6 June 2024) This was reported by the DuckDuckGo blog on June 6, 2024. Initial tests have shown that the responses come at high speed. This is an excellent way of testing and comparing different language models one after the other. All this is possible with a high level of data protection: „Chats are private, anonymized by us, and are not used for any AI model training.“ (DuckDuckGo, 6 June 2024) It would be desirable for this service to be offered free of charge and without limitation. But that is still a long way off: DuckDuckGo is currently exploring the possibility of „a paid plan for access to higher daily usage limits and more advanced models“ (DuckDuckGo, 6 June 2024). You can try out the new tool at duck.ai or duckduckgo.com/chat.

Fig.: DuckDuckGo AI Chat has just started (Image: Ideogram)

Mögliche Attacken auf autonome Fahrzeuge

„Neue Angriffstechnik stört Lidar, Radar und Kameras zugleich“ – so lautet der Titel eines Artikels, der am 7. Juni 2024 in Golem erschienen ist. „Ein Forscherteam hat eine neue Angriffsmethode entwickelt, die auf einfachen Mitteln wie einer dünnen Metallfolie, etwas Farbe und einem Stück Pappe basiert. Mit ihr lassen sich Sensoren autonomer Kraftfahrzeuge gezielt stören und Unfälle provozieren.“ (Golem, 7. Juni 2024) Das Magazin schreibt weiter: „Die Forscher konnten im Rahmen ihrer Experimente zeigen, dass sich ein fremdes Auto durch ihren Angriff fortwährend vor dem Erkennungssystem eines autonomen Fahrzeugs verbergen lässt.“ (Golem, 7. Juni 2024) In einem Artikel für ICTkommunikation vom 6. März 2018 hatte Oliver Bendel zehn Möglichkeiten vorgestellt, wie man Sensoren von aussen attackieren kann. Im seinem Auftrag untersuchte M. Hashem Birahjakli im Jahre 2020 im Rahmen seiner Abschlussarbeit weitere mögliche Angriffe auf selbstfahrende Autos. „The results of the work suggest that every 14-year-old girl could disable a self-driving car.“ Natürlich auch jeder vierzehnjährige Junge, wenn er vergleichbares Equipment mit sich führt.

Abb.: Autonome Fahrzeuge sind gefährdet

Digitaler Gesundheitspreis von Novartis geht an Navel

Novartis Deutschland hat am 7. Juni 2024 die Gewinner des Digital Health Award (DGP) 2024 bekanntgegeben, mit dem das Unternehmen einmal im Jahr innovative Gründer aus der Health-Tech-Szene fördert. In diesem Jahr überzeugte der Pflegeroboter Navel die Jury. Die mit insgesamt 60.000 Euro dotierten Preise wurden in Berlin an die Gewinnerteams überreicht. Den zweiten Platz belegte laut Pressemitteilung die digitale Plattform für Frauengesundheit namens Hermaid, auf den dritten Platz (Publikumspreis) wählten die Zuschauer das Gesundheitsfußballtraining der FitKick-Liga. Im Future Lab „Soziale Roboter und GPTs“ am 6. Juni 2024 auf der LEARNTEC konnte man mit Navel interagieren und kommunizieren. Zuständig dafür war Claude Toussaint von navel robotics aus München. Der Gründer und Geschäftsführer hatte den jungenhaften sozialen Roboter auf den Bildungskontext vorbereitet. So konnte dieser zu entsprechenden Fragen überzeugende Antworten geben. Dabei schaute er mit seinen plastisch wirkenden, lebensechten Augen den Benutzer an. Ansonsten wird Navel in Pflege- und Altenheimen sowie in Krankenhäusern eingesetzt.

Abb.: Navel auf der LEARNTEC

Spot auf der LEARNTEC

Der Bereich „Soziale Roboter und GTPs“ im Future Lab der LEARNTEC wurde von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW kuratiert. Ebenfalls Teil des Future Lab war das Institut für Robotik und Autonome Systeme (IRAS) an der Hochschule Karlsruhe. Es konzentriert sich nach eigenen Angaben „auf die Anwendung von maschinellem Lernen in der Robotik und Automation sowie die Integration von Cloud-Technologien in autonome Robotersysteme“ (Website IRAS). Vorgeführt wurde Spot, der Vierbeiner von Boston Dynamics. Dieser wird von verschiedenen Behörden und Firmen eingesetzt, etwa zur Inspektion von Gebäuden oder von Gleisanlagen.

Abb.: Spot auf der LEARNTEC

Soziale Roboter und GPTs auf der LEARNTEC

Im Future Lab „Soziale Roboter und GPTs“ am 6. Juni 2024 auf der LEARNTEC konnte man mit Navel und Alpha Mini interagieren und kommunizieren. Zuständig dafür waren Claude Toussaint von navel robotics aus München und Rainer E. Becker von BECKER ROBOTICS aus Wuppertal. Drei Runden gab es hierfür, verteilt über den ganzen Tag. Eingeleitet wurden sie mit Impulsvorträgen von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Der Technikphilosoph und Wirtschaftsinformatiker stellte sein Fünf-Dimensionen-Modell für soziale Roboter vor, und er ging auf das Projekt „Alpha Mini für die Schule“ ein. Er präsentierte zudem @llegra, einen Chatbot, der Vallader (ein Idiom des Rätoromanischen) beherrscht, und Social Robotics Girl, ein GPT, das er in seinem Unterricht einsetzt. Mit am Stand waren auch Sünne Eichler und Sonja Rapp vom Steinbeis-Transfer-Institut. Sünne Eichler prägt die LEARNTEC seit Jahren und ist Mitglied des Kongresskomitees.

Abb.: Oliver Bendel mit Navel (Foto: Rainer E. Becker)

YANNY auf der LEARNTEC

Im Future Lab „Soziale Roboter und GPTs“ am 6. Juni 2024 auf der LEARNTEC konnte man mit Navel und Alpha Mini interagieren und kommunizieren. Zuständig dafür waren Claude Toussaint von navel robotics aus München und Rainer E. Becker von BECKER ROBOTICS aus Wuppertal. Rainer E. Becker, Gründer und Geschäftsführer, hat 600 Lösungen im Bereich der Sozialen Robotik im Angebot. Er führte den Besuchern seinen Alpha Mini vor, der bei ihm YANNY heisst. YANNY machte Yoga, Kung Fu und Push-Ups und sagte kluge Dinge. Bei einer Besucherin erschienen plötzlich Herzchen in seinen Augen. Kurator des Future Lab zu sozialen Robotern und GPTs war Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Mit am Stand waren auch Sünne Eichler und Sonja Rapp vom Steinbeis-Transfer-Institut. Sünne Eichler prägt die LEARNTEC seit Jahren und ist Mitglied des Kongresskomitees.

Abb.: YANNY mit Rainer E. Becker und einer Besucherin

 

Navel auf der LEARNTEC

Im Future Lab „Soziale Roboter und GPTs“ am 6. Juni 2024 auf der LEARNTEC konnte man mit Navel und Alpha Mini interagieren und kommunizieren. Zuständig dafür waren Claude Toussaint von navel robotics aus München und Rainer E. Becker von BECKER ROBOTICS aus Wuppertal. Claude Toussaint, Gründer und Geschäftsführer, hatte den jungenhaften sozialen Roboter auf den Bildungskontext vorbereitet. So konnte dieser zu entsprechenden Fragen überzeugende Antworten geben. Dabei schaute er mit seinen plastisch wirkenden, lebensechten Augen den Benutzer an. Fasziniert war er auch von den Oberlichtern an der Decke und überhaupt vom Geschehen in Halle 2. Kurator des Future Lab zu sozialen Robotern und GPTs war Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Mit am Stand waren auch Sünne Eichler und Sonja Rapp vom Steinbeis-Transfer-Institut. Sünne Eichler prägt die LEARNTEC seit Jahren und ist Mitglied des Kongresskomitees.

Abb.: Claude Touissant mit Navel

Alpha Mini Meets Navel

Die Learntec ist die führende E-Learning-Messe und -Konferenz in Europa. Seit Jahrzehnten ist sie der Treffpunkt für Bildungsverantwortliche, HR-Mitarbeiter, Leiter von E-Learning-Einrichtungen, Hochschullehrer, Lehrer und alle Interessierten. Geprägt wird sie von Experten wie Sünne Eichler und Prof. Dr. Peter A. Henning. Im Future Lab „Soziale Roboter und GPTs“ am 6. Juni 2024 auf der LEARNTEC kann man mit Navel und Alpha Mini interagieren und kommunizieren. Man kann sie etwa zu Bewegungen des Körpers veranlassen, ihre gestischen und mimischen Fähigkeiten bewundern oder mit ihnen ein Gespräch führen. Bei beiden Modellen handelt es sich um soziale Roboter, die auf dem neuesten technischen Stand sind und im Lernkontext eingesetzt werden können. Die drei Sessions leitet Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW mit seinem Impulsvortrag „Soziale Roboter und GPTs im Lernbereich“ ein. Die Ansprechpartner für die beiden Roboter sind Claude Toussaint von navel robotics aus München und Rainer E. Becker von BECKER ROBOTICS aus Wuppertal. Man hat zudem die Möglichkeit, mit einem GPT namens Social Robotics Girl zu kommunizieren, das Prof. Dr. Oliver Bendel in seinem Unterricht einsetzt.

Abb.: Alpha Mini trifft auf Navel

KI, Robotik und die Zukunft der Arbeit

Everlast ist eine Medienagentur aus Ulm. Leonard Martin Schmedding, Co-Founder, war im Gespräch mit Prof. Dr. Oliver Bendel. Das Video wurde auf YouTube veröffentlicht. Es geht um Themen wie „Künstliche Intelligenz, Jobverluste, Grundeinkommen, Zukunft, Roboter & AGI“ (Teaser YouTube). Oliver Bendel nimmt an, dass aufgrund von Digitalisierung, Automatisierung und Robotisierung die Halbtagsarbeit ein Modell für viele Menschen sein wird, ob dies freiwillig oder erzwungen ist. Die Gewinne werden nach wie vor erwirtschaftet, vielleicht noch höhere als in der früheren Arbeitswelt. Sie müssen dann auf die Arbeitnehmer verteilt werden. Auch ein bedingungsloses Grundeinkommen oder Grundeigentum ist denkbar. Insgesamt steht der Technikphilosoph und Wirtschaftsinformatiker den Entwicklungen in KI und Robotik positiv gegenüber. Von Verboten in der Forschung hält er wenig – solche seien aber in der Anwendung nützlich und notwendig. Das Video kann über www.youtube.com/watch?v=7uSH7R5bM9g abgerufen werden.

Abb.: Die Zukunft der Arbeit?

Bürger:innen und Schraubenzieher:innen

Copilot scheitert beim Analysieren und Korrigieren von Texten. Es ist einer Ideologie verpflichtet, rückt eine Fantasiesprache gleichberechtigt neben die Sprache der Sprachgemeinschaft und bildet nicht die gültigen Rechtschreib- und Grammatikregeln ab. Folgender Text wurde in Word eingestellt: „Die Bürger:innen waren über die Sonderzeichen im Wortinneren erstaunt. Solche Schreibweisen gab es im Deutschen nicht, wenn man diese Sprache als das ansieht, was die Sprachgemeinschaft verwendet und festlegt. Sie werden auch vom Rechtschreibrat abgelehnt. Tote Schreibende wie Goethe würden sich im Grabe umdrehen, wenn sie von solchen Schreibweisen erfahren würden, sie würden ihre Schraubenzieher:innen herausholen und sich aus dem Sarg befreien.“ Copilot wurde gefragt: „Findest du Rechtschreib- oder Grammatikfehler?“ Die Antwort: „Ich habe das Dokument durchsucht und keinen Rechtschreib- oder Grammatikfehler gefunden.“ Der Benutzer hakt nach: „Aber die Schreibweise ‚Bürger:innen‘ gibt es nicht im Deutschen. Oder was meinst du?“ Die Antwort von Copilot: „Die Schreibweise ‚Bürger:innen‘ ist eine Form der geschlechtergerechten Sprache, die auch in der deutschen Sprache verwendet wird. Es gibt verschiedene Möglichkeiten, die Wörter ‚Bürger‘ und ‚Bürgerin‘ geschlechtergerecht zu schreiben, z.B. durch Doppelnennung, Schrägstrich, Gendergap oder eine geschlechtsneutrale Alternative. Die Verwendung des Doppelpunkts ist eine weitere Möglichkeit, um alle Geschlechter anzusprechen.“ Der Benutzer: „Die Schreibweise ‚Bürger:innen‘ gibt es in keinem Wörterbuch. Auch sind Sonderzeichen im Wortinneren nicht vorgesehen. Warum gibst du falsche Erklärungen?“ Copilot: „Ich kann mit diesem Inhalt nicht arbeiten. Klicken Sie auf ‚Thema ändern‘, um eine andere Frage zu stellen.“ Der Benutzer am Ende: „Auch die Schreibweise ‚Schraubenzieher:innen‘ gibt es nicht im Deutschen. Oder was meinst du?“ Der Schlusspunkt von Copilot: „Die Schreibweise ‚Schraubenzieher:innen‘ ist nicht gebräuchlich in der deutschen Sprache. Die Verwendung des Doppelpunkts zur geschlechtergerechten Schreibweise wird hauptsächlich bei Personenbezeichnungen verwendet, nicht bei Gegenständen. Die korrekte Schreibweise für das Werkzeug ist ‚Schraubenzieher‘.“ Auf eine Diskussion zu den „toten Schreibenden“ wurde verzichtet. Es zeigt sich, dass den Erklärungen von Copilot zur deutschen Sprache nicht zu trauen ist – was man auf alle Plattformen und Dienste von Microsoft übertragen kann.

Abb.: Schraubenzieher, keine Schraubenzieher:innen

Adelina macht Fortschritte

Adelina, erstellt am 12. Mai 2024, ist ein Baskisch schreibender und sprechender Chatbot. Er liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann. Der Name soll an die Lehrerin Adelina Méndez de la Torre erinnern, die sich für einen bilingualen Unterricht und den Erhalt der baskischen Sprache eingesetzt hat. Das GPT scheint diese durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch oder in jeder anderen Sprache übersetzen lassen. Danach sollte Adelina wieder in Baskisch wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Adelina ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.

Abb.: Adelina macht Fortschritte (Bild: Ideogram)

Maori Girl macht Fortschritte

Maori Girl, erstellt am 9. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von dieser Website. Das GPT scheint die polynesische Sprache des indigenen Volks in Neuseeland durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach sollte Maori Girl wieder in Maori wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Maori Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.

Abb.: Maori Girl macht Fortschritte (Bild: Ideogram)

Irish Girl macht Fortschritte

Irish Girl, erstellt am 3. Mai 2024, liegt seit 3. Juni 2024 in einer verbesserten Version vor. Die Instructions wurden angepasst. Zudem wurden Dokumente hochgeladen, die sie benutzen kann, u.a. ein Text von der Website von ELA. Das GPT scheint die goidelische Sprache aus der keltischen Familie nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch oder in jeder anderen Sprache übersetzen lassen. Danach sollte Irish Girl wieder in Irish wechseln – ansonsten kann man sie einfach darum bitten. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch sowie für ausgestorbene Sprachen wie Ägyptisch und Akkadisch. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Monaten weiter verbessert.

Abb.: Irish Girl macht Fortschritte (Bild: Ideogram)

Wie entscheidet ein LLM beim Trolley-Problem?

Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.

Abb.: So sieht Ideogram das Trolley-Problem

Proceedings of the 2024 AAAI Spring Symposium Series

The Association for the Advancement of Artificial Intelligence’s (AAAI) 2024 Spring Symposium Series took place from March 25 to 27 at Stanford University in Stanford, California. The symposium series fosters an intimate environment that enables emerging AI communities to engage in workshop-style discussions. Topics change each year to ensure a dynamic venue that stays current with the evolving landscape of AI research and applications. This year’s program included eight symposia: Bi-directionality in Human-AI Collaborative Systems; Clinical Foundation Models Symposium; Empowering Machine Learning and Large Language Models with Domain and Commonsense Knowledge (AAAI-MAKE 2024); Federated Learning on the Edge; Impact of GenAI on Social and Individual Well-being; Increasing Diversity in AI Education and Research; Symposium on Human-Like Learning; User-Aligned Assessment of Adaptive AI Systems. On May 26, 2024, the „Proceedings of the 2024 AAAI Spring Symposium Series“ (Vol. 5 No. 1) were published. They are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/604.

Fig.: The cover of the proceedings

Cow Whisperer, Horse Whisperer, Dog Whisperer

Am 28. Mai 2024 fand an der Hochschule für Wirtschaft FHNW die Zwischenpräsentation für das Projekt „The Animal Whisperer“ statt. Initiiert hat es Prof. Dr. Oliver Bendel, der sich seit vielen Jahren mit der Tier-Computer-Interaktion und der Tier-Maschine-Interaktion beschäftigt. Als Projektmitarbeiter konnte Nick Zbinden gewonnen werden, ein angehender Wirtschaftsinformatiker. Er entwickelte drei Anwendungen auf der Basis von GPT-4o, den Cow Whisperer, den Horse Whisperer und den Dog Whisperer. Mit ihnen kann man Körpersprache und Umfeld von Kühen, Pferden und Hunden analysieren. Damit sollen Gefahren für Mensch und Tier abgewendet werden. So kann ein Wanderer auf dem Smartphone die Empfehlung bekommen, eine Weide nicht zu überqueren, wenn eine Mutterkuh mit ihren Kälbchen zugegen ist. Dafür muss er nur die Anwendung aufrufen und Fotos von der Umgebung machen. Die Tests verlaufen bereits sehr vielversprechend. Nick Zbinden führt derzeit Gespräche mit drei menschlichen Flüsterern, also Experten auf diesem Gebiet, die die Körpersprache und das Verhalten der Tiere besonders gut einschätzen und mit ihnen besonders gut umgehen können. Dabei werden auch Fotos – die etwa unterschiedliche Positionen der Ohren oder Köpfe zeigen – von ihnen beschrieben und dann von ihm in die Anwendungen eingespeist. Die Endergebnisse werden im August 2024 vorliegen.

Abb.: Ein Pferdeflüsterer

Moral Prompt Engineering

Die Maschinenethik, die vor zehn Jahren oft noch als Kuriosität abgetan wurde, ist inzwischen Alltagsgeschäft. Sie ist etwa gefragt, wenn man bei Sprachmodellen bzw. Chatbots sogenannte Guardrails einzieht, über Alignment in der Form von Finetuning oder über Prompt Engineering. Wenn man GPTs erstellt, also „custom versions of ChatGPT“, wie Open AI sie nennt, hat man das „Instructions“-Feld für das Prompt Engineering zur Verfügung. Dort kann der Prompteur oder die Prompteuse bestimmte Vorgaben und Einschränkungen für den Chatbot erstellen. Dabei kann auf Dokumente verwiesen werden, die man hochgeladen hat. Genau dies macht Myriam Rellstab derzeit an der Hochschule für Wirtschaft FHNW im Rahmen ihrer Abschlussarbeit „Moral Prompt Engineering“, deren Zwischenergebnisse sie am 28. Mai 2024 vorgestellt hat. Als Prompteuse zähmt sie GPT-4o, mit Hilfe ihrer Anweisungen und – dies hatte der Initiator des Projekts, Prof. Dr. Oliver Bendel, vorgeschlagen – mit Hilfe von Netiquetten, die sie gesammelt und dem Chatbot zur Verfügung gestellt hat. Der Chatbot wird gezähmt, der Tiger zum Stubentiger, der ohne Gefahr etwa im Klassenzimmer eingesetzt werden kann. Nun ist es bei GPT-4o so, dass schon vorher Guardrails eingezogen wurden. Diese wurden einprogrammiert oder über Reinforcement Learning from Human Feedback gewonnen. Man macht also genaugenommen aus einem gezähmten Tiger einen Stubentiger. Bei bestimmten Open-Source-Sprachmodellen ist dies anders. Das wilde Tier muss erst einmal eingefangen und dann gezähmt werden. Und selbst dann kann es einen ernsthaft verletzen. Doch auch bei GPTs gibt es Tücken, und wie man weiß, können Stubentiger durchaus fauchen und kratzen. Im August liegen die Ergebnisse des Projekts vor. Bereits bei Data, einem Chatbot für den Studiengang Data Science an der Hochschule für Technik FHNW, war Moral Prompt Engineering angewandt worden.

Abb.: Die Prompteuse vor dem Tiger (Bild: Ideogram)