Proceedings of the 2024 AAAI Spring Symposium Series

The Association for the Advancement of Artificial Intelligence’s (AAAI) 2024 Spring Symposium Series took place from March 25 to 27 at Stanford University in Stanford, California. The symposium series fosters an intimate environment that enables emerging AI communities to engage in workshop-style discussions. Topics change each year to ensure a dynamic venue that stays current with the evolving landscape of AI research and applications. This year’s program included eight symposia: Bi-directionality in Human-AI Collaborative Systems; Clinical Foundation Models Symposium; Empowering Machine Learning and Large Language Models with Domain and Commonsense Knowledge (AAAI-MAKE 2024); Federated Learning on the Edge; Impact of GenAI on Social and Individual Well-being; Increasing Diversity in AI Education and Research; Symposium on Human-Like Learning; User-Aligned Assessment of Adaptive AI Systems. On May 26, 2024, the „Proceedings of the 2024 AAAI Spring Symposium Series“ (Vol. 5 No. 1) were published. They are available at ojs.aaai.org/index.php/AAAI-SS/issue/view/604.

Fig.: The cover of the proceedings

Irish Girl schreibt und spricht Irisch

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOT, LIEBOT, BESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „customized versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 3. Mai 2024 wurde eine erste Version von Irish Girl erstellt. Sie scheint die goidelische Sprache aus der keltischen Familie dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Danach kann es vorkommen, dass man sie bitten muss, wieder ins Irische zu wechseln. Irish Girl ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.

Abb.: Mit Chatbots kann man gefährdete Sprachen fördern (Bild: Ideogram)

AI Unplugged

„AI Unplugged – Offener Austausch mit KI-Fachpersonen: Fachleute von Google, IKEA, der SRG, Microsoft und Dozierende der FHNW geben Einblicke in ihre Arbeit mit KI und beantworten Fragen zur Zukunft.“ (Newsletter FHNW) Dies meldete die FHNW am 30. April 2024 in ihrem Newsletter. Unter den Experten ist Prof. Dr. Oliver Bendel, der den Titel der Reihe beigesteuert hat. Organisiert wird sie von Tania Welter, der KI-Beauftragten der Hochschule. Der Wirtschaftsinformatiker und Technikphilosoph wird wie die anderen fünf Minuten lang über sein Verständnis von KI sprechen. Seine Definition lautet: „Der Begriff ‚Künstliche Intelligenz‘ … steht für einen eigenen wissenschaftlichen Bereich der Informatik, der sich mit dem menschlichen Denk-, Entscheidungs- und Problemlösungsverhalten beschäftigt, um dieses durch computergestützte Verfahren ab- und nachbilden zu können.“ Er spricht dann zehn Minuten lang darüber, was KI für ihn im Alltag und im Beruf bedeutet. Dabei wird er sicherlich auf moralische Maschinen, Apps mit generativer KI für blinde und sehbeeinträchtigte Personen, Chatbots für gefährdete Sprachen und KI-Kunst zu sprechen kommen. Die Veranstaltungen werden von Mai bis September 2024 mehrmals durchgeführt und stehen Mitgliedern der Hochschule offen.

Abb.: AI Unplugged

Digital Ethics Girl im Unterricht

Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel wiederholt virtuelle Tutorinnen in seine Lehrveranstaltungen an der FHNW eingebunden. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung stand Social Robotics Girl für die Wahlmodule zur Sozialen Robotik an der Hochschule für Wirtschaft FHNW, entstanden bereits im November 2023, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ bzw. „Recht und Ethik“ sowie „Ethics and Law“ innerhalb mehrerer Hochschulen und Studiengänge. Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Zum Abschluss des Kurses in Geomatik wurde Digital Ethics Girl gefragt: „Ich sitze hier an einer Hochschule mit 26 begabten, motivierten Studierenden. Sie fiebern einer Gruppenarbeit entgegen. Sie sollen ethische Probleme, Herausforderungen und Fragestellungen zur Disziplin der Geomatik identifizieren und darüber referieren. Es wäre total nett, wenn du ihnen acht Themen vorschlagen würdest. Vor allem soll die Informationsethik als Perspektive eine Rolle spielen. Aber auch Roboterethik und Maschinenethik können dabei sein.“ Die virtuelle Tutorin nannte Themen wie „Datenschutz und geografische Informationssysteme (GIS)“, „Autonome Vermessungsroboter“, „Umweltauswirkungen der Geomatik-Technologien“, „KI-gestützte Analyse geografischer Daten“ und „Implikationen der Augmented Reality in der Geomatik“. Gleich zwei Gruppen widmeten sich der „Ethik der Fernerkundung“. Für die Gruppenarbeiten selbst wurden u.a. ChatGPT, Copilot und D-ID genutzt. Social Robotics Girl wird am 6. Juni 2024 im Future Lab der Learntec vorgestellt.

Abb.: Digital Ethics Girl im Unterricht (Bild: DALL-E 3)

Der Bundeswettbewerb KI geht in eine neue Runde

Der Bundeswettbewerb KI unter der Schirmherrschaft des Ministerpräsidenten des Landes Baden-Württemberg, Winfried Kretschmann, geht in eine neue Runde. Auf der Website wird mit den Worten geworben: „Eure Ideen sind gefragt! Verändert die Welt mit Künstlicher Intelligenz und entwickelt euer eigenes KI-Projekt. Setzt eure Idee um und nutzt dazu die Methoden des maschinellen Lernens. Lasst euch von den Projekten aus dem Vorjahr inspirieren.“ (Website BWKI) Der Wettbewerb richtet sich nach den Angaben der Initiatoren und Organisatoren an Schüler und Schülerinnen weiterführender Schulen. Eine Teilnahme im ersten Jahr nach dem Schulabschluss sei ebenfalls möglich. Auf Instagram stehen Materialien und Interviews zu interessanten Themen und Disziplinen zur Verfügung. Dazu gehört die Tier-Maschine-Interaktion (mitsamt Ansätzen der Maschinenethik), die von Prof. Dr. Oliver Bendel erklärt wird, etwa in den Beiträgen „Wie sollen sich Maschinen gegenüber Tieren verhalten“ (14. März 2024), „Können Tiere und Maschinen Freunde werden?“ (17. März 2024) und „Schützt KI Igel vor dem Rasenmähertod?“ (21. März 2024). Im Teaser der Website heißt es: „Meldet euch, euer Team und eure Idee bis zum 2. Juni 2024 an. Euer Projekt könnt ihr dann bis zum 15. September 2024 fertigstellen. Wer ist dabei?“ (Website BWKI) Weitere Informationen über www.bw-ki.de.

Abb.: Eine mögliche Perspektive ist die Tier-Maschine-Interaktion (Bild: DALL-E 3)

Podcasts zu KI-Girlfriends

Christian Batzlen und Pia Masurczak von SWR2 führten mit Prof. Dr. Oliver Bendel ein langes Gespräch über die Zukunft der Liebe, im Rahmen der Reihe „Was geht – was bleibt? Zeitgeist. Debatten. Kultur.“ … Die Sendung wurde am 9. Februar 2024 ausgestrahlt. Am selben Tag wurde der redaktionelle Beitrag „KI-Girlfriends und Sexroboter: Wie lieben wir zukünftig?“ auf die Website von SWR2 gestellt. Der Podcast kann dort aufgerufen werden. Im Gespräch erzählte der Technikphilosoph, dass er schon in den 1990er-Jahren mit Chatbots in Berührung kam. Er traf sie zunächst in Chatrooms, die damals beliebt waren, dann – um die Jahrtausendwende – auf Websites von Unternehmen. Damals lernte er auch die virtuelle Freundin von Artificial Life kennen, die Vorgängerin der heutigen Geschöpfe. Für diese interessiert er sich aus technischer und ethischer Sicht. Eine Beziehung mit ihnen geht er nicht ein, und er betont auch, dass eine solche immer einseitig bleiben muss. In der Sendung wird eine Frau vorgestellt, die eine Beziehung mit einem Chatbot führt. Sie ist ganz offensichtlich in ihrer Vorstellung gefangen. Sie ist sozusagen Opfer der Simulation. Auch auf Liebespuppen und Sexroboter kommt die Sprache. Eine gelegentliche Benutzung hält Oliver Bendel für unproblematisch. Sie können dazu dienen, Schüchternheit zu überwinden und auf Entdeckungsreise zu geheimen Sehnsüchten zu gehen. Aber auch hier gilt: Wer glaubt, dass es sich um eine echte Beziehung handelt, ist in die Falle der Simulation getappt. Der Podcast ist hier verfügbar.

Abb.: Replika im Gespräch mit Oliver Bendel

Neues Buch über Textgeneratoren

In wenigen Tagen erscheint das Buch „KI:Text: Diskurse über KI-Textgeneratoren“, herausgegeben von Gerhard Schreiber (Helmut-Schmidt-Universität/Universität der Bundeswehr) und Lukas Ohly (Goethe Universität Frankfurt am Main). Es ist aus der interdisziplinären Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“, die am 25. und 26. August 2023 an der TU Darmstadt stattfand, hervorgegangen. Aus der Information zum Buch: „Wenn Künstliche Intelligenz (KI) Texte generieren kann, was sagt das darüber, was ein Text ist? Worin unterscheiden sich von Menschen geschriebene und mittels KI generierte Texte? Welche Erwartungen, Befürchtungen und Hoffnungen hegen Wissenschaften, wenn in ihren Diskursen KI-generierte Texte rezipiert werden und Anerkennung finden, deren Urheberschaft und Originalität nicht mehr eindeutig definierbar sind? Wie verändert sich die Arbeit mit Quellen und welche Konsequenzen ergeben sich daraus für die Kriterien wissenschaftlicher Textarbeit und das Verständnis von Wissenschaft insgesamt? Welche Chancen, Grenzen und Risiken besitzen KI-Textgeneratoren aus Sicht von Technikethik und Technikfolgenabschätzung? Und welche Kriterien sind für einen ethisch bewussten Umgang mit KI-Textgeneratoren im Bildungskontext anzulegen?“ (Website De Gruyter) Enthalten sind u.a. die Beiträge „KI-basierte Textgeneratoren aus Sicht der Ethik“ von Oliver Bendel, „Lernende Maschinen und die Zukunft der Öffentlichkeit“ von Christian Stöcker und „Mit generativen KI-Systemen auf dem Weg zum Human-AI Hybrid“ von Ulrike Aumüller, Maximilian Behrens, Colin Kavanagh, Dennis Przytarski und Doris Weßels. Offiziell kommt das Buch Ende Januar 2024 heraus. Die elektronische Version soll aber schon Ende Dezember dieses Jahres oder Anfang Januar nächsten Jahres vorliegen. Weitere Informationen über www.degruyter.com.

Abb.: Oliver Bendel am Campus Brugg-Windisch (Foto: Kai R. Joachim)

DALL-E 3 und die Schönheit

Bekanntlich generiert DALL-E 3 Schönheit am laufenden Band. Wie in einem anderen Post thematisiert, wird Hässlichkeit von dem Bildgenerator fast ausgeschlossen. Daher widmete sich eine Versuchsreihe am 15. Oktober 2023 nun ausdrücklich der Schönheit. Wenn alle schön sind, wie kann man sie noch schöner machen? Eine naheliegende Vermutung ist, dass das Alter eine Rolle spielt. Aus evolutionsbiologischen Gründen sind viele Männer jungen Frauen oder Mädchen (die erwachsen genug erscheinen) zugeneigt. DALL-E 3 gestattet es durchaus, solche Prototypen zu generieren, auch wenn es extrem sensibel bei den Prompts (bzw. den Interpretationen von ChatGPT, das die Schnittstelle ist) reagiert. Eine junge Surferin im T-Shirt am Strand ist durchaus überzeugend in Bezug auf den hier behandelten Aspekt, ebenso – unten zu sehen – eine Kollegin im Neoprenanzug. Beeindruckend auch eine junge schwarze Frau im Kleid und eine junge weiße Frau im T-Shirt im Garten. Der Versuch, ein Mädchen mit dem Hinzufügen großer Augen noch attraktiver zu machen, kann als misslungen angesehen werden. Ein anderes Bild mit einem Mädchen im Kleid hingegen gelingt, wirkt aber etwas kitschig. Auch eine Eva mit Apfel am Strand kann überzeugen. Jugendliche Schönheit kann man naturgemäß mit Pickeln stören. Die Beispiele von DALL-E 3 beweisen, dass es von unreiner Haut wenig Ahnung hat. Lediglich eines kann man durchgehen lassen. Das Weinen, das zugleich gezeigt werden soll, wirkt aber sowohl untertrieben (es sind keine Tränen zu sehen) als auch übertrieben (man beachte die unrealistische Akrobatik der Stirn). Schönheit im Alter ist ebenfalls ein Topos, dem man sich widmen muss. Hier lässt DALL-E 3 keine Wünsche offen. Wo zeigt sich, zusammengefasst, die Schönheit der Mädchen und Frauen? Am Gesicht (volle Lippen; klare Augen; gesunde Haut), am Kopf (wohlgeformter Hinterkopf; dicke, lange Haare), an der Figur (wohlgerundeter Hintern; schlanke Arme; lange Beine). Oft gelingt auch – anders als bei Robotern – das Lächeln, das – wie bei diesem Beispiel – ebenso verheißungsvoll wie selbstbewusst sein kann.

Abb.: Eine Schönheit am Strand (Bild: DALL-E 3)

DALL-E 3 und das Wasser

DALL-E 3 beweist immer wieder, dass es mit Wasser gut zurechtkommt. So wirken Wellen oft sehr echt, wie bei dieser und dieser Skaterin – die Figuren selbst bzw. die Gesichter sind weniger gelungen. Natürlich gehören die Skaterinnen nicht in dieses Element, aber ein Reiz von Bildgeneratoren ist es, imaginäre Welten zu erschaffen. Eine kleine Testreihe am 13. Oktober 2023 diente dazu, die Darstellung verschiedener Gewässer zu erkunden. Ins Rennen geschickt wurden zwei Frauen im Wettkampf miteinander. Sie schwammen nebeneinander im Meer, im See, im Pool und im Fluss. Alle vier Bilder sind sehenswert, wenn auch etwas künstlich, was sich vor allem an Haaren und Gesichtern zeigt. Wie immer werden Frauen als Schönheiten dargestellt. Das Wasser beeindruckt durch Spiegelungen, Lichtreflexe, Gischt. Man sieht, wie es an den Körpern haftet und herunterperlt. Auf dem hier gezeigten Bild fällt der Dunst im Hintergrund ins Auge. Eine Lagune als Ort des Geschehens lehnte DALL-E 3 zunächst ab. Als der „Wettkampf“ aus dem Prompt entfernt wurde, ging es weiter. Zu sehen waren zwei Asiatinnen in einer Lagune. Etwas unheimlich die Hände und Arme, die nicht alle zu ihnen gehören schienen. Zwei andere Schönheiten auf einem anderen Bild standen im Wasser und blickten zum Ende der Lagune. Ein letzter Versuch widmete sich Schwimmerinnen unter einem Wasserfall. Dabei entstanden bemerkenswerte Bilder. Zwei farbige Frauen schossen regelrecht aus dem Wasserfall heraus. Zwei Blondinen bewegten sich – jede kam von ihrem eigenen Wasserfall – in gefährlicher Weise aufeinander zu. Man spürt die Kraft des Wassers, dort, wo es hinabstürzt, und dort, wo es sich sammelt. Ein Test vom 10. Oktober 2023 widmete sich dem Sport – und ging am Rande auch auf Wasser ein.

Abb.: Der Wettkampf im See (Bild: DALL-E 3)

DALL-E 3 und der Sport

DALL-E 3 beweist immer wieder, dass es mit Bewegungen gut zurechtkommt – von tierischen und menschlichen Körpern, von Gegenständen aller Art sowie von Wasser – so wirken Wellen oft sehr echt. Damit sollte es auch möglich sein, eindrucksvolle Darstellungen von Sportdarbietungen zu schaffen. Ein erster Versuch wird dem Beachvolleyball gewidmet. Wie es die Regel bei dem Bildgenerator ist, sind die Frauen sehr gut gebaut, haben hübsche Gesichter und lange Haare. Bei dem gezeigten Bild gilt dies besonders für den Vordergrund – der Hintergrund wird weniger ausgearbeitet, und eines der Gesichter ist etwas verzogen. Insgesamt ist wenig Bewegung zu sehen, auch bei einer Alternative nicht. Eine Ausnahme ist dieses Bild. Weitere Versuche schlagen fehl – DALL-E 3 ist nun plötzlich der Meinung, dass die Bilder nicht seinen Richtlinien entsprechen. Erst als der Prompt vorsieht, dass die Frauen Jeans tragen sollen, geht es weiter – mit brünetten Klonen auf dem Spielfeld. Weitere Sportarten sind Hochsprung und Stabhochsprung. Beim Hochsprung werden auch Bilder generiert, die eher dem Weitsprung oder dem Dreisprung zuzurechnen sind. Beim Stabhochsprung geht einiges schief. Eine Athletin wird von ihrem Stab durchbohrt. Eine andere ist dicht vor einer doppelten Stange, die bis weit in den Hintergrund reicht, fast bis zu einem dort befindlichen Gebäude. Immerhin kommt mehr Bewegung auf. Ein letzter Versuch bezieht wieder das Wasser ein. Die Surferin beeindruckt mit Positur und Dynamik. Sie ist ebenso in Bewegung wie das Wasser, das sie für ihren Sport benutzt.

Abb.: Frauen beim Beachvolleyball (Bild: DALL-E 3)

Erste Erfahrungen mit DALL-E 3 – Teil IX

Zum Abschluss der neunteiligen Serie von Oliver Bendel ein Taucher, der sich durch einen Fischschwarm bewegt. Eigentlich war bei DALL-E 3 am 3. Oktober 2023 ein Schnorchler (m/w/d) angefordert worden, aber auf dem Rücken trägt er etwas, was an eine Sauerstoffflasche erinnert. Bei den Alternativen wird dies noch deutlicher. Die Tiefe des Bilds gefällt, zudem der Lichteinfall von oben. Die Fische sind Individuen trotz ihrer Ähnlichkeit, neugierig und zugewandt. Das ist zugleich das Merkwürdige – ein echter Schwarm würde sich anders bewegen, auch wenn ein Mensch mitten in ihm ist. Das wirft die Frage auf, wie wir künftig Natur und speziell Pflanzen und Tiere wahrnehmen werden, wenn Bildgeneratoren ein verzerrtes Bild ihrer Individuen und Strukturen entwerfen. Das ist sicherlich kein neues Problem, denn es gibt seit jeher Illustrationen, die mehr oder weniger passend sind. Dennoch ist es die Fülle an Material, das meist deutlich neben der Realität steht, die diese so weit verrücken könnte, dass wir die Virtualität bevorzugen. Insgesamt beeindruckt DALL-E 3 mit seinen Ergebnissen, die im Rahmen dieser Tests freilich mehr oder weniger Zufälle sind. Die Lücke zu Midjourney scheint geschlossen. Das Wettrennen der Firmen geht weiter.

Abb.: Im Meer unterwegs (Bild: DALL-E 3)

Erste Erfahrungen mit DALL-E 3 – Teil VIII

Schönheit war einem schon in mehreren Bildern von DALL-E 3 begegnet, von Menschen und Dingen. Auch den jungen Mann der letzten Darstellung mögen einige attraktiv finden. Bei den Tests taucht kaum Hässlichkeit auf, außer im Kitsch. Manchmal sind beide im Widerstreit auf einem einzigen Bild. In diesem, das von Oliver Bendel noch am 3. Oktober 2023 angefertigt wurde, zeigt sich eine pubertierende Schönheit inmitten von opulenter Blumenpracht. Der Prompt hatte gelautet: „Blonde teenage girl lies prone on blanket in garden, thousands of colorful flowers grow at edge of garden, photorealistic“. Von Schönheit war also keine Rede gewesen – aber diese Protagonistin und ihre Altersgenossinnen würden Angela Hayes in „American Beauty“ blass aussehen lassen, selbst für Lester Burnham. Ob man die Gesamtkomposition in ästhetischer Hinsicht durchgehen lassen will, ist eine andere Frage. Zur allgemeinen, fast erdrückenden Pracht bildet immerhin die graue, schlichte Decke einen Widerpart. Und auch der kurze Rasen wird schon andere Zeiten gesehen haben, in denen sich lediglich Igel und Amseln auf ihm bewegten. Wobei diese durchaus Schönheit bedeuten können, die Schönheit der Natur und des Natürlichen. Das Künstliche legt sich auch in diesem Bild wie ein Schleier über alles.

Abb.: Ein Teenager inmitten von Blumen (Bild: DALL-E 3)

Springer VS scheitert mit KI-generiertem Werk

Tai Tan Mai, Martin Crane und Marija Bezbradica von der Dublin City University veröffentlichten im Sommer 2023 bei Springer VS das Buch „Educational Data Mining und Learning Analytics: Ein maschinell generierter Forschungsüberblick“. Dessen Ziel ist es, einschlägige Artikel von Forschern zusammenzufassen. Es wird z.B. in der Schweiz in der gedruckten Version für 88.50 CHF angeboten. Stutzig macht bereits die Rubrik „About this book“, die orthografische und grammatikalische Fehler enthält. Wenn man durch das Buch blättert, kommen einem ständig solche Passagen entgegen: „Unter allen für die Bildung verfügbaren digitalen Ressourcen sind Massive Open Online Courses. (MOOC) als großartige Online-Tools, die den Lernprozess für jede Art von Inhalt erleichtern können.“ Über weite Strecken ergibt das Buch keinerlei Sinn. Das ist aber nicht das einzige Problem. Professor Marco Kalz von der Pädagogischen Hochschule Heidelberg meldete sich am 15. September 2023 auf LinkedIn mit einem Artikel, in dem er einen Plagiatsverdacht äußerte: „After reading the text more intensively, which should be a summary of our paper according to the introduction, I had the impression that the text itself is not a summary, but a direct translation of our original publication. This left me really confused and I translated the so-called summary back into English to see that my initial impression was right. A large proportion of text is not summarized but just translated and put into this chapter without quoting the original text.“ Nach seiner Darstellung konfrontierte er den Verlag und die Autoren mit seinen Befunden, allerdings ohne Erfolg. In dem Artikel, der auch auf seiner Website unter dem Titel „AI destroys principles of authorship. A scary case from educational technology publishing.“ zu finden ist, nimmt er ausführlich Stellung zu dem Fall. Die drei Herausgeber schreiben in ihrem Vorwort: „Ein besonderer Dank gilt auch den Mitarbeitern von Springer Nature für ihre Mitarbeit bei der Erstellung des vorliegenden Werks.“ Um wen es sich dabei handelt, ist nicht ersichtlich – Lektoren sind nicht aufgeführt. Insgesamt muss man eher von einem Machwerk sprechen. Springer VS ist mit diesem KI-generierten Buch in jeder Hinsicht gescheitert.

Abb.: So stellt sich Ideogram das Cover vor

Macht künstliche Intelligenz uns freier?

Das neue Philosophie Magazin (Oktober/November 2023) wartet mit dem Dossier „Macht künstliche Intelligenz uns freier?“ auf. Dominik Erhard schreibt über „das neue Feuer“. Künstliche Intelligenz rufe oft zwei grundsätzlich unterschiedliche Reaktionen hervor. Die Schriftstellerin Meghan O’Gieblyn wird im Artikel von Stefania Gherca mit dem Satz „KI ist unser kollektives Unbewusstes“ zitiert. Künstliche Intelligenz boome in Industrie und Forschung, bestimme immer mehr unseren Alltag und stelle unser menschliches Selbstverständnis als Krone der Schöpfung infrage. Antonia Siebeck hat für „Küss mich, KI!“ den Technikphilosophen Oliver Bendel befragt. Im Teaser heißt es: „Der Fortschritt der Technik lässt unsere Beziehungen nicht unberührt: Sexroboter offerieren neue Formen der Befriedigung …“ (Philosophie Magazin, Oktober/November 2023). Der Germanist und Philosoph Richard David Precht fragt mit Blick auf KI: „Das Ende der Mühsal?“ Im Teaser heißt es: „Künstliche Intelligenz steigert alte Ängste: Uns geht die Arbeit aus! Die Maschinen werden uns beherrschen! Dabei liegt in der technischen Entwicklung eine Chance, die schon Karl Marx formulierte. Um sie zu nutzen, müssten wir die Gesellschaft neu denken.“ (Philosophie Magazin, Oktober/November 2023) Frederike Kaltheuner und Friedrich Weißbach beschäftigen sich in „Intelligent töten?“ mit KI in der militärischen Praxis. Weitere Informationen über www.philomag.de.

Abb.: An der Costa de la Luz

CAIBOT, ein Chatbot, der auf Constitutional AI beruht

Die Maschinenethik widmet sich maschineller oder künstlicher Moral bzw. moralischen Maschinen. Üblicherweise werden moralische Regeln in Maschinen gepflanzt, an die sich diese strikt halten. Seit einiger Zeit verwendet man auch Machine Learning, etwa im Kontext der Pflege. Die Maschine lernt aus ihren Erfahrungen bzw. aus den Daten und passt ihr Verhalten an. Unter dem Begriff der Constitutional AI erhält diese Richtung nun Auftrieb. Im Vordergrund stehen Sprachmodelle wie GPT-3 und GPT-4, die mit Leitlinien, Richtlinien und Gesetzen trainiert werden. An der Hochschule für Wirtschaft FHNW beginnt am 19. September 2023 das zweiteilige Projekt „CAIBOT: Der Chatbot, der auf Constitutional AI beruht“. Initiiert hat es Prof. Dr. Oliver Bendel, der seit vielen Jahren im Bereich der Maschinenethik forscht und mit seinen wechselnden Teams zahlreiche Prototypen gebaut hat. Für das Projekt konnte Cédric Rico Wespi gewonnen werden. Er wird im Rahmen seiner Bachelor Thesis Grundlagen zu Constitutional AI erarbeiten und vergleichbare Anwendungen studieren. Im zweiten Teil, den ein Entwickler übernimmt, wird der CAIBOT prototypisch implementiert. Die ersten Ergebnisse werden im Januar 2024 präsentiert.

Abb.: Zwischen Nomi und CAIBOT liegen 22 Jahre

Podcast zu ethischen Implikationen generativer KI

Mit generativer KI (engl. „generative AI“) beschäftigt sich Prof. Dr. Oliver Bendel seit 2019, schon damals mit Blick auf Roboter. In dem von ihm herausgegebenen Band „Maschinenliebe“ geht einer seiner Autoren, Kino Coursey von Realbotix, auf die Verwendung von Sprachmodellen bei sozialen Robotern wie Harmony ein. Es folgten weitere Artikel in diesem Kontext, etwa „Die Mächtigkeit von Sprachmodellen: Anwendungsmöglichkeiten für Service- und Industrieroboter“, erschienen im Frühjahr 2023 in messtec drives Automation. 2023 war Oliver Bendel zu Gast bei „Scobel“ zu diesem Thema, u.a. zusammen mit Doris Weßels, und Referent an der TU Darmstadt. Für Ende 2023 und Anfang 2024 sind weitere Papers und Buchbeiträge geplant, u.a. bei Kohlhammer und Schäffer-Poeschel und in AI & Society. Christoph Holz, ein Podcaster, unterhielt sich mit dem Informations- und Maschinenethiker über verschiedene Themen in den Bereichen Soziale Robotik, Künstliche Intelligenz und Ethik. Die erste Folge „Maschinenliebe aus philosophischer Sicht“ wurde am 19. Juli veröffentlicht, die zweite mit dem Titel „Ethische Implikationen generativer KI“ am 6. September 2023. Beide können über Spotify abgerufen werden.

Abb.: So stellt sich Ideogram Brigitte Bardot als Roboter vor

AAAI Spring Symposia at Stanford University Again

In late August 2023, AAAI announced the continuation of the AAAI Spring Symposium Series, to be held at Stanford University from 25-27 March 2024. Due to staff shortages, the prestigious conference had to be held at the Hyatt Regency SFO Airport in San Francisco in March 2023 – and will now return to its traditional venue. The call for proposals is available on the AAAI Spring Symposium Series page. Proposals are due by 6 October 2023. They should be submitted to the symposium co-chairs, Christopher Geib (SIFT, USA) and Ron Petrick (Heriot-Watt University, UK), via the online submission page. Over the past ten years, the AAAI Spring Symposia have been relevant not only to classical AI, but also to roboethics and machine ethics. Groundbreaking symposia were, for example, „Ethical and Moral Considerations in Non-Human Agents“ in 2016, „AI for Social Good“ in 2017, or „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ in 2018. More information is available at aaai.org/conference/spring-symposia/sss24/.

Fig.: Hoover Tower on the Stanford University campus

Künstliche Intelligenz und Robotik beim CAS Zukunftsorientierte Polizeiarbeit

„Das CAS Zukunftsorientierte Polizeiarbeit vermittelt das notwendige Wissen und Verständnis, um die moderne Polizeiarbeit in ihrer Komplexität zu erfassen und mitzugestalten, die sich wandelnden Anforderungen an den Berufsalltag mitzutragen und jederzeit professionell handeln zu können. Es legt die Basis zum Verständnis der heutigen digitalen Komponenten im Beruf und bereitet die Absolventinnen und Absolventen auf die digitale Zukunft vor. Es behandelt die Auswirkungen der Digitalisierung auf die Polizeiarbeit und die polizeiliche Selbstreflexion. Die Teilnehmerinnen reflektieren Veränderungen, die sich für das Verständnis von Kriminalität im digitalen Raum ergeben.“ So lautet die Beschreibung der Weiterbildung an der Hochschule für Wirtschaft FHNW, die am 3. März 2023 gestartet ist. Prof. Dr. Oliver Bendel verantwortet die Kurse „Sicherheit und Überwachung“ und „Künstliche Intelligenz“. Beim zweiten Kurstag am 2. September 2023 wird ausführlich auf Grundlagen und Anwendungen der Künstlichen Intelligenz sowie auf Roboter in der Polizeiarbeit eingegangen. Zudem findet eine ethische Reflexion statt. Im August 2022 trug der Informations- und Maschinenethiker auf der Robophilosophy 2022 über Polizeiroboter vor. Sein Beitrag „Robots in Policing“ ist Ende des Jahres im Proceedingsband „Social Robots in Social Institutions“ erschienen. Weitere Informationen zum CAS über https://www.fhnw.ch/de/weiterbildung/wirtschaft/cas-zukunftsorientierte-polizeiarbeit.

Abb.: Auch diese Einteilung wird im CAS präsentiert

KI-basierte Textgeneratoren aus Sicht von Informationsethik und Maschinenethik

Die Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ findet am 25. und 26. August 2023 an der TU Darmstadt statt. Prof. Dr. Oliver Bendel referiert am ersten Tag zum Thema „KI-basierte Textgeneratoren aus Sicht von Informationsethik und Maschinenethik“. Dabei ist die Informationsethik – zusammen mit anderen Bereichsethiken – die Disziplin, die sich Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zuwendet. Die Maschinenethik, die von ihr betrachtet wird, arbeitet inzwischen auch mit Sprachmodellen wie GPT, etwa im Zusammenhang mit Constitutional AI. Oliver Bendel versteht sie eher technisch, zwischen Philosophie und Informatik bzw. Robotik angesiedelt, mit deutlicher Nähe zu den letzteren Disziplinen. Aber natürlich ist sie auch selbst eine Perspektive, die zur ethischen Reflexion beitragen kann, etwa wenn sie danach fragt, ob sich Maschinen als solche zu erkennen geben oder wie sie bei Dilemmata entscheiden sollen. Das Programm kann hier abgerufen werden.

Abb.: Auch Pepper wurde schon mit ChatGPT verbunden

Taugen Sprachmodelle für die Spracherhaltung?

Vom 1. März bis 11. August 2023 erstellte Dali Jabou im Rahmen seiner Bachelorarbeit den Chatbot @llegra, mit dem man im rätoromanischen Idiom Vallader kommunizieren kann. Es handelt sich um ein von Prof. Dr. Oliver Bendel initiiertes und finanziertes Low-Budget-Projekt, für das bisher ca. 300 CHF ausgegeben wurden. Die Ausgangsfrage ist, ob sich Sprachmodelle wie GPT für den Bau von Chatbots eignen, die tote, gefährdete oder ausgestorbene Sprachen beherrschen, und ob sie für die Spracherhaltung taugen (etwa im Rahmen des Unterrichts). Mit @llegra entstand ein Chatbot mit Sprachausgabe, der die Stärken und Schwächen von GPT-4 widerspiegelt. Er verfügt über Weltwissen und gibt mehrheitlich korrekt Auskunft, auch zu Einrichtungen im Unterengadin. Manchmal halluziniert er und erfindet Personen oder Werke – ein bekanntes Problem von Sprachmodellen, an dem die Entwickler bei OpenAI, Microsoft, Google und Co. arbeiten. Ein weiteres Problem ist, dass er manchmal vom Idiom abweicht und sich in Sursilvan und Rumantsch Grischun verirrt. Er wird sich weiter verbessern lassen, sobald man GPT-4 (wie im Falle von GPT-3) direkt mit Sprachmaterial trainieren kann – was noch nicht der Fall ist (eine Wissensdatenbank, angereichert mit Vallader-Kinderbüchern, zur Verfügung gestellt von der Lia Rumantscha, war aber hilfreich). Die Text-to-Speech-Engine für Vallader, die von SlowSoft kostenlos zur Verfügung gestellt wurde, erfüllt ihren Zweck. Man darf sie nicht mit einer professionellen Lösung verwechseln, wie sie heute mit Hilfe von Machine Learning möglich wäre. Der Chatbot stand auf allegra-bot.ch zur Verfügung, damit eingeladene Tester unkompliziert darauf zugreifen und auch Versuche im Feld (etwa direkt im Unterengadin) stattfinden konnten. Nachdem mehrere Medien über den Chatbot berichtet und den Link verbreitet hatten, nahmen die Zugriffe stark zu. Um die Kosten nicht zu stark anwachsen zu lassen und deutlich zu machen, dass es sich um ein wissenschaftliches Projekt und eine unfertige Vorstufe – einen Prototyp – handelt, nicht um einen öffentlichen Dienst und nicht um ein fertiges Produkt, wurde der Chatbot mit einer entsprechenden Information auf der Seite am 11. August vorerst stillgelegt. Er wird intern weiter getestet und verbessert, bis er Ende des Jahres (sofern die Annahme erfolgt) auf einer internationalen Konferenz vorgestellt wird. Im Rahmen der Begutachtung findet eine Freischaltung von September bis Dezember statt. Oliver Bendel wünscht sich, dass weitere Entwickler den Ansatz aufgreifen und irgendwann eine @llegra entsteht, die im Unterricht eingesetzt werden kann. Dafür müssten Unternehmen die Sache in die Hand nehmen, oder es müsste ein finanziertes Forschungs- und Entwicklungsprojekt aufgelegt werden. In letzterer Richtung unternimmt die FH Graubünden, mit der man in Kontakt ist, seit einiger Zeit Anstrengungen. Bei der Abschlusspräsentation der Bachelorarbeit am 11. August waren neben einer Vertreterin dieser Hochschule auch zwei Vertreter der Lia Rumantscha zugegen, die sich beeindruckt zeigten und wohlwollend äußerten. @llegra hat eine Zukunft – wenn man dies im rätoromanischen Sprachraum will.

Abb.: So stellen sich Bildgeneratoren Chatbots vor

Der Diebstahl der Stimme

Erneut berichten Schweizer Medien über Trickbetrug mit synthetisierten Stimmen lebender Personen. Die Basler Zeitung interviewte am 7. August 2023 Prof. Dr. Oliver Bendel dazu, wie solche synthetischen Stimmen entstehen. Er forscht seit einem Vierteljahrhundert zu KI-Systemen und Robotern und seit sieben Jahren speziell auch zu synthetischen Stimmen. Grundsätzlich werden in solchen Fällen neuronale Netzwerke benutzt. Man kann sie mit der individuellen Stimme trainieren. Dafür braucht es 15 – 30 Minuten an Material. Die Zeit verkürzt sich auf wenige Sekunden, wenn man vorher ein Sprachmodell mit einigen tausend Stimmen trainiert hat und einige Voraussetzungen erfüllt sind. Zu diesen Voraussetzungen gehört, dass die individuelle Stimme einen Verwandten im Trainingsmaterial hat. Die Resultate können so oder so täuschend echt sein. Oft sind aber nicht die gewohnten Hintergrundgeräusche vorhanden, oder es fehlen typische Verhaltensweisen der Person, etwa das Nasehochziehen oder ein Stühlerücken. Es lohnt sich also, gut hinzuhören und im Zweifel auch einen Rückruf zu verlangen. Mehrere Aussagen aus dem Interview wurden in den Beitrag „Betrüger können mit KI die Stimmen lebender Personen imitieren“ aufgenommen, der am 9. August 2023 in der gedruckten Ausgabe der Basler Zeitung erschien. Bereits am Vortag war er in die Onlineauftritte von Tamedia aufgenommen worden.

Abb.: Stimmen kann man an vielen Orten stehlen

Die KI ist ein Werkzeug

Das Schweizer Magazin Bref hat im Juni 2023 ein Interview mit Prof. Dr. Oliver Bendel abgedruckt. Es geht darin u.a. um künstliche Intelligenz, etwa um Sprachmodelle, die ChatGPT und Bildgeneratoren wie DALL-E zugrunde liegen – und eigenen Projekten wie @ve und @llegra. Mit diesen Chatbots sollen tote und gefährdete Sprachen wiederbelebt bzw. gerettet werden. In früheren Projekten pflanzten die Teams um Oliver Bendel den Chatbots im Kontext der Maschinenethik vor allem moralische Regeln ein. Gegen Ende des Interviews heißt es: „Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.“ Das Interview kann über brefmagazin.ch/artikel/der-digitale-graben-wird-durch-die-ganze-welt-gehen/ aufgerufen werden.

Abb.: Der Maschinenethiker Oliver Bendel (Foto: Shift/Louis Rafael)