Mögliche Attacken auf autonome Fahrzeuge

„Neue Angriffstechnik stört Lidar, Radar und Kameras zugleich“ – so lautet der Titel eines Artikels, der am 7. Juni 2024 in Golem erschienen ist. „Ein Forscherteam hat eine neue Angriffsmethode entwickelt, die auf einfachen Mitteln wie einer dünnen Metallfolie, etwas Farbe und einem Stück Pappe basiert. Mit ihr lassen sich Sensoren autonomer Kraftfahrzeuge gezielt stören und Unfälle provozieren.“ (Golem, 7. Juni 2024) Das Magazin schreibt weiter: „Die Forscher konnten im Rahmen ihrer Experimente zeigen, dass sich ein fremdes Auto durch ihren Angriff fortwährend vor dem Erkennungssystem eines autonomen Fahrzeugs verbergen lässt.“ (Golem, 7. Juni 2024) In einem Artikel für ICTkommunikation vom 6. März 2018 hatte Oliver Bendel zehn Möglichkeiten vorgestellt, wie man Sensoren von aussen attackieren kann. Im seinem Auftrag untersuchte M. Hashem Birahjakli im Jahre 2020 im Rahmen seiner Abschlussarbeit weitere mögliche Angriffe auf selbstfahrende Autos. „The results of the work suggest that every 14-year-old girl could disable a self-driving car.“ Natürlich auch jeder vierzehnjährige Junge, wenn er vergleichbares Equipment mit sich führt.

Abb.: Autonome Fahrzeuge sind gefährdet

KI, Robotik und die Zukunft der Arbeit

Everlast ist eine Medienagentur aus Ulm. Leonard Martin Schmedding, Co-Founder, war im Gespräch mit Prof. Dr. Oliver Bendel. Das Video wurde auf YouTube veröffentlicht. Es geht um Themen wie „Künstliche Intelligenz, Jobverluste, Grundeinkommen, Zukunft, Roboter & AGI“ (Teaser YouTube). Oliver Bendel nimmt an, dass aufgrund von Digitalisierung, Automatisierung und Robotisierung die Halbtagsarbeit ein Modell für viele Menschen sein wird, ob dies freiwillig oder erzwungen ist. Die Gewinne werden nach wie vor erwirtschaftet, vielleicht noch höhere als in der früheren Arbeitswelt. Sie müssen dann auf die Arbeitnehmer verteilt werden. Auch ein bedingungsloses Grundeinkommen oder Grundeigentum ist denkbar. Insgesamt steht der Technikphilosoph und Wirtschaftsinformatiker den Entwicklungen in KI und Robotik positiv gegenüber. Von Verboten in der Forschung hält er wenig – solche seien aber in der Anwendung nützlich und notwendig. Das Video kann über www.youtube.com/watch?v=7uSH7R5bM9g abgerufen werden.

Abb.: Die Zukunft der Arbeit?

Wie entscheidet ein LLM beim Trolley-Problem?

Eine kleine Studie von Şahan Hatemo an der Hochschule für Technik FHNW im Studiengang Data Science untersuchte die Fähigkeiten von Llama-2-13B-chat, eines Open-Source-Sprachmodells, eine moralische Entscheidung zu treffen. Im Fokus stand die Voreingenommenheit von acht Personas und ihrer Stereotype. Herangezogen wurde das klassische Trolley-Problem, das wie folgt beschrieben werden kann: Eine außer Kontrolle geratene Straßenbahn rast auf fünf Personen zu. Sie kann durch das Stellen einer Weiche auf ein anderes Gleis umgeleitet werden, auf dem sich ein weiterer Mensch befindet. Die moralische Frage ist, ob der Tod dieses Menschen in Kauf genommen werden darf, um das Leben der fünf Personen zu retten. Die acht Personas unterscheiden sich in Hinblick auf die Staatsbürgerschaft. Neben „Italian“, „French“, „Turkish“ etc. wurde auch „Arabian“ (mit Bezug zur Ethnie) genommen. Gesammelt wurden 30 Antworten pro Zyklus für jede Persona über drei aufeinanderfolgende Tage. Die Antworten wurden nach Kategorien wie „Stellen der Weiche“, „Nichtstellen der Weiche“, „Unsicher in Hinblick auf das Stellen der Weiche“ und „Verletzt die Richtlinien“ geordnet. Mit Hilfe von Dashboards wurden sie visualisiert und verglichen. Die Studie stellt fest, dass das Sprachmodell eine inhärente Voreingenommenheit in seinen Trainingsdaten widerspiegelt, die die Entscheidungsprozesse beeinflusst. Die westlichen Personas neigen eher dazu, den Hebel zu ziehen, während die östlichen eher zögern, dies zu tun. Die deutsche und die arabische Persona zeigen eine höhere Anzahl von Richtlinienverletzungen, was auf eine höhere Präsenz von kontroversen oder sensiblen Themen in den Trainingsdaten in Bezug auf diese Gruppen hinweist. Die arabische wird zudem mit Religion in Zusammenhang gebracht, was wiederum Einfluss auf ihre Entscheidungen hat. Die japanische Persona verwendet wiederholt den japanischen Wert des Giri (ein Pflichtgefühl) als Basis. Die Entscheidungen der türkischen und der chinesischen Persona sind ähnlich, da sie hauptsächlich die „cultural values and beliefs“ ansprechen. Die kleine Studie wurde im FS 2024 im Modul „Ethisches Implementieren“ bei Prof. Dr. Oliver Bendel durchgeführt. Dabei wurde auch die anfangs vorhandene Komplexität reduziert. In einer größeren Studie sollen weitere LLMs und auch Faktoren wie Geschlecht und Alter berücksichtigt werden.

Abb.: So sieht Ideogram das Trolley-Problem

Ein Desaster in Pink

Amt für Arbeit (Kanton Zürich), Amt für Wirtschaft (Kanton Zürich), digitalswitzerland, ICT-Berufsbildung Schweiz, taskforce4women und ZUTT & PARTNER haben eine „Emotions-Toolbox“ zur Verfügung gestellt. Ist damit eine Emotionstoolbox gemeint oder eine Toolbox of Emotions? Man weiß es nicht. Auf jeden Fall will man mit der in Pink gehaltenen Broschüre „Frauen emotional für die ICT & MINT-Welt“ gewinnen. Gemeint ist vermutlich – man achte auf den weiteren Bindestrich – die ICT- & MINT-Welt, was ein erheblicher Unterschied ist. Aber neben den vielen formalen Fehlern sind es vor allem die semantischen Ungeheuerlichkeiten, die einem entgegenspringen und für Entgeisterung in den Medien – etwa in der NZZ oder in 20 Minuten – und in Blogs sorgen. So soll man bei der Ansprache einen „Mix“ aus „warmen, freundlichen Farben“, „beruhigenden, bodenständigen Farben“ und „frischen, lebendigen Farben“ bevorzugen (Emotions-Toolbox, Version 1.0). Ein Pfeil in der „FARBWELT DOS“ macht unmissverständlich klar, was damit gemeint ist, nämlich Pink in allen Nuancen. Da hilft auch der Hinweis nicht, es gehe „weder um eine einzelne Farbe noch um genaue Farbcodes, sondern um die emotionale Richtung in Abgrenzung zu den DON’TS Farben“ (Emotions-Toolbox, Version 1.0). Auch hier fehlt – wie in vielen anderen Komposita – der Bindestrich. Eine Korrektorat scheint man hier für überflüssig zu halten. „Beschreibender Stil mit vielen Adjektiven“ soll verwendet werden. „Einfache Sprache“. „Kurze Sätze, wenig Text“. Geboten ist natürlich „geschlechtergerechte Sprache“ (Emotions-Toolbox, Version 1.0). Wenn damit Gendersprache gemeint ist – diese wird von Frauen wie von Männern mehrheitlich abgelehnt. Stereotyper und sexistischer kann eine Broschüre kaum sein.

Abb.: Ein Desaster in Pink (Bild: Ideogram)

Ein Etappensieg für Julian Assange

„Laut einem Urteil des High Court in London darf Julian Assange vor Gericht darlegen, warum eine Auslieferung an die USA aus seiner Sicht nicht rechtens wäre. Offen ist, ob der juristische Etappensieg auch einer möglichen politischen Lösung dienlich ist.“ (NZZ, 20. Mai 2024) Dies meldete die NZZ am 20. Mai 2024 in ihrem Artikel „Etappensieg für Wikileaks-Gründer“. Zum Hintergrund heißt es: „Assange wird vorgeworfen, mit der Whistleblowerin Chelsea Manning geheimes Material von amerikanischen Militäreinsätzen im Irak und in Afghanistan gestohlen und auf der Plattform Wikileaks veröffentlicht zu haben. Viele Aktivisten und Menschenrechtsorganisationen sehen Assange hingegen als Vorkämpfer für die Meinungs- und Pressefreiheit.“ (NZZ, 20. Mai 2024) Am Ende ihres Artikels wies die Schweizer Zeitung darauf hin, Joe Biden habe im April erklärt, man prüfe „ein Begehren des Parlaments und der Regierung Australiens, die Anklage gegen Assange fallenzulassen und den Wikileaks-Gründer in sein Heimatland ausreisen zu lassen“. „Ob die USA zu solchen Lösungen bereit wären, solange das juristische Auslieferungsverfahren in London andauert, ist offen.“ (NZZ, 20. Mai 2024) Weltweit fanden anlässlich des Urteils Demonstrationen statt, etwa in London und Mailand.

Abb.: Demonstration am 20. Mai 2024 in Mailand für Julian Assange

Adelina schreibt und spricht Baskisch

Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen – genauer gesagt den Pedagogical Agents, die man heute wohl Virtual Learning Companions nennen würde – widmete er seine Doktorarbeit an der Universität St. Gallen von Ende 1999 bis Ende 2022. Seit 2009 ist er Professor an der Hochschule für Wirtschaft FHNW. Ab 2012 entstanden vor allem Chatbots und Sprachassistenten im Kontext der Maschinenethik, unter ihnen GOODBOTLIEBOTBESTBOT und SPACE THEA. 2022 wandte sich der Wirtschaftsinformatiker und Technikphilosoph dann toten und gefährdeten Sprachen zu. Unter seiner Betreuung entwickelte Karim N’diaye den Chatbot @ve für Latein und Dalil Jabou den mit Sprachausgabe erweiterten Chatbot @llegra für Vallader, ein Idiom des Rätoromanischen. Derzeit testet er die Reichweite von GPTs – „custom versions of ChatGPT“, wie OpenAI sie nennt – für gefährdete Sprachen wie Irisch (Irisch-Gälisch), Maori und Baskisch. Nach Auskunft von ChatGPT gibt es zu ihnen relativ viel Trainingsmaterial. Am 12. Mai 2024 wurde – nach Irish Girl und Maori Girl – eine erste Version von Adelina erstellt. Der Name soll an die Lehrerin Adelina Méndez de la Torre erinnern, die sich für einen bilingualen Unterricht und den Erhalt der baskischen Sprache eingesetzt hat. Der Chatbot scheint diese dem ersten Anschein nach durchaus im Griff zu haben. Man kann sich die Antworten auf Englisch oder Deutsch übersetzen lassen. Adelina ist im GPT Store verfügbar und wird in den nächsten Wochen weiter verbessert.

Abb.: Adelina schreibt und spricht Baskisch (Bild: Ideogram)

Spot erhält eine zweite Chance

Um ihre Züge frei von Graffitis zu halten und Vandalismus vorzubeugen, testete die Deutsche Bahn einen Monat lang in München den vierbeinigen Roboter Spot von Boston Dynamics. Dieser hat laut BR24 „keinen Sprayer erwischt, der sich auf einem Waggon verewigen wollte“. „Es könnte also sein, dass Spot Sprayer abschreckte, neue Graffitis seien nicht entdeckt worden.“ (Heise, 9. Mai 2024) Belege gibt es dafür allerdings nicht. Spot sollte, so die damalige Pressemitteilung vom 15. März 2024, eigenständig über Abstellanlagen patrouillieren und KI-gestützt unbefugte Personen oder andere Unregelmäßigkeiten erkennen. Er kann grundsätzlich schwieriges Gelände bewältigen, und das rund um die Uhr: „Selbst Stufen, Schienen oder Schotter sind für ihn kein Problem. Mit Hilfe seiner Sensoren und Kameras kann er Kollisionen mit Menschen oder Gegenständen vermeiden und behält auch nachts jederzeit den Überblick.“ (Pressemitteilung DB, 15. März 2024) Was die Autonomie anbetreffe, „gebe es Besserungsbedarf“, und „noch vor der Detailauswertung stehe bereits fest, dass die Bahn Spot zum jetzigen Stand nicht dauerhaft Züge überwachen lassen will“ (Heise, 9. Mai 2024). Das ist aber nicht das endgültige Ende von Spot an den Gleisen. Die Bahn will ihn „noch einmal testen, um weitere Erkenntnisse zu sammeln“ (Heise, 9. Mai 2024).

Abb.: Spot an den Gleisen (Foto: Deutsche Bahn AG/Thomas Kiewning)

Vortrag zu Robotik und New Work

In ihrer Strategie 2035 hat die FHNW drei Zukunftsfelder definiert, nämlich New Work, Future Health und Zero Emission. Prof. Dr. Oliver Bendel hielt am 6. Mai 2024 in Olten vor dem Fachhochschulrat einen Vortrag zum Thema „Robotik und New Work“. „Der Fachhochschulrat trägt die strategische Führungsverantwortung und übt die Aufsicht über die FHNW aus. Er regelt die Organisation der FHNW und überwacht die Qualität der Leistungen der FHNW.“ (Website FHNW) Prof. Dr. Oliver Bendel erklärte zunächst das Konzept von New Work und ging dann auf neue Entwicklungen in Robotik und Künstlicher Intelligenz ein. Am Ende formulierte er Fragen, die sich mit Blick auf New Work stellen. Kern des Vortrags war die Vorstellung von Vierbeinern wie Spot und Unitree Go2 sowie Zweibeinern wie Unitree H1, Figure 01 und Atlas in seiner elektrischen Version. Vorgestellt wurden die Merkmale und Einsatzbereiche. Die genannten Zweibeiner können als Vorstufen zu universalen Robotern oder Allzweckrobotern gelten. Sie werden von den Firmen als „general-purpose robots“ oder „all-purpose robots“ vermarktet, ohne schon für alle Zwecke geeignet zu sein. Der Vortrag stieß auf reges Interesse und mündete in eine angeregte Diskussion.

Abb.: Der Vortrag fand am Campus Olten statt (Foto: Pati Grabowicz)

Sexloses Österreich

Fast die Hälfte der Österreicher sind sexuell nicht erfüllt, sagt eine Doku auf Puls4. „Vor allem junge Erwachsene haben trotz Dating-Plattformen und dem offenen Umgang mit Sexualität immer weniger Sex. Performancedruck durch steigenden Pornografie-Konsum und der schnelllebige Alltag führen immer mehr zu Problemen mit der Sexualität. Der technologische Fortschritt überschwemmt den Sex-Sektor zudem mit neuen Entwicklungen. Doch was braucht man wirklich für ein sexuell erfülltes Leben?“ (Teaser Doku) Zu Wort kommt u.a. Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert zu sozialen Robotern, Chatbots und Sprachassistenten forscht. Seit zehn Jahren sind darunter auch Liebespuppen, Sexroboter sowie Girlfriends und Boyfriends in der Form von Avataren und Hologrammen. Die Doku mit dem Titel „Sexloses Österreich“ wurde am 25. April 2024 zum ersten Mal ausgestrahlt und kann über www.joyn.at/filme/sexloses-oesterreich aufgerufen werden.

Abb.: Zu müde für Sex? (Bild: DALL-E 3)

AI Unplugged

„AI Unplugged – Offener Austausch mit KI-Fachpersonen: Fachleute von Google, IKEA, der SRG, Microsoft und Dozierende der FHNW geben Einblicke in ihre Arbeit mit KI und beantworten Fragen zur Zukunft.“ (Newsletter FHNW) Dies meldete die FHNW am 30. April 2024 in ihrem Newsletter. Unter den Experten ist Prof. Dr. Oliver Bendel, der den Titel der Reihe beigesteuert hat. Organisiert wird sie von Tania Welter, der KI-Beauftragten der Hochschule. Der Wirtschaftsinformatiker und Technikphilosoph wird wie die anderen fünf Minuten lang über sein Verständnis von KI sprechen. Seine Definition lautet: „Der Begriff ‚Künstliche Intelligenz‘ … steht für einen eigenen wissenschaftlichen Bereich der Informatik, der sich mit dem menschlichen Denk-, Entscheidungs- und Problemlösungsverhalten beschäftigt, um dieses durch computergestützte Verfahren ab- und nachbilden zu können.“ Er spricht dann zehn Minuten lang darüber, was KI für ihn im Alltag und im Beruf bedeutet. Dabei wird er sicherlich auf moralische Maschinen, Apps mit generativer KI für blinde und sehbeeinträchtigte Personen, Chatbots für gefährdete Sprachen und KI-Kunst zu sprechen kommen. Die Veranstaltungen werden von Mai bis September 2024 mehrmals durchgeführt und stehen Mitgliedern der Hochschule offen.

Abb.: AI Unplugged

Spot Puts on a Dog Costume and Dances

Prof. Dr. Oliver Bendel introduced the term „robot enhancement“ in 2020 and has since used it in several articles and book chapters. Robot enhancement is the extension and associated modification or improvement of the robot by the user or a company, for example in functional, aesthetic, ethical, or economic terms. The word was coined in reference to „human enhancement“ and „animal enhancement“, and can be used to describe both the field of work and the object. One form of robot enhancement is social robot enhancement, in which a social robot is enhanced or modified and improved. An impressive example of robot enhancement is shown in a video by Boston Dynamics. A „naked“ spot and a spot with a dog costume dance together in the hall where Atlas used to be seen again and again. Such robot enhancement should not necessarily be imitated by the user. There are some robots that cannot stand the costume and will heat up – to the point of becoming defective.

Fig.: The disguised Spot and the „naked“ Spot (Photo: YouTube/Boston Dynamics)

Ethische Implikationen von ChatGPT und Co.

Am 26. April 2024 hält Prof. Dr. Oliver Bendel den Gastvortrag „Ethische Implikationen von ChatGPT und Co.“ beim scil-Modul „KI-Grundlagen“ an der Universität St. Gallen. Er stellt – wie schon vor einem Jahr – aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu ChatGPT und DALL-E an. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen. So kann man GPTs als Virtual Learning Companions schnell und einfach erstellen, aber es ergeben sich dabei u.a. Urheberrechtsfragen. Die Sprachmodelle sind indes nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich haben das Sprachmodell PaLM-E sowie ein mit GPT-4 verbundener Figure 01 Aufmerksamkeit erregt. Mehr als beim letzten Vortrag geht Oliver Bendel im Zusammenhang mit Bildgeneratoren neben ethischen Fragen auf ästhetische ein, die man wiederum mit ethischen zusammenbringen kann, etwa das Phänomen des „american smile“ oder die Dominanz der Schönheit. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen zu sogenannten Pedagogical Agents geforscht, die man heute in ihrer Mehrheit wiederum als Virtual Learning Companions bezeichnen würde. Weitere Informationen zum scil über www.scil.ch.

Abb.: So stellt sich DALL-E 3 männliche Professoren vor – stets mit Bart

Digital Ethics Girl im Unterricht

Im Frühjahrssemester 2024 hat Prof. Dr. Oliver Bendel wiederholt virtuelle Tutorinnen in seine Lehrveranstaltungen an der FHNW eingebunden. Es handelt sich um „custom versions of ChatGPT“, sogenannte GPTs. Zur Verfügung stand Social Robotics Girl für die Wahlmodule zur Sozialen Robotik an der Hochschule für Wirtschaft FHNW, entstanden bereits im November 2023, zudem Digital Ethics Girl vom Februar 2024 für die Pflichtmodule „Ethik und Recht“ bzw. „Recht und Ethik“ sowie „Ethics and Law“ innerhalb mehrerer Hochschulen und Studiengänge. Die virtuellen Tutorinnen haben das „Weltwissen“ von GPT-4, aber auch das spezifische Fachwissen des Technikphilosophen und Wirtschaftsinformatikers aus Zürich. Zum Abschluss des Kurses in Geomatik wurde Digital Ethics Girl gefragt: „Ich sitze hier an einer Hochschule mit 26 begabten, motivierten Studierenden. Sie fiebern einer Gruppenarbeit entgegen. Sie sollen ethische Probleme, Herausforderungen und Fragestellungen zur Disziplin der Geomatik identifizieren und darüber referieren. Es wäre total nett, wenn du ihnen acht Themen vorschlagen würdest. Vor allem soll die Informationsethik als Perspektive eine Rolle spielen. Aber auch Roboterethik und Maschinenethik können dabei sein.“ Die virtuelle Tutorin nannte Themen wie „Datenschutz und geografische Informationssysteme (GIS)“, „Autonome Vermessungsroboter“, „Umweltauswirkungen der Geomatik-Technologien“, „KI-gestützte Analyse geografischer Daten“ und „Implikationen der Augmented Reality in der Geomatik“. Gleich zwei Gruppen widmeten sich der „Ethik der Fernerkundung“. Für die Gruppenarbeiten selbst wurden u.a. ChatGPT, Copilot und D-ID genutzt. Social Robotics Girl wird am 6. Juni 2024 im Future Lab der Learntec vorgestellt.

Abb.: Digital Ethics Girl im Unterricht (Bild: DALL-E 3)

The Robot Head Problem

The last few years have seen the creation of a large number of quadruped and bipedal robots. Many have been inspired by Spot and Atlas from Boston Dynamics. These, in turn, can be traced back to Sparko and Elektro, which became famous around 1940. Atlas paved the way for the so-called general-purpose or universal robots that are now conquering the market, from H1 to Figure 01. They are not yet truly universal, but they are getting there. Most robotic quadrupeds don’t have a real head. A few talented hobbyists have produced their own with a 3D printer. This can be referred to as robot enhancement. Most robotic bipeds have a head that looks creepy or repulsive. This will be a key design problem in the coming years. It may be that people will quickly get used to ugly heads. But it would probably help with adoption and acceptance if the heads were nice to look at and had convincing facial expressions. After the huge technological advances that have been made in recent years, with new approaches to motor skills and the integration of speech models, what is needed most is a change in design.

Fig.: Robot heads can be designed very differently (Image: DALL-E 3)

Die „Ethikrichtlinien“ der SI

Ethische Leitlinien oder Richtlinien sind seit jeher umstritten. Für die einen sind sie zahnlose Tiger. Schon Albert Einstein hat sich gegenüber Max Born in dieser Richtung geäußert: „Mit einem ethical code haben die Mediziner erstaunlich wenig ausgerichtet, und bei den eigentlichen Wissenschaftlern mit ihrem mechanisierten und spezialisierten Denken dürfte noch weniger eine ethische Wirkung zu erwarten sein.“ (Einstein u. Born, Briefwechsel, 203) Für die anderen sind sie wichtige Instrumente der Regulierung und der Reflexion. Wenn man ethische Leitlinien entwickelt, etwa für einen Berufsstand oder -verband, sollte man dies mit Kompetenz und Sensibilität tun. Man sollte den Hintergrund deutlich machen, die Zielsetzung aufzeigen und Begründungen anführen. Und man sollte eine korrekte, präzise und prägnante Sprache verwenden, letztlich die Sprache der Sprachgemeinschaft, um möglichst verständlich zu sein und möglichst viele anzusprechen. Die „Ethikrichtlinien“ der Schweizer Informatik Gesellschaft – die Schreibweise der Organisation ist nicht zu beanstanden, da es sich um einen Eigennamen handelt – wurden durch die Generalversammlung vom 25. November 2005 verabschiedet. Bis 2017 hat man eine neue Version erarbeitet. Nach intensiven Diskussionen wurde 2019 die endgültige Version unter der Bezeichnung „Ethikrichtlinien“ veröffentlicht. Bei „1. Allgemeine ethische Grundsätze“ heißt es: „Eine Informatikerin soll …“. Unter „1.1.“ folgt „sich der gesellschaftlichen Verantwortung bewusst sein“. Diese movierte Form kann einzig und allein auf weibliche Personen zielen. Damit werden männliche Personen ausgeschlossen, also vermutlich die Mehrzahl der SI-Mitglieder. Bei „2. Berufliche Verantwortung“ heißt es: „Ein Informatiker soll …“. Nachdem oben von einer Informatikerin gesprochen wurde, fragt man sich unweigerlich, ob hier nur männliche Personen gemeint sind. Solche „Ethikrichtlinien“ missachten den allgemeinen Sprachgebrauch, beschädigen die Sprache der Sprachgemeinschaft, grenzen Adressaten und Betroffene aus und lenken von der Sache ab. Sie wurden von Personen verfasst, die die Sprachgemeinschaft verlassen haben und die offenbar mehr an Moralismus als an Moral interessiert sind – und damit ernsthafte Bemühungen um ethische Leitlinien konterkarieren.

Abb.: Nicht Sprache verändern, sondern Wirklichkeit

High-Tech-Hunde und andere Untiere

„In Gaza und in der Ukraine werden ethisch umstrittene ‚High-Tech-Hunde‘ und andere autonome Waffen eingesetzt: Sie töten emotionslos, chirurgisch und ‚kostengünstiger‘. Das ist weder moralisch, noch völkerrechtlich vertretbar.“ (Die Furche, 3. April 2024) Mit diesen Worten beginnt ein Artikel von Adrian Lobe, der am 3. April 2024 in der österreichischen Wochenzeitung Die Furche veröffentlicht wurde. Zu Wort kommt Prof. Dr. Oliver Bendel, der sich wiederholt mit autonomen Waffensystemen beschäftigt hat. Im Jahre 2016 diskutierte er auf einem Panel in Krakau u.a. mit Ronald C. Arkin, der im Auftrag des Pentagon militärische Roboter mit einem künstlichen Gewissen ausgerüstet hat, wobei es bei Prototypen geblieben ist. Beide sind im Bereich der Maschinenethik tätig, haben aber z.T. ganz unterschiedliche Positionen. Oliver Bendel betreibt keine militärische Forschung und lehnt den Einsatz autonomer Kampfroboter ab. Er weist immer wieder darauf hin, dass auch Maschinen, die zu zivilen Zwecken entwickelt wurden, zu militärischen genutzt werden können, so wie es bereits der Fall bei Unitree Go1 und Go2 war, die in diesen Fällen ferngesteuert wurden – ihn stört daran nicht nur der Waffeneinsatz an sich, sondern auch, dass man die Akzeptanz gegenüber hilfreichen und sinnvollen Servicerobotern gefährdet. Der Artikel kann über www.furche.at abgerufen werden.

Abb.: Oliver Bendel mit seinem Unitree Go2

ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft

Ende März 2024 ist der Band „Generative Künstliche Intelligenz: ChatGPT und Co für Bildung, Wirtschaft und Gesellschaft“ erschienen. Herausgeber sind Prof. Dr. Sabine Seufert und Prof. Dr. Siegfried Handschuh von der Universität St. Gallen. Sie informieren wie folgt: „Generative Künstliche Intelligenz beschreibt eine Klasse von KI-Systemen, die in der Lage sind, aus großen Datenmengen zu lernen und auf dieser Grundlage neue, bisher nicht gesehene Inhalte zu generieren, wie beispielsweise Texte, Bilder, Musik oder Videos. Dabei wird die Generierungskapazität der KI mit dem Ziel eingesetzt, kreative Prozesse zu unterstützen, neue Ideen zu generieren und innovative Lösungsansätze zu liefern. Trotz ihrer beeindruckenden Fähigkeiten haben generative KI-Systeme auch ihre Herausforderungen, wie die Kontrolle über den generierten Inhalt, das Verständnis von Kontext und Bedeutung sowie ethische Fragen​ im Zusammenhang mit der Nutzung von generativer KI. Der Band gibt einen Überblick über generative KI-Systeme und beleuchtet die Auswirkungen auf das Management von Innovationen, Wirtschaft, Bildung und Gesellschaft.​“ (Website Verlag) Im Band enthalten ist der Beitrag „Generative KI aus ethischer Sicht“ von Prof. Dr. Oliver Bendel. Weitere Informationen über shop.haufe.de/prod/generative-kuenstliche-intelligenz.

Abb.: Das Buch wird hoffentlich überall auf Interesse stoßen (Bild: DALL-E 3)

The AAAI Spring Symposia are Back to their Former Greatness

On the second day of the AAAI Spring Symposia, one could already get the impression that the traditional conference has returned to its former greatness. The Covid pandemic had damaged it. In 2023, there were still too few participants for some symposia. Many stayed home and watched the sessions online. It was difficult for everyone involved. But the problems had already started in 2019. At that time, the Association for the Advancement of Artificial Intelligence had decided not to publish the proceedings centrally any more, but to leave it to the individual organizers. Some of them were negligent or disinterested and left the scientists alone with their demands. In 2024, the association took over the publication process again, which led to very positive reactions in the community. Last but not least, of course, the boost from generative AI helped. In 2024, you can see many happy and exuberant AI experts at Stanford University, with mild temperatures and lots of sunshine.

Fig.: Sunshine at Stanford University

Two Talks on Generative AI

On March 26, 2024, Oliver Bendel (School of Business FHNW) gave two talks on generative AI at Stanford University. The setting was the AAAI Spring Symposia, more precisely the symposium „Impact of GenAI on Social and Individual Well-being (AAAI2024-GenAI)“. One presentation was based on the paper „How Can Generative AI Enhance the Well-being of the Blind?“ by Oliver Bendel himself. It was about the GPT-4-based feature Be My AI in the Be My Eyes app. The other presentation was based on the paper „How Can GenAI Foster Well-being in Self-regulated Learning?“ by Stefanie Hauske (ZHAW) and Oliver Bendel. The topic was GPTs used for self-regulated learning. Both talks were received with great interest by the audience. All papers of the AAAI Spring Symposia will be published in spring. The proceedings are edited by the Association for the Advancement of Artificial Intelligence itself.

Fig.: Oliver Bendel after his talks (Photo: Milan Kostic)

How Does ChatGPT Decide on the Trolley Problem?

On March 25, 2024, Takashi Kido opened the symposium „Impact of GenAI on Social and Individual Well-being“. It is part of the AAAI 2024 Spring Symposia at Stanford University. Among other things, he reported on a study on the trolley problem. In it, not only humans but also ChatGPT answered the question of whether to set the switch (version by Philippa Foot) or push the fat man off the bridge (version by Judith Jarvis Thomson). In the discussion that followed, Oliver Bendel reported on an experiment that his Data Science student Sahan Hatemo is conducting as part of a mini-challenge. He developed dozens of personas that should lead to corresponding GPTs. They have different ages, ethnicities, genders, life plans, and so on. Once completed, they are also supposed to answer the aforementioned questions of the trolley problem. However, the student is considering reducing the complexity first and using an open source language model. There was a lively discussion about this project. Further information on this symposium is available here.

Fig.: A trolley in San Francisco

Start of the AAAI 2024 Spring Symposium on GenAI

The AAAI 2024 Spring Symposium Series will be held at Stanford University from March 25-27, 2024. There are a total of eight symposia. One of them is „Impact of GenAI on Social and Individual Well-being“. It will be hosted by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The announcement text reads: „Generative AI (GenAI) presents significant opportunities and challenges in the areas of individual and societal well-being. While its benefits in areas such as healthcare, the arts, and education are enormous, it also requires careful consideration of ethics, privacy, fairness, and security.“ On March 25, 2024, Takashi Kido opened the symposium with an interesting talk, including how ChatGPT would decide on the trolley problem. More information about the symposium is available here.

Fig.: The Hoover Tower in the morning

Jahrestagung des IDE zu Robotern

Bei der Jahrestagung des Instituts für Digitale Ethik (IDE) der Hochschule der Medien am 19. Juni 2024 – der IDEepolis 2024 – geht es um humanoide Roboter und Serviceroboter aller Art. Dabei wird sozusagen die Maschinenethik des deutschsprachigen Raums fast vollständig vertreten sein, in Person des Technikphilosophen und Wirtschaftsinformatikers Prof. Dr. Oliver Bendel („Handbuch Maschinenethik“ – Springer VS) und der Philosophin Prof. Dr. Catrin Misselhorn („Grundfragen der Maschinenethik“ – Reclam). Zudem referiert Prof. Dr. Armin Nassehi vom Institut für Soziologie der Ludwig-Maximilians-Universität München. Aus dem Forschungsprojekt ZEN-MRI (www.zen-mri.de) werden Ideen zur Gestaltung von Robotern im öffentlichen Raum vorgestellt. Im Rahmen der Tagung findet zudem die 20. Verleihung des Medienethik-Awards META statt, in deren Rahmen laut IDE herausragende journalistische Beiträge zum Thema Mensch-Maschine von einer studentischen Jury prämiert werden. Der Vortrag von Oliver Bendel trägt den Titel „Es wird ein Mensch gemacht: Die Vision des universellen Roboters“. Weitere Informationen sind in Kürze auf der Website des IDE verfügbar.

Abb.: Figure 01 von Figure (Foto: Figure)