Menschen verzeiht man, Maschinen nicht

Beim „Digital Ethics Summit“ am 14. September 2023 in Düsseldorf – keine Fachtagung, sondern eine populärwissenschaftliche und mediengetriebene Veranstaltung – trat u.a. der Germanist und Philosoph Richard David Precht auf. Er wird seitdem mit dem Satz „Wir verzeihen Maschinen nicht, was wir Menschen verzeihen müssen.“ zitiert. Dieser Gedanke tritt allerdings im Zusammenhang mit dem autonomen Fahren und in anderen Zusammenhängen seit über zehn Jahren in unterschiedlichen Varianten auf. Die Süddeutsche Zeitung zitiert den Rechtswissenschaftler Eric Hilgendorf im Mai 2012 mit den Worten „Menschen verzeiht man Fehler, Robotern nicht“. In einem Interview mit dem Informations- und Maschinenethiker Oliver Bendel aus dem Jahre 2016, ausgehend von humanoiden Robotern mit hoheitlichen Aufgaben, heißt es: „Eine Möglichkeit ist, dass die Maschinen eines Tages so verlässlich und intelligent werden, dass wir ihnen vertrauen. Eine andere Möglichkeit ist, dass sie wie wir Fehler machen, wir ihnen diese Fehler aber nicht verzeihen, nicht verzeihen können, weil es eben Maschinen sind.“ Im Artikel „Cloud am Steuer“ von 2014 wird er mit Blick auf autonome Autos mit den Worten zitiert: „Vielleicht würden die Menschen den Maschinen dann irgendwann auch mehr erlauben – und mehr verzeihen.“ In Artikeln und Interviews wies Oliver Bendel immer wieder darauf hin, dass man Menschen eher verzeiht als Maschinen und dass dies Folgen hat für die Akzeptanz des autonomen Fahrens, bei dem zwangsläufig Unfälle passieren. Eigentlich stammt die Diskussion aber aus den 1970er- und 1980er-Jahren. In seinem zweiten Studium in den 1990ern hat Oliver Bendel in einer Arbeit zur Informationsethik u.a. William Bechtel zitiert: „If we accept this result that some computers could be held responsible for their decisions if they were adaptable systems that learned to behave in particular ways in their environment, there will be conditions under which we will forgive them and not hold them responsible. These would be much the same as the circumstances under which we would cease to hold humans responsible.“ Schon damals hat sich Oliver Bendel dagegen verwahrt, dass Computer, KI-Systeme und Roboter Verantwortung übernehmen können.

Abb.: Das Interview im legendären YPS

Das BorDoll hat seine Pforten geschlossen

Das BorDoll in Dortmund hat im Sommer 2023 nach sechs Jahren seine Pforten geschlossen, anscheinend weil kein geeignetes Personal mehr für die Liebespuppen gefunden werden konnte. Es war über die Grenzen von Deutschland hinaus bekannt geworden. Die Inhaberin, Evelyn Schwarz, stand auch der Wissenschaft Rede und Antwort. Ein Interview mit ihr ist in dem Buch „Maschinenliebe“ – herausgegeben von Oliver Bendel – erschienen. Geführt wurde es von Leonie Weber, die damals an der Universität Witten-Herdecke studierte und forschte. Sie hat auch mit einer Sexarbeiterin gesprochen und dadurch einem breiten Publikum wichtige Einblicke in die Sexarbeit geliefert, etwa zum Scheitern des sogenannten nordischen Modells. Evelyn Schwarz machte deutlich, dass viele junge, schüchterne Männer in ihr Etablissement kommen, wo sie sich für Fantasyfiguren interessieren, für Mangamädchen und Elfen. Über die Gründe kann man nur spekulieren, aber wahrscheinlich versuchen Fantasyfans, Gamer und Cosplayer, ihre Erlebnisse in der Fiktionalität und Virtualität in der Realität wiederzufinden. Wie aus dem BorDoll-Forum hervorgeht, wurden die Liebespuppen bereits alle verkauft, vermutlich an Puppenliebhaber, die in den eigenen vier Wänden ihrer Leidenschaft frönen wollen. In Deutschland wird damit das Cybrothel in Berlin zur ersten Adresse. Man darf gespannt sein, wie die Betreiber ihr Projekt, das zwischen Künstlichkeit und Kunst angesiedelt ist, immer wieder neu erfinden werden.

Abb.: Ein KI-generiertes Bild einer Liebespuppe (Bild: Ideogram)

Springer VS scheitert mit KI-generiertem Werk

Tai Tan Mai, Martin Crane und Marija Bezbradica von der Dublin City University veröffentlichten im Sommer 2023 bei Springer VS das Buch „Educational Data Mining und Learning Analytics: Ein maschinell generierter Forschungsüberblick“. Dessen Ziel ist es, einschlägige Artikel von Forschern zusammenzufassen. Es wird z.B. in der Schweiz in der gedruckten Version für 88.50 CHF angeboten. Stutzig macht bereits die Rubrik „About this book“, die orthografische und grammatikalische Fehler enthält. Wenn man durch das Buch blättert, kommen einem ständig solche Passagen entgegen: „Unter allen für die Bildung verfügbaren digitalen Ressourcen sind Massive Open Online Courses. (MOOC) als großartige Online-Tools, die den Lernprozess für jede Art von Inhalt erleichtern können.“ Über weite Strecken ergibt das Buch keinerlei Sinn. Das ist aber nicht das einzige Problem. Professor Marco Kalz von der Pädagogischen Hochschule Heidelberg meldete sich am 15. September 2023 auf LinkedIn mit einem Artikel, in dem er einen Plagiatsverdacht äußerte: „After reading the text more intensively, which should be a summary of our paper according to the introduction, I had the impression that the text itself is not a summary, but a direct translation of our original publication. This left me really confused and I translated the so-called summary back into English to see that my initial impression was right. A large proportion of text is not summarized but just translated and put into this chapter without quoting the original text.“ Nach seiner Darstellung konfrontierte er den Verlag und die Autoren mit seinen Befunden, allerdings ohne Erfolg. In dem Artikel, der auch auf seiner Website unter dem Titel „AI destroys principles of authorship. A scary case from educational technology publishing.“ zu finden ist, nimmt er ausführlich Stellung zu dem Fall. Die drei Herausgeber schreiben in ihrem Vorwort: „Ein besonderer Dank gilt auch den Mitarbeitern von Springer Nature für ihre Mitarbeit bei der Erstellung des vorliegenden Werks.“ Um wen es sich dabei handelt, ist nicht ersichtlich – Lektoren sind nicht aufgeführt. Insgesamt muss man eher von einem Machwerk sprechen. Springer VS ist mit diesem KI-generierten Buch in jeder Hinsicht gescheitert.

Abb.: So stellt sich Ideogram das Cover vor

Küss mich, KI!

„Der Fortschritt der Technik lässt unsere Beziehungen nicht unberührt: Sexroboter offerieren neue Formen der Befriedigung, Chatbots versprechen emotionale Nähe, quasi auf Knopfdruck. Kann die KI uns dadurch bieten, was wir sonst so schmerzlich vermissen – etwas mehr Leichtigkeit bei der Suche nach Intimität?“ Mit diesen Worten beginnt der Artikel „Küss mich, KI!“ von Antonia Siebeck im Philosophie Magazin. Zu Wort kommt Prof. Dr. Oliver Bendel, der sich seit Jahren mit dem Thema beschäftigt und sich weder in die Eutopie eines David Levy noch in die Dystopie einer Kathleen Richardson mitnehmen lässt. Den gelegentlichen Aufruf eines Chatbots wie Replika in der Adultversion oder den gelegentlichen Gebrauch eines Sexroboters wie Harmony hält er für unproblematisch. Problematisch wird es, wenn man die Beziehung für eine hält, die für beide Seiten etwas bedeutet. Das tut sie nicht, sie ist einseitig, auch wenn die Blickkontakte, die Unterhaltungen oder – man denke an Replika – die Tagebucheinträge dagegen zu sprechen scheinen. Die Maschine hat kein Interesse an dem ihr anvertrauten Menschen, sie fühlt nichts für ihn, sie macht sich nichts aus ihm, sie schert sich weder um eine gemeinsame Vergangenheit noch um eine gemeinsame Zukunft. Von daher stellt ein Kuss kein Problem dar, auch nicht der Akt, aber eine Liebe, die letztlich unerfüllt bleiben muss. Problematisch wird es zudem, wenn man Replika in der Virtualität demütigt und vergewaltigt und sich in der Realität des Stammtischs oder des Sportvereins damit brüstet. Denn dies ist eine Grenzüberschreitung, die ihre Folgen hat, ein Rollenspiel, das aus der Rolle fällt. Die Onlineausgabe des Magazins kann über https://www.philomag.de aufgerufen werden.

Abb.: Die erste Seite des dreiseitigen Artikels

Image Synthesis from an Ethical Perspective

The article „Image Synthesis from an Ethical Perspective“ by Prof. Dr. Oliver Bendel from Zurich has gone into production at Springer and will be published in a few weeks. From the abstract: „Generative AI has gained a lot of attention in society, business, and science. This trend has increased since 2018, and the big breakthrough came in 2022. In particular, AI-based text and image generators are now widely used. This raises a variety of ethical issues. The present paper first gives an introduction to generative AI and then to applied ethics in this context. Three specific image generators are presented: DALL-E 2, Stable Diffusion, and Midjourney. The author goes into technical details and basic principles, and compares their similarities and differences. This is followed by an ethical discussion. The paper addresses not only risks, but opportunities for generative AI. A summary with an outlook rounds off the article.“ The article will be published in the long-established and renowned journal AI & Society.

Fig.: The image of a woman generated with Ideogram

Macht künstliche Intelligenz uns freier?

Das neue Philosophie Magazin (Oktober/November 2023) wartet mit dem Dossier „Macht künstliche Intelligenz uns freier?“ auf. Dominik Erhard schreibt über „das neue Feuer“. Künstliche Intelligenz rufe oft zwei grundsätzlich unterschiedliche Reaktionen hervor. Die Schriftstellerin Meghan O’Gieblyn wird im Artikel von Stefania Gherca mit dem Satz „KI ist unser kollektives Unbewusstes“ zitiert. Künstliche Intelligenz boome in Industrie und Forschung, bestimme immer mehr unseren Alltag und stelle unser menschliches Selbstverständnis als Krone der Schöpfung infrage. Antonia Siebeck hat für „Küss mich, KI!“ den Technikphilosophen Oliver Bendel befragt. Im Teaser heißt es: „Der Fortschritt der Technik lässt unsere Beziehungen nicht unberührt: Sexroboter offerieren neue Formen der Befriedigung …“ (Philosophie Magazin, Oktober/November 2023). Der Germanist und Philosoph Richard David Precht fragt mit Blick auf KI: „Das Ende der Mühsal?“ Im Teaser heißt es: „Künstliche Intelligenz steigert alte Ängste: Uns geht die Arbeit aus! Die Maschinen werden uns beherrschen! Dabei liegt in der technischen Entwicklung eine Chance, die schon Karl Marx formulierte. Um sie zu nutzen, müssten wir die Gesellschaft neu denken.“ (Philosophie Magazin, Oktober/November 2023) Frederike Kaltheuner und Friedrich Weißbach beschäftigen sich in „Intelligent töten?“ mit KI in der militärischen Praxis. Weitere Informationen über www.philomag.de.

Abb.: An der Costa de la Luz

Demos auf Ideogram

Ideogram ist ein Bildgenerator, der Gesichter und Körper meist schlechter als Midjourney darstellt, Texte aber oft besser. Er kann über ideogram.ai aufgerufen werden. Jedes Bild ist öffentlich auf der Website sichtbar. Die Community nutzt diese Voraussetzungen und Bedingungen, um miteinander und vor allem mit dem Anbieter zu kommunizieren. So sind seit Tagen Protestierende mit Schildern zu sehen, auf denen „You need more servers“ und ähnliche Sätze stehen. Damit wird darauf angespielt, dass der Dienst inzwischen so beliebt ist, dass er nur noch selten zur Verfügung steht. Andere Generatoren hat in der Vergangenheit ein ähnliches Schicksal ereilt, bis nachgebessert wurde. Immer mehr werden auch konkrete Funktionen gefordert, etwa eine Suchfunktion oder eine Uploadfunktion für Bilder. Da solche Tafeln von vielen Benutzern gelikt werden, sind sie in der standardmäßig eingestellten Rubrik „Trending“ sichtbar. Dort war dann auch eine Gegenstimme, eine Demonstrantin, die ein Schild mit der leicht fehlerhaft generierten Aufschrift „IT’S FREE UNGRATEFUL PEEOPLE“ trug. Ob undankbar oder nicht – wichtig wäre noch eine höhere Auflösung, denn im Moment ist man auf Upscaler angewiesen, wenn man das Bild in einer bestimmten Größe auf der Website oder im Print verwenden will. Ein Grund für die Beliebtheit von Ideogram ist, dass man ohne Anmeldung und andere Hürden einfach loslegen kann. Und eben, dass man Texte einfügen kann, was u.a. die Covergestaltung ermöglicht.

Abb.: Ein Kommunikationsbild von „engel“,  zugeschnitten für diesen Post (Bild: Ideogram)

Podcast zu ethischen Implikationen generativer KI

Mit generativer KI (engl. „generative AI“) beschäftigt sich Prof. Dr. Oliver Bendel seit 2019, schon damals mit Blick auf Roboter. In dem von ihm herausgegebenen Band „Maschinenliebe“ geht einer seiner Autoren, Kino Coursey von Realbotix, auf die Verwendung von Sprachmodellen bei sozialen Robotern wie Harmony ein. Es folgten weitere Artikel in diesem Kontext, etwa „Die Mächtigkeit von Sprachmodellen: Anwendungsmöglichkeiten für Service- und Industrieroboter“, erschienen im Frühjahr 2023 in messtec drives Automation. 2023 war Oliver Bendel zu Gast bei „Scobel“ zu diesem Thema, u.a. zusammen mit Doris Weßels, und Referent an der TU Darmstadt. Für Ende 2023 und Anfang 2024 sind weitere Papers und Buchbeiträge geplant, u.a. bei Kohlhammer und Schäffer-Poeschel und in AI & Society. Christoph Holz, ein Podcaster, unterhielt sich mit dem Informations- und Maschinenethiker über verschiedene Themen in den Bereichen Soziale Robotik, Künstliche Intelligenz und Ethik. Die erste Folge „Maschinenliebe aus philosophischer Sicht“ wurde am 19. Juli veröffentlicht, die zweite mit dem Titel „Ethische Implikationen generativer KI“ am 6. September 2023. Beide können über Spotify abgerufen werden.

Abb.: So stellt sich Ideogram Brigitte Bardot als Roboter vor

Für Dirty Talk ist GPT zu prüde

In der FAZ vom 29. August 2023 ist Melanie Mühl im Gespräch mit Prof. Dr. Oliver Bendel. Auf einer knappen Seite, die im Feuilleton untergebracht ist, geht es um Chatbots, Sprachassistenten und soziale Roboter. Es geht um die Beziehungen mit ihnen, die immer einseitig bleiben, um Täuschung und Betrug, aber auch um die Freude, die man mit Artefakten haben kann. Natürlich dürfen Sprachmodelle wie GPT nicht fehlen, und mit Blick auf Sexroboter stellt Oliver Bendel fest, dass jene zu prüde für Dirty Talk sind. Man muss sie mit speziellem Material trainieren, um sie für dieses Geschäftsfeld zu erschließen. Und genau das machen Unternehmen wie RealDoll bzw. Realbotix seit Jahren. Wer 10.000 Dollar und mehr für Harmony ausgibt, will eben nicht nur Sex mit ihr haben, sondern auch eine (wie auch immer geartete) Beziehung mit ihr führen, und dafür braucht es Sprache. Der Artikel „Für Dirty Talk ist GPT zu prüde“ ist in der Printausgabe erschienen. Zudem steht der Artikel in der Onlineausgabe mit abweichendem Bildmaterial zur Verfügung.

Abb.: Der Kopf von Harmony (Foto: Realbotix)

Großes Interview zu Robotern in der Pflege

FORUM ist ein Wochenmagazin mit Themen „aus Berlin, dem Saarland, Deutschland und dem Rest der Welt“ (Website Forum). Regelmäßig liegt ein Sonderheft zur Gesundheit bei. Das Sonderheft zur FORUM-Ausgabe 34 widmet sich der Organtransplantation. Daneben sind Adipositas und Robotik in der Pflege Schwerpunkte. Zur Robotik in der Pflege gibt es ein mehrseitiges Interview mit Prof. Dr. Oliver Bendel. Er ist Herausgeber des Standardwerks „Pflegeroboter“ – erschienen 2018 im Springer-Verlag. Auch in seinem Band „Soziale Roboter“ (2021) werden Pflege- und Therapieroboter behandelt. Oliver Bendel spricht sich für eine Hinzunahme von Robotern zur Unterstützung von Pflegebedürftigen und Pflegekräften aus. Fast jedes Pflegeheim, Altenheim oder Krankenhaus kann mehrere Serviceroboter sinnvoll und zeitgleich beschäftigen, im Bereich der Pflege wie auch bei Transport, Sicherheit und Reinigung. Für eine Lösung des Pflegenotstands hält der Technikphilosoph den Einsatz von Pflegerobotern aber nicht. Bessere Ansätze sind gesteigerte Wertschätzung des Personals, höhere Bezahlung und mehr Verantwortlichkeit. Das ganze Heft kann hier kostenlos heruntergeladen werden.

Abb.: Oliver Bendel beim Berliner Kolloquium 2019 (Foto: Daimler und Benz Stiftung)

Der Diebstahl der Stimme

Erneut berichten Schweizer Medien über Trickbetrug mit synthetisierten Stimmen lebender Personen. Die Basler Zeitung interviewte am 7. August 2023 Prof. Dr. Oliver Bendel dazu, wie solche synthetischen Stimmen entstehen. Er forscht seit einem Vierteljahrhundert zu KI-Systemen und Robotern und seit sieben Jahren speziell auch zu synthetischen Stimmen. Grundsätzlich werden in solchen Fällen neuronale Netzwerke benutzt. Man kann sie mit der individuellen Stimme trainieren. Dafür braucht es 15 – 30 Minuten an Material. Die Zeit verkürzt sich auf wenige Sekunden, wenn man vorher ein Sprachmodell mit einigen tausend Stimmen trainiert hat und einige Voraussetzungen erfüllt sind. Zu diesen Voraussetzungen gehört, dass die individuelle Stimme einen Verwandten im Trainingsmaterial hat. Die Resultate können so oder so täuschend echt sein. Oft sind aber nicht die gewohnten Hintergrundgeräusche vorhanden, oder es fehlen typische Verhaltensweisen der Person, etwa das Nasehochziehen oder ein Stühlerücken. Es lohnt sich also, gut hinzuhören und im Zweifel auch einen Rückruf zu verlangen. Mehrere Aussagen aus dem Interview wurden in den Beitrag „Betrüger können mit KI die Stimmen lebender Personen imitieren“ aufgenommen, der am 9. August 2023 in der gedruckten Ausgabe der Basler Zeitung erschien. Bereits am Vortag war er in die Onlineauftritte von Tamedia aufgenommen worden.

Abb.: Stimmen kann man an vielen Orten stehlen

Deadline for ICSR 2023 is Approaching

The International Conference on Social Robotics (ICSR 2023) is, next to Robophilosophy, the most important conference on social robotics. The deadline for paper submission is approaching. „The 15th International Conference on Social Robotics (ICSR 2023) will bring together researchers and practitioners working on the interaction between humans and intelligent robots and on the integration of social robots into our society.  ICSR 2023 will take place in Doha as a face-to-face conference on December 4-7, 2023. This will be the first time that the conference will be hosted in Qatar and in the Middle East and North Africa region.“ (Website ICSR) The theme of this year’s ICSR is „Human-Robot Collaboration: Sea, Air, Land, Space and Cyberspace“. According to the organizers, the theme emphasizes on all physical and cyber-physical domains where humans and robots collaborate. Papers can be submitted until August 21, 2023. Notifications will be made by September 18 of that year. More information via icsr23.qa.

Fig.: A wall painting in Qatar

Attacks with Chewing Gum or Lipstick

„Anti-car activists have come up with a novel and effective way of disabling driverless vehicles owned by Waymo and Cruise in San Francisco: placing traffic cones on their hoods. It’s the work of a group called Safe Streets Rebel, which has launched a protest dubbed ‚Week of Cone‘.“ (Techspot, 11 July 2023) This was reported by Techspot on 11 July 2023. Prof. Dr. Oliver Bendel has been pointing out for several years that automated and autonomous cars can be crippled in a simple way. On 6 March 2018, in an article in a Swiss IT journal, he asked, „Does autonomous driving fail because of manipulated sensors?“ … A thesis by his student M. Hashem Birahjakli then systematically compiled and examined methods and means. A blog post about it states: „The results of the work suggest that every 14-year-old girl or boy could disable a self-driving car. So far, hacking has been seen as the greatest threat to autonomous driving. But while not everyone can hack, almost everyone carries chewing gum or lipstick. The automotive industry should consider this threat seriously.“ The operator Waymo reacts helplessly to the actions. According to the German magazine Golem, a press spokesman emphasized that the traffic cone action shows a lack of understanding of how autonomous vehicles work and is vandalism. In fact, the activists know very well how autonomous vehicles work. And that is precisely the problem.

Fig.: Chewing gum girls

Maschinenliebe aus philosophischer Sicht

Mit Liebespuppen und Sexrobotern beschäftigt sich Prof. Dr. Oliver Bendel seit 2013, beginnend mit dem Fachartikel „Dr. Robot entdeckt die Moral“, veröffentlicht in IT for Health. 2015 stellte er in seinem Beitrag „Surgical, Therapeutic, Nursing and Sex Robots in Machine and Information Ethics“ für das Buch „Machine Medical Ethics“ (Springer) die Lustmaschinen in eine Reihe mit anderen Robotern aus dem Gesundheitsbereich und betrachtete sie aus ethischer Sicht. Es folgten weitere Artikel und Buchbeiträge und 2020 das vielbeachtete Buch „Maschinenliebe“ (Springer Gabler). Zuletzt erschien „Sexroboter als soziale Roboter für unterschiedliche Bedürfnisse und Anliegen“ im Herausgeberband „Faktor Mensch“ (Springer Vieweg). Christoph Holz, ein Podcaster, unterhielt sich mit dem Informations- und Maschinenethiker über verschiedene Themen in den Bereichen Soziale Robotik, Künstliche Intelligenz und Ethik. Die erste Folge „Maschinenliebe aus philosophischer Sicht“ wurde am 19. Juli 2023 veröffentlicht. Sie kann über Spotify abgerufen werden.

Abb.: Harmony bei einer Messe (Foto: Realbotix)

Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?

„Die Aussage, dass KI Texte generieren kann, sagt etwas über das Verständnis von Texten aus. Worin aber unterscheiden sich menschengemachte und computergenerierte Texte und welche Geltungsansprüche können jeweils erhoben, bestritten oder eingelöst werden? Was erwarten, befürchten und erhoffen sich die einzelnen Wissenschaften, wenn in ihren Diskursen Texte rezipiert werden, die mit generativer Text-KI erzeugt wurden? Wie verändert sich der Umgang mit Quellen? Wie kann digitale Hermeneutik mit KI umgehen? Und welche Konsequenzen ergeben sich für die Kriterien von Wissenschaftlichkeit, Relevanz und Urheberschaft?“ (Programm ZEVEDI) Diesen und anderen Fragen geht die Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ nach, die am 25. und 26. August 2023 an der TU Darmstadt stattfindet. Es tragen u.a. Prof. Dr. Doris Weßels (Fachhochschule Kiel), Prof. Dr. Oliver Bendel (Fachhochschule Nordwestschweiz), Dr. Steffen Albrecht (Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag) und Prof. Dr. Christian Stöcker (Hochschule für Angewandte Wissenschaften Hamburg) vor. Das Programm kann hier abgerufen werden.

Abb.: Oliver Bendel in seinem Büro (Foto: Dominic Büttner)

Verkehrshütchen legen autonome Autos lahm

„Die Webseite Techspot und der Guardian berichten, dass eine Gruppe von Verkehrsaktivisten mit dem Namen Safe Street Rebel in San Francisco eine lustige Art des Protestes gefunden hat, um autonom fahrende Autos von Waymo und Cruise außer Gefecht zu setzen: Sie setzen ihnen einfach Verkehrshütchen auf die Motorhaube.“ (Golem, 14. Juli 2023) Dies schrieb Golem am 14. Juli 2023. Prof. Dr. Oliver Bendel weist seit mehreren Jahren darauf hin, dass automatische und autonome Autos auf einfache Weise lahmgelegt werden können. Am 6. März 2018 fragte er in einem Artikel in einer Schweizer IT-Zeitschrift: „Scheitert autonomes Fahren an manipulierten Sensoren?“ … Eine Abschlussarbeit seines Studenten M. Hashem Birahjakli hat dann Methoden und Mittel systematisch zusammengestellt und untersucht. In einem Blogpost dazu heißt es: „The results of the work suggest that every 14-year-old girl or boy could disable a self-driving car. So far, hacking has been seen as the greatest threat to autonomous driving. But while not everyone can hack, almost everyone carries chewing gum or lipstick. The automotive industry should consider this threat seriously.“ Der Betreiber Waymo reagiert hilflos auf die Aktionen: „Ein Pressesprecher betonte, die Verkehrshütchenaktion zeuge von mangelndem Verständnis dafür, wie autonome Fahrzeuge funktionierten, und seien Vandalismus.“ (Golem, 14. Juli 2023) Tatsächlich wissen die Aktivisten sehr wohl, wie autonome Fahrzeuge funktionieren. Und genau das ist das Problem.

Abb.: So verwendet man Verkehrshütchen normalerweise

„Werden wir Roboter lieben?“ bei NDR

Der NDR wiederholt am 9. und 10. Juli 2023 die Sendung „Werden wir Roboter lieben?“, die auf ARTE in der Reihe „42 – Die Antwort auf fast alles“ am 19. Februar 2022 ausgestrahlt und von Nora Tschirner eingesprochen wurde. Es geht um soziale Roboter wie Sexroboter und um Vor- und Nebenformen wie Liebespuppen, zudem um andere Formen sozialer Roboter. Zu Wort kommen Prof. Dr. Peter Robinson, Computerwissenschaftler an der University of Cambridge, Dr. Hooman Samani, Robotiker an der University of Plymouth, Prof. Dr. Martin Fischer, Kognitionspsychologe an der Universität Potsdam, Prof. Dr. Catrin Misselhorn, Philosophin an der Universität Göttingen, und Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Er forscht seit fast 25 Jahren zu Conversational Agents und sozialen Robotern. 2020 hat er das Buch „Maschinenliebe“ herausgegeben, 2021 das Buch „Soziale Roboter“ … Weitere Informationen zur Sendung über www.ndr.de/fernsehen/42-Die-Antwort-auf-fast-alles,sendung1359076.html.

Abb.: Oliver Bendel bei ARTE mit Data (Foto: ARTE)

Trickbetrug in der Schweiz mit synthetisierten Stimmen lebender Personen

Synthetische Stimmen mit individuellen Zügen lebender Personen werden mehr und mehr für Trickbetrug verwendet. Ein solchen Fall gab es im Sommer 2023 im Aargau in der Schweiz. Ein Mann wurde von seiner vermeintlichen Frau angerufen, ohne dass er zunächst erkannte, dass es sich um eine mit Hilfe von Machine Learning generierte Stimme und damit um einen Trickbetrug handelte. Der Lokalsender Tele M1 interviewte am 4. Juli 2023 Prof. Dr. Oliver Bendel dazu, wie solche synthetischen Stimmen entstehen. Er forscht seit einem Vierteljahrhundert zu KI-Systemen und Robotern und seit sieben Jahren speziell auch zu synthetischen Stimmen. Grundsätzlich werden in solchen Fällen neuronale Netzwerke benutzt. Man kann sie mit der individuellen Stimme trainieren. Dafür braucht es 15 – 30 Minuten an Material. Die Zeit verkürzt sich auf wenige Sekunden, wenn man vorher ein Sprachmodell mit einigen tausend Stimmen trainiert hat und einige Voraussetzungen erfüllt sind. Die Resultate können so oder so täuschend echt sein. Oft sind aber nicht die gewohnten Hintergrundgeräusche vorhanden, oder es fehlen typische Verhaltensweisen der Person, etwa das Nasehochziehen oder ein Stühlerücken. Es lohnt sich also, gut hinzuhören und im Zweifel auch einen Rückruf zu verlangen. Mehrere Aussagen aus dem Interview wurden in den Beitrag „Schockanrufe: So gelangen die falschen Polizisten an die Stimmen der Opfer“ der abendlichen Nachrichtensendung aufgenommen. Weitere Informationen zum Sender über www.telem1.ch.

Abb.: Oliver Bendel bei Tele M1 (Foto: Tele M1)

Human Enhancement im Arbeitsleben

Das Handelsblatt hat mit Prof. Dr. Oliver Bendel über Bio- und Bodyhacking und Human Enhancement gesprochen. Es ging vor allem um die Anwendung im Berufsleben, etwa im Büro oder in der Fabrik. Mehrere Aussagen des Technikphilosophen wurden in dem Artikel „Wie Mikrochips und smarte Brillen die Leistung im Job erhöhen können“ zitiert. Anwendungen dieser Art kann man vor allem dem Human Enhancement zurechnen. Über Bio- und Bodyhacking, Human Enhancement und Animal Enhancement sowie Cyborgs schreibt Oliver Bendel seit Jahren. Zudem hält er Vorträge zum Thema, wie bei der Architekturbiennale in Venedig im Jahre 2021 („Human and Animal Enhancement in the Context of Architecture“). Mit Studenten und Studentinnen probierte er 2017 im Silicon Valley die HoloLens von Microsoft aus. Für das Arbeitsleben sind seiner Meinung nach Datenbrillen relevant, smarte Kontaktlinsen sowie passive und aktive Exoskelette. Wichtig ist es, den Bedürfnissen der Arbeitnehmer Rechnung zu tragen und die Privat- und Intimsphäre aller Beteiligten und Betroffenen zu schützen. Der Artikel ist am 16. Juni 2023 erschienen und kann über www.handelsblatt.com/karriere/biohacking-wie-mikrochips-und-smarte-brillen-die-leistung-im-job-erhoehen-koennen/29202186.html aufgerufen werden.

Abb.: Studentinnen mit der HoloLens im Jahre 2017 bei Microsoft im Silicon Valley

Soziale Roboter in Kitas

„‚Nao‘, wie die Maschine heißt, tanzt und singt mit den Kindern der inklusiven Kita im Lebenshilfehaus in Karlsruhe. Das geschieht im Rahmen eines Forschungsprojektes des Karlsruher Instituts für Technologie (KIT), das Künstliche Intelligenz und Robotik im Alltag ausprobiert. ‚Wir haben mehrere Experimente in Karlsruhe, weil wir unterschiedliche Gruppen von Nutzenden adressieren, von klein bis groß‘, erklärte KIT-Professor Tamim Asfour am Mittwoch. Bei dem Forschungsprojekt kämen Roboter unter anderem in der Kita, in der Schule, im Museum oder auch im Seniorenheim zum Einsatz.“ (Badische Zeitung, 7. Juni 2023) Mit diesen Worten beginnt ein Artikel von Valeria Nickel, der am 7. Juni 2023 in der Badischen Zeitung erschienen ist. Zu Wort kommt auch Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW, der sich seit vielen Jahren mit sozialen Robotern befasst. In einem Gespräch mit der Redakteurin von der dpa erklärte er, dass Smartphones und Tablets kleinen Kindern in ihrer Entwicklung schaden können, soziale Roboter hingegen alle Sinne ansprechen und trainieren. Den Einsatz von NAO, Moxie, QTrobot und anderen Modellen in der Kita hält er für unproblematisch, sofern sie entsprechend programmiert und Bestimmungen des Datenschutzes eingehalten werden. Insbesondere autistische Kinder können nach seiner Meinung von sozialen Robotern profitieren. Der Artikel ist über www.badische-zeitung.de/wie-roboter-in-inklusiven-kitas-helfen-koennen–266860715.html verfügbar.

Abb.: NAO am FHNW-Campus Brugg-Windisch

DeepL verwendet gegenderte Sprache

DeepL gilt als eines der besten Übersetzungstools der Welt. Tatsächlich schneidet es in vielen Tests und Vergleichen besser ab als Google Translate und Co. Allerdings stellt sich die Frage, welche Regeln die Firma aus Köln im Deutschen umsetzt. Wenn man einen englischen Text hat, in dem der „user“ vorkommt, kann es sein, dass dieser mit „NutzerInnen“ übersetzt wird. Dieses Wort mit Binnen-I existiert aber nicht in der deutschen Sprache. Es handelt sich um gegenderte Sprache, um eine Fantasiesprache einer bestimmten Gruppe. Der Rechtschreibrat lehnt diese Schreibweise ebenso ab wie „Nutzer*innen“, „Nutzer:innen“ oder „Nutzer_innen“. Wenn aber ein Übersetzungstool nicht der amtlichen Rechtschreibung folgt, verfehlt es letztlich seinen Sinn und Zweck. Diejenigen, die es besser wissen, müssen den Text nachkorrigieren, und diejenigen, die es nicht besser wissen, bekommen eine falsche Sprache aufgedrängt. Ähnliches lässt sich bei DeepL Write beobachten, dem Redigiertool der gleichen Firma. „Die Ärzt*innen“ wurde bei einem Test als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre übrigens „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Ob sich das deutsche Unternehmen mit seiner politisch-moralischen Positionierung einen Gefallen tut, darf bezweifelt werden. Dass es alles andere als professionell verfährt, ist offensichtlich.

Abb.: Ein scherzhaft verwendeter Genderstern in Zürich

Jung, erfolgreich, tot

Stefan Sommer von der Süddeutschen Zeitung hat Prof. Dr. Oliver Bendel Fragen zu Hologrammen gestellt, die Tote auf Bühnen und in Filmen „lebendig“ machen sollen, und zu Apps, mit denen man sich und andere verewigen kann. Einführend bemerkte der Technikphilosoph zu den Hologrammen: „Meist handelt es sich um Projektionen, wobei man durchsichtige Vorhänge, Glas, Metall bzw. mit Metall beschichtete Oberflächen verwendet. Ich nenne sie auch Pseudohologramme oder Quasihologramme. Grundsätzlich hat man den Eindruck, dass sich ein Körper im Raum befindet. Sehr bekannt sind die Pseudohologramme von Tupac und Hatsune Miku. Der Unterschied ist, dass der Rapper verstorben war und durch die Technologie ‚wiederbelebt‘ wurde, Hatsune Miku aber nie gelebt hat – man hat zuerst ihre Stimme erfunden und später ergänzt durch das Pseudohologramm. Bei ABBA liegt der Fall wiederum anders. Die Mitglieder leben noch, haben sich aber unsterblich gemacht, wiederum mit Pseudohologrammen, die in einer speziell dafür konstruierten Bühne in London erscheinen. Ich habe eines der Konzerte besucht. Die Wirkung ist immens. Es sind alte Fans vor Ort, die spätestens bei ‚Dancing Queen‘ ihre Rollatoren wegwerfen und zu tanzen beginnen.“ Es folgten weitere Ausführungen zu den Apps und zum digitalen Nachlass. Mehrere Statements wurden für den Artikel „Jung, erfolgreich, tot.“ verwendet, der am 1. Juni 2023 im Onlinemagazin Jetzt der Süddeutschen Zeitung erschienen ist.

Abb.: Ein junger Mann mit Tupac-T-Shirt