Heidi als zehnjähriges Mädchen in den Schweizer Bergen mit Smartphone – so lautete sinngemäss der Prompt, den Oliver Bendel aus Zürich am Mittag des 3. Oktober 2023 in DALL-E 3 eingab. Auch bei diesem Ergebnis fällt die Ausarbeitung von Details ins Auge. Den Pullover – wohl passend zu Temperatur und Situation – kann man förmlich in seiner groben Struktur fühlen. Der eine Rucksackgurt sitzt gut sichtbar an der richtigen Stelle der Schulter, der andere ist vom langen blonden Haar bedeckt. Die Hände erscheinen, im Gegensatz zu anderen Bildern, soweit korrekt. Auch die Finger sind in diesem Fall nicht überlang. Sie schließen sich in natürlicher Weise um das Smartphone, das von verschiedenen Herstellern sein könnte. Vermutlich textet das Mädchen mit den Daumen. Sie lächelt dabei. Im Hintergrund erheben sich Allerweltsberge und ziehen Allerweltswolken dahin. Am Rande duckt sich eine Hütte. In einem Bild einer anderen Serie – ohne Altersangabe – ist deutlich das Matterhorn zu sehen. Das Gesicht beeindruckt durch die konzentriert blickenden Augen, die klar gezeichneten Wimpern und Augenbrauen, die – womöglich durch die Höhenluft – geröteten Wangen, auch wenn über allem der Schleier des Künstlichen liegt.
Ein Kurs an der Hochschule, in dem man Prof. Dr. Oliver Bendel zujubelt – so lautete der Prompt, der am Morgen des 3. Oktober 2023 bei DALL-E 3 eingegeben wurde. Erst am Tag davor hatte der Launch der neuen Version durch OpenAI stattgefunden. Der abgebildete Dozent hat mit dem Ethiker und Technikphilosophen wenig gemein, bis auf den obligatorischen Anzug mit Krawatte. ChatGPT kennt ihn gut und kann viel über ihn erzählen, aber anscheinend reicht DALL-E 3 das Bildmaterial nicht aus – oder es ist vorsichtig bei realen Personen. Die Klasse selbst besteht ausschließlich aus jungen Männern, die sich auffällig ähneln, vor allem die Streber in der ersten Reihe. In einem weiteren Versuch wurden sie durch junge Frauen ersetzt, die nun vollends als Klone daherkommen, brünett, adrett, die Hände in die Luft schnellen lassend, mit den Fingern schnippend. Insgesamt wirkt das Bild wie aus der Zeit gefallen, zumal die jungen Männer vor Büchern sitzen und nicht vor Notebooks – nicht einmal eine Wasserflasche oder ein Energydrink ist zu sehen, was den Betrachter schon beim bloßen Zusehen dehydrieren lässt. Ansonsten fallen einige Details auf, die typisch für DALL-E 3 zu sein scheinen, wie die langen Finger und das gleißende Licht. Beeindruckend nicht zuletzt, dass man fast im Buch des Dozenten lesen kann.
Abb.: Der Professor vor der Klasse (Bild: DALL-E 3)
Bereits am 2. Oktober 2023, als DALL-E das Licht der Welt erblickte, konnte man feststellen, dass der Bildgenerator virtuos mit Wasser umgeht. Dabei stimmen auf den zweiten Blick nicht alle Details. In einem von Oliver Bendel verursachten Bild, das einen Pool auf einem Trabanten oder Meteoriten zeigt, sollten eigentlich Frauen um die Wette schwimmen. Die Bewegung des Wassers deutet allerdings an, dass sie kaum daran interessiert sind, von der Stelle zu kommen. In einem alternativen Bild ist dies schon besser umgesetzt. Man sieht im Wasser deutlich die Spuren, die die Schwimmerinnen hinterlassen haben. In beiden Fällen übt das Wasser eine gewisse Faszination aus, vor allem durch das Spiel mit dem Licht. Dieses ist auch entscheidend bei einer anderen Serie, die Mädchen dabei zeigt, wie sie mit einem Salto in einen Pool springen. Hinzu kommen stimmige Spiegelungen des Wassers und Kräuselungen der Oberfläche. Es gefällt auch die Bewegung, die Drehung, überhaupt die Dynamik. Wie bei einer früheren Darstellung fragt man sich aber, ob die Mutige ins Wasser fällt oder auf den Boden prallt – oder auf den Handlauf des Einstiegs, der bereits verbogen erscheint. Zudem fallen die überlangen Finger auf. Beunruhigend wiederum – wie in dem anderen Poolbild – die Gestalten am Beckenrand, auch wenn sie menschlich wirken. Die Wirkung insgesamt ist enorm, zumal sich im Hintergrund ein berühmtes Bauwerk erhebt, die kambodschanische Tempelanlage Angkor Wat, was freilich im Prompt gar nicht angefordert worden war. Auch ein alternatives Bild mit einer farbigen Springerin gefällt.
„Forscher des Toyota Research Institute (TRI) haben nach eigenen Angaben einen wegweisenden generativen KI-Ansatz entwickelt, um Robotern schnell und sicher neue Fähigkeiten beizubringen, zu denen beispielsweise die Zubereitung von Pancakes gehört. Wie das Unternehmen in einer Pressemitteilung erklärt, werde dadurch der Nutzen von Robotern erheblich verbessert. Obendrein sei dies ein bedeutsamer Schritt hin zur Entwicklung eines sogenannten Large Behavior Models (LBM).“ (Golem, 20. September 2023) Dies meldete Golem am 20. September 2023. Dahinter verbirgt sich nichts anderes als die Nutzung von Large Language Models (LLM) für Roboter. In diesem Bereich hat seit Anfang 2023 vor allem das Sprachmodell PaLM-E für Aufmerksamkeit gesorgt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität miteinander verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Aber nicht nur Google und TU Berlin forschen auf diesem Gebiet – in dem Paper „ChatGPT for Robotics“ hat auch Microsoft erste Ergebnisse vorgestellt. Oliver Bendel hat im Mai 2023 zu diesem Thema den Artikel „Die Mächtigkeit von Sprachmodellen“ veröffentlicht.
Ideogram schien im August 2023 als recht freier und freizügiger Bildgenerator zu starten. Inzwischen werden auffällig viele Bilder zensiert. Dabei ist gar nicht der Prompt entscheidend, sondern das Bild selbst. Wenn der Plattform beim Generieren auffällt, dass das Bild problematisch sein könnte, wird es nicht zu Ende gebracht, sondern durch eine Kachel mit einer Katze ersetzt, die ein Schild mit der Aufschrift «MAYBE NOT SAFE» in den Pfoten hält. Ein Prompt lautete: „Die Skulptur Galatea, die der schönen Aphrodite ähnelt, erschafft sich selbst, photo, cinematic“. Die Skulptur von Pygmalion sollte sich also selbst ermächtigen. Man sah die vier Bilder entstehen, bei zweien waren Brüste zu erkennen, für den Benutzer und auch die Plattform selbst, was offenbar dazu führte, dass die Bilder noch vor der Fertigstellung in die besagten Warnhinweise umgewandelt wurden. Unproblematisch dagegen nach wie vor die fotorealistischen Bilder von Frauen in freizügiger Pose, solange sie Bikinis oder Hotpants tragen. Genau hier scheint, wie bei anderen amerikanischen Plattformen auch, das Problem zu liegen, nämlich in der Sichtbarkeit der Brustwarzen, ganz egal, ob es sich um Menschen oder Skulpturen handelt. Ein weiterer Versuch ließ bei einem von vier Bildern genau diese erkennen, bis sie unter dem Fell der Katze verschwanden. Bei einer anderen Skulptur hatte Ideogram selbst die Brustwarzen abgedeckt, die eine mit ihrer Hand, die andere mit etwas Schmuck aus Lehm oder Stein. Ihr blieb das Schicksal der Schwester erspart.
Beim „Digital Ethics Summit“ am 14. September 2023 in Düsseldorf – keine Fachtagung, sondern eine populärwissenschaftliche und mediengetriebene Veranstaltung – trat u.a. der Germanist und Philosoph Richard David Precht auf. Er wird seitdem mit dem Satz „Wir verzeihen Maschinen nicht, was wir Menschen verzeihen müssen.“ zitiert. Dieser Gedanke tritt allerdings im Zusammenhang mit dem autonomen Fahren und in anderen Zusammenhängen seit über zehn Jahren in unterschiedlichen Varianten auf. Die Süddeutsche Zeitung zitiert den Rechtswissenschaftler Eric Hilgendorf im Mai 2012 mit den Worten „Menschen verzeiht man Fehler, Robotern nicht“. In einem Interview mit dem Informations- und Maschinenethiker Oliver Bendel aus dem Jahre 2016, ausgehend von humanoiden Robotern mit hoheitlichen Aufgaben, heißt es: „Eine Möglichkeit ist, dass die Maschinen eines Tages so verlässlich und intelligent werden, dass wir ihnen vertrauen. Eine andere Möglichkeit ist, dass sie wie wir Fehler machen, wir ihnen diese Fehler aber nicht verzeihen, nicht verzeihen können, weil es eben Maschinen sind.“ Im Artikel „Cloud am Steuer“ von 2014 wird er mit Blick auf autonome Autos mit den Worten zitiert: „Vielleicht würden die Menschen den Maschinen dann irgendwann auch mehr erlauben – und mehr verzeihen.“ In Artikeln und Interviews wies Oliver Bendel immer wieder darauf hin, dass man Menschen eher verzeiht als Maschinen und dass dies Folgen hat für die Akzeptanz des autonomen Fahrens, bei dem zwangsläufig Unfälle passieren. Eigentlich stammt die Diskussion aber aus den 1970er- und 1980er-Jahren. In seinem zweiten Studium in den 1990ern hat Oliver Bendel in einer Arbeit zur Informationsethik u.a. William Bechtel zitiert: „If we accept this result that some computers could be held responsible for their decisions if they were adaptable systems that learned to behave in particular ways in their environment, there will be conditions under which we will forgive them and not hold them responsible. These would be much the same as the circumstances under which we would cease to hold humans responsible.“ Schon damals hat sich Oliver Bendel dagegen verwahrt, dass Computer, KI-Systeme und Roboter Verantwortung übernehmen können.
Das BorDoll in Dortmund hat im Sommer 2023 nach sechs Jahren seine Pforten geschlossen, anscheinend weil kein geeignetes Personal mehr für die Liebespuppen gefunden werden konnte. Es war über die Grenzen von Deutschland hinaus bekannt geworden. Die Inhaberin, Evelyn Schwarz, stand auch der Wissenschaft Rede und Antwort. Ein Interview mit ihr ist in dem Buch „Maschinenliebe“ – herausgegeben von Oliver Bendel – erschienen. Geführt wurde es von Leonie Weber, die damals an der Universität Witten-Herdecke studierte und forschte. Sie hat auch mit einer Sexarbeiterin gesprochen und dadurch einem breiten Publikum wichtige Einblicke in die Sexarbeit geliefert, etwa zum Scheitern des sogenannten nordischen Modells. Evelyn Schwarz machte deutlich, dass viele junge, schüchterne Männer in ihr Etablissement kommen, wo sie sich für Fantasyfiguren interessieren, für Mangamädchen und Elfen. Über die Gründe kann man nur spekulieren, aber wahrscheinlich versuchen Fantasyfans, Gamer und Cosplayer, ihre Erlebnisse in der Fiktionalität und Virtualität in der Realität wiederzufinden. Wie aus dem BorDoll-Forum hervorgeht, wurden die Liebespuppen bereits alle verkauft, vermutlich an Puppenliebhaber, die in den eigenen vier Wänden ihrer Leidenschaft frönen wollen. In Deutschland wird damit das Cybrothel in Berlin zur ersten Adresse. Man darf gespannt sein, wie die Betreiber ihr Projekt, das zwischen Künstlichkeit und Kunst angesiedelt ist, immer wieder neu erfinden werden.
Abb.: Ein KI-generiertes Bild einer Liebespuppe (Bild: Ideogram)
Tai Tan Mai, Martin Crane und Marija Bezbradica von der Dublin City University veröffentlichten im Sommer 2023 bei Springer VS das Buch „Educational Data Mining und Learning Analytics: Ein maschinell generierter Forschungsüberblick“. Dessen Ziel ist es, einschlägige Artikel von Forschern zusammenzufassen. Es wird z.B. in der Schweiz in der gedruckten Version für 88.50 CHF angeboten. Stutzig macht bereits die Rubrik „About this book“, die orthografische und grammatikalische Fehler enthält. Wenn man durch das Buch blättert, kommen einem ständig solche Passagen entgegen: „Unter allen für die Bildung verfügbaren digitalen Ressourcen sind Massive Open Online Courses. (MOOC) als großartige Online-Tools, die den Lernprozess für jede Art von Inhalt erleichtern können.“ Über weite Strecken ergibt das Buch keinerlei Sinn. Das ist aber nicht das einzige Problem. Professor Marco Kalz von der Pädagogischen Hochschule Heidelberg meldete sich am 15. September 2023 auf LinkedIn mit einem Artikel, in dem er einen Plagiatsverdacht äußerte: „After reading the text more intensively, which should be a summary of our paper according to the introduction, I had the impression that the text itself is not a summary, but a direct translation of our original publication. This left me really confused and I translated the so-called summary back into English to see that my initial impression was right. A large proportion of text is not summarized but just translated and put into this chapter without quoting the original text.“ Nach seiner Darstellung konfrontierte er den Verlag und die Autoren mit seinen Befunden, allerdings ohne Erfolg. In dem Artikel, der auch auf seiner Website unter dem Titel „AI destroys principles of authorship. A scary case from educational technology publishing.“ zu finden ist, nimmt er ausführlich Stellung zu dem Fall. Die drei Herausgeber schreiben in ihrem Vorwort: „Ein besonderer Dank gilt auch den Mitarbeitern von Springer Nature für ihre Mitarbeit bei der Erstellung des vorliegenden Werks.“ Um wen es sich dabei handelt, ist nicht ersichtlich – Lektoren sind nicht aufgeführt. Insgesamt muss man eher von einem Machwerk sprechen. Springer VS ist mit diesem KI-generierten Buch in jeder Hinsicht gescheitert.
„Der Fortschritt der Technik lässt unsere Beziehungen nicht unberührt: Sexroboter offerieren neue Formen der Befriedigung, Chatbots versprechen emotionale Nähe, quasi auf Knopfdruck. Kann die KI uns dadurch bieten, was wir sonst so schmerzlich vermissen – etwas mehr Leichtigkeit bei der Suche nach Intimität?“ Mit diesen Worten beginnt der Artikel „Küss mich, KI!“ von Antonia Siebeck im Philosophie Magazin. Zu Wort kommt Prof. Dr. Oliver Bendel, der sich seit Jahren mit dem Thema beschäftigt und sich weder in die Eutopie eines David Levy noch in die Dystopie einer Kathleen Richardson mitnehmen lässt. Den gelegentlichen Aufruf eines Chatbots wie Replika in der Adultversion oder den gelegentlichen Gebrauch eines Sexroboters wie Harmony hält er für unproblematisch. Problematisch wird es, wenn man die Beziehung für eine hält, die für beide Seiten etwas bedeutet. Das tut sie nicht, sie ist einseitig, auch wenn die Blickkontakte, die Unterhaltungen oder – man denke an Replika – die Tagebucheinträge dagegen zu sprechen scheinen. Die Maschine hat kein Interesse an dem ihr anvertrauten Menschen, sie fühlt nichts für ihn, sie macht sich nichts aus ihm, sie schert sich weder um eine gemeinsame Vergangenheit noch um eine gemeinsame Zukunft. Von daher stellt ein Kuss kein Problem dar, auch nicht der Akt, aber eine Liebe, die letztlich unerfüllt bleiben muss. Problematisch wird es zudem, wenn man Replika in der Virtualität demütigt und vergewaltigt und sich in der Realität des Stammtischs oder des Sportvereins damit brüstet. Denn dies ist eine Grenzüberschreitung, die ihre Folgen hat, ein Rollenspiel, das aus der Rolle fällt. Die Onlineausgabe des Magazins kann über https://www.philomag.de aufgerufen werden.
The article „Image Synthesis from an Ethical Perspective“ by Prof. Dr. Oliver Bendel from Zurich has gone into production at Springer and will be published in a few weeks. From the abstract: „Generative AI has gained a lot of attention in society, business, and science. This trend has increased since 2018, and the big breakthrough came in 2022. In particular, AI-based text and image generators are now widely used. This raises a variety of ethical issues. The present paper first gives an introduction to generative AI and then to applied ethics in this context. Three specific image generators are presented: DALL-E 2, Stable Diffusion, and Midjourney. The author goes into technical details and basic principles, and compares their similarities and differences. This is followed by an ethical discussion. The paper addresses not only risks, but opportunities for generative AI. A summary with an outlook rounds off the article.“ The article will be published in the long-established and renowned journal AI & Society.
Fig.: The image of a woman generated with Ideogram
Das neue Philosophie Magazin (Oktober/November 2023) wartet mit dem Dossier „Macht künstliche Intelligenz uns freier?“ auf. Dominik Erhard schreibt über „das neue Feuer“. Künstliche Intelligenz rufe oft zwei grundsätzlich unterschiedliche Reaktionen hervor. Die Schriftstellerin Meghan O’Gieblyn wird im Artikel von Stefania Gherca mit dem Satz „KI ist unser kollektives Unbewusstes“ zitiert. Künstliche Intelligenz boome in Industrie und Forschung, bestimme immer mehr unseren Alltag und stelle unser menschliches Selbstverständnis als Krone der Schöpfung infrage. Antonia Siebeck hat für „Küss mich, KI!“ den Technikphilosophen Oliver Bendel befragt. Im Teaser heißt es: „Der Fortschritt der Technik lässt unsere Beziehungen nicht unberührt: Sexroboter offerieren neue Formen der Befriedigung …“ (Philosophie Magazin, Oktober/November 2023). Der Germanist und Philosoph Richard David Precht fragt mit Blick auf KI: „Das Ende der Mühsal?“ Im Teaser heißt es: „Künstliche Intelligenz steigert alte Ängste: Uns geht die Arbeit aus! Die Maschinen werden uns beherrschen! Dabei liegt in der technischen Entwicklung eine Chance, die schon Karl Marx formulierte. Um sie zu nutzen, müssten wir die Gesellschaft neu denken.“ (Philosophie Magazin, Oktober/November 2023) Frederike Kaltheuner und Friedrich Weißbach beschäftigen sich in „Intelligent töten?“ mit KI in der militärischen Praxis. Weitere Informationen über www.philomag.de.
Ideogram ist ein Bildgenerator, der Gesichter und Körper meist schlechter als Midjourney darstellt, Texte aber oft besser. Er kann über ideogram.ai aufgerufen werden. Jedes Bild ist öffentlich auf der Website sichtbar. Die Community nutzt diese Voraussetzungen und Bedingungen, um miteinander und vor allem mit dem Anbieter zu kommunizieren. So sind seit Tagen Protestierende mit Schildern zu sehen, auf denen „You need more servers“ und ähnliche Sätze stehen. Damit wird darauf angespielt, dass der Dienst inzwischen so beliebt ist, dass er nur noch selten zur Verfügung steht. Andere Generatoren hat in der Vergangenheit ein ähnliches Schicksal ereilt, bis nachgebessert wurde. Immer mehr werden auch konkrete Funktionen gefordert, etwa eine Suchfunktion oder eine Uploadfunktion für Bilder. Da solche Tafeln von vielen Benutzern gelikt werden, sind sie in der standardmäßig eingestellten Rubrik „Trending“ sichtbar. Dort war dann auch eine Gegenstimme, eine Demonstrantin, die ein Schild mit der leicht fehlerhaft generierten Aufschrift „IT’S FREE UNGRATEFUL PEEOPLE“ trug. Ob undankbar oder nicht – wichtig wäre noch eine höhere Auflösung, denn im Moment ist man auf Upscaler angewiesen, wenn man das Bild in einer bestimmten Größe auf der Website oder im Print verwenden will. Ein Grund für die Beliebtheit von Ideogram ist, dass man ohne Anmeldung und andere Hürden einfach loslegen kann. Und eben, dass man Texte einfügen kann, was u.a. die Covergestaltung ermöglicht.
Abb.: Ein Kommunikationsbild von „engel“, zugeschnitten für diesen Post (Bild: Ideogram)
Mit generativer KI (engl. „generative AI“) beschäftigt sich Prof. Dr. Oliver Bendel seit 2019, schon damals mit Blick auf Roboter. In dem von ihm herausgegebenen Band „Maschinenliebe“ geht einer seiner Autoren, Kino Coursey von Realbotix, auf die Verwendung von Sprachmodellen bei sozialen Robotern wie Harmony ein. Es folgten weitere Artikel in diesem Kontext, etwa „Die Mächtigkeit von Sprachmodellen: Anwendungsmöglichkeiten für Service- und Industrieroboter“, erschienen im Frühjahr 2023 in messtec drives Automation. 2023 war Oliver Bendel zu Gast bei „Scobel“ zu diesem Thema, u.a. zusammen mit Doris Weßels, und Referent an der TU Darmstadt. Für Ende 2023 und Anfang 2024 sind weitere Papers und Buchbeiträge geplant, u.a. bei Kohlhammer und Schäffer-Poeschel und in AI & Society. Christoph Holz, ein Podcaster, unterhielt sich mit dem Informations- und Maschinenethiker über verschiedene Themen in den Bereichen Soziale Robotik, Künstliche Intelligenz und Ethik. Die erste Folge „Maschinenliebe aus philosophischer Sicht“ wurde am 19. Juli veröffentlicht, die zweite mit dem Titel „Ethische Implikationen generativer KI“ am 6. September 2023. Beide können über Spotify abgerufen werden.
Abb.: So stellt sich Ideogram Brigitte Bardot als Roboter vor
In der FAZ vom 29. August 2023 ist Melanie Mühl im Gespräch mit Prof. Dr. Oliver Bendel. Auf einer knappen Seite, die im Feuilleton untergebracht ist, geht es um Chatbots, Sprachassistenten und soziale Roboter. Es geht um die Beziehungen mit ihnen, die immer einseitig bleiben, um Täuschung und Betrug, aber auch um die Freude, die man mit Artefakten haben kann. Natürlich dürfen Sprachmodelle wie GPT nicht fehlen, und mit Blick auf Sexroboter stellt Oliver Bendel fest, dass jene zu prüde für Dirty Talk sind. Man muss sie mit speziellem Material trainieren, um sie für dieses Geschäftsfeld zu erschließen. Und genau das machen Unternehmen wie RealDoll bzw. Realbotix seit Jahren. Wer 10.000 Dollar und mehr für Harmony ausgibt, will eben nicht nur Sex mit ihr haben, sondern auch eine (wie auch immer geartete) Beziehung mit ihr führen, und dafür braucht es Sprache. Der Artikel „Für Dirty Talk ist GPT zu prüde“ ist in der Printausgabe erschienen. Zudem steht der Artikel in der Onlineausgabe mit abweichendem Bildmaterial zur Verfügung.
FORUM ist ein Wochenmagazin mit Themen „aus Berlin, dem Saarland, Deutschland und dem Rest der Welt“ (Website Forum). Regelmäßig liegt ein Sonderheft zur Gesundheit bei. Das Sonderheft zur FORUM-Ausgabe 34 widmet sich der Organtransplantation. Daneben sind Adipositas und Robotik in der Pflege Schwerpunkte. Zur Robotik in der Pflege gibt es ein mehrseitiges Interview mit Prof. Dr. Oliver Bendel. Er ist Herausgeber des Standardwerks „Pflegeroboter“ – erschienen 2018 im Springer-Verlag. Auch in seinem Band „Soziale Roboter“ (2021) werden Pflege- und Therapieroboter behandelt. Oliver Bendel spricht sich für eine Hinzunahme von Robotern zur Unterstützung von Pflegebedürftigen und Pflegekräften aus. Fast jedes Pflegeheim, Altenheim oder Krankenhaus kann mehrere Serviceroboter sinnvoll und zeitgleich beschäftigen, im Bereich der Pflege wie auch bei Transport, Sicherheit und Reinigung. Für eine Lösung des Pflegenotstands hält der Technikphilosoph den Einsatz von Pflegerobotern aber nicht. Bessere Ansätze sind gesteigerte Wertschätzung des Personals, höhere Bezahlung und mehr Verantwortlichkeit. Das ganze Heft kann hier kostenlos heruntergeladen werden.
Abb.: Oliver Bendel beim Berliner Kolloquium 2019 (Foto: Daimler und Benz Stiftung)
Erneut berichten Schweizer Medien über Trickbetrug mit synthetisierten Stimmen lebender Personen. Die Basler Zeitung interviewte am 7. August 2023 Prof. Dr. Oliver Bendel dazu, wie solche synthetischen Stimmen entstehen. Er forscht seit einem Vierteljahrhundert zu KI-Systemen und Robotern und seit sieben Jahren speziell auch zu synthetischen Stimmen. Grundsätzlich werden in solchen Fällen neuronale Netzwerke benutzt. Man kann sie mit der individuellen Stimme trainieren. Dafür braucht es 15 – 30 Minuten an Material. Die Zeit verkürzt sich auf wenige Sekunden, wenn man vorher ein Sprachmodell mit einigen tausend Stimmen trainiert hat und einige Voraussetzungen erfüllt sind. Zu diesen Voraussetzungen gehört, dass die individuelle Stimme einen Verwandten im Trainingsmaterial hat. Die Resultate können so oder so täuschend echt sein. Oft sind aber nicht die gewohnten Hintergrundgeräusche vorhanden, oder es fehlen typische Verhaltensweisen der Person, etwa das Nasehochziehen oder ein Stühlerücken. Es lohnt sich also, gut hinzuhören und im Zweifel auch einen Rückruf zu verlangen. Mehrere Aussagen aus dem Interview wurden in den Beitrag „Betrüger können mit KI die Stimmen lebender Personen imitieren“ aufgenommen, der am 9. August 2023 in der gedruckten Ausgabe der Basler Zeitung erschien. Bereits am Vortag war er in die Onlineauftritte von Tamedia aufgenommen worden.
The International Conference on Social Robotics (ICSR 2023) is, next to Robophilosophy, the most important conference on social robotics. The deadline for paper submission is approaching. „The 15th International Conference on Social Robotics (ICSR 2023) will bring together researchers and practitioners working on the interaction between humans and intelligent robots and on the integration of social robots into our society. ICSR 2023 will take place in Doha as a face-to-face conference on December 4-7, 2023. This will be the first time that the conference will be hosted in Qatar and in the Middle East and North Africa region.“ (Website ICSR) The theme of this year’s ICSR is „Human-Robot Collaboration: Sea, Air, Land, Space and Cyberspace“. According to the organizers, the theme emphasizes on all physical and cyber-physical domains where humans and robots collaborate. Papers can be submitted until August 21, 2023. Notifications will be made by September 18 of that year. More information via icsr23.qa.
„Anti-car activists have come up with a novel and effective way of disabling driverless vehicles owned by Waymo and Cruise in San Francisco: placing traffic cones on their hoods. It’s the work of a group called Safe Streets Rebel, which has launched a protest dubbed ‚Week of Cone‘.“ (Techspot, 11 July 2023) This was reported by Techspot on 11 July 2023. Prof. Dr. Oliver Bendel has been pointing out for several years that automated and autonomous cars can be crippled in a simple way. On 6 March 2018, in an article in a Swiss IT journal, he asked, „Does autonomous driving fail because of manipulated sensors?“ … A thesis by his student M. Hashem Birahjakli then systematically compiled and examined methods and means. A blog post about it states: „The results of the work suggest that every 14-year-old girl or boy could disable a self-driving car. So far, hacking has been seen as the greatest threat to autonomous driving. But while not everyone can hack, almost everyone carries chewing gum or lipstick. The automotive industry should consider this threat seriously.“ The operator Waymo reacts helplessly to the actions. According to the German magazine Golem, a press spokesman emphasized that the traffic cone action shows a lack of understanding of how autonomous vehicles work and is vandalism. In fact, the activists know very well how autonomous vehicles work. And that is precisely the problem.
Mit Liebespuppen und Sexrobotern beschäftigt sich Prof. Dr. Oliver Bendel seit 2013, beginnend mit dem Fachartikel „Dr. Robot entdeckt die Moral“, veröffentlicht in IT for Health. 2015 stellte er in seinem Beitrag „Surgical, Therapeutic, Nursing and Sex Robots in Machine and Information Ethics“ für das Buch „Machine Medical Ethics“ (Springer) die Lustmaschinen in eine Reihe mit anderen Robotern aus dem Gesundheitsbereich und betrachtete sie aus ethischer Sicht. Es folgten weitere Artikel und Buchbeiträge und 2020 das vielbeachtete Buch „Maschinenliebe“ (Springer Gabler). Zuletzt erschien „Sexroboter als soziale Roboter für unterschiedliche Bedürfnisse und Anliegen“ im Herausgeberband „Faktor Mensch“ (Springer Vieweg). Christoph Holz, ein Podcaster, unterhielt sich mit dem Informations- und Maschinenethiker über verschiedene Themen in den Bereichen Soziale Robotik, Künstliche Intelligenz und Ethik. Die erste Folge „Maschinenliebe aus philosophischer Sicht“ wurde am 19. Juli 2023 veröffentlicht. Sie kann über Spotify abgerufen werden.
„Die Aussage, dass KI Texte generieren kann, sagt etwas über das Verständnis von Texten aus. Worin aber unterscheiden sich menschengemachte und computergenerierte Texte und welche Geltungsansprüche können jeweils erhoben, bestritten oder eingelöst werden? Was erwarten, befürchten und erhoffen sich die einzelnen Wissenschaften, wenn in ihren Diskursen Texte rezipiert werden, die mit generativer Text-KI erzeugt wurden? Wie verändert sich der Umgang mit Quellen? Wie kann digitale Hermeneutik mit KI umgehen? Und welche Konsequenzen ergeben sich für die Kriterien von Wissenschaftlichkeit, Relevanz und Urheberschaft?“ (Programm ZEVEDI) Diesen und anderen Fragen geht die Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ nach, die am 25. und 26. August 2023 an der TU Darmstadt stattfindet. Es tragen u.a. Prof. Dr. Doris Weßels (Fachhochschule Kiel), Prof. Dr. Oliver Bendel (Fachhochschule Nordwestschweiz), Dr. Steffen Albrecht (Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag) und Prof. Dr. Christian Stöcker (Hochschule für Angewandte Wissenschaften Hamburg) vor. Das Programm kann hier abgerufen werden.
Abb.: Oliver Bendel in seinem Büro (Foto: Dominic Büttner)
„Die Webseite Techspot und der Guardian berichten, dass eine Gruppe von Verkehrsaktivisten mit dem Namen Safe Street Rebel in San Francisco eine lustige Art des Protestes gefunden hat, um autonom fahrende Autos von Waymo und Cruise außer Gefecht zu setzen: Sie setzen ihnen einfach Verkehrshütchen auf die Motorhaube.“ (Golem, 14. Juli 2023) Dies schrieb Golem am 14. Juli 2023. Prof. Dr. Oliver Bendel weist seit mehreren Jahren darauf hin, dass automatische und autonome Autos auf einfache Weise lahmgelegt werden können. Am 6. März 2018 fragte er in einem Artikel in einer Schweizer IT-Zeitschrift: „Scheitert autonomes Fahren an manipulierten Sensoren?“ … Eine Abschlussarbeit seines Studenten M. Hashem Birahjakli hat dann Methoden und Mittel systematisch zusammengestellt und untersucht. In einem Blogpost dazu heißt es: „The results of the work suggest that every 14-year-old girl or boy could disable a self-driving car. So far, hacking has been seen as the greatest threat to autonomous driving. But while not everyone can hack, almost everyone carries chewing gum or lipstick. The automotive industry should consider this threat seriously.“ Der Betreiber Waymo reagiert hilflos auf die Aktionen: „Ein Pressesprecher betonte, die Verkehrshütchenaktion zeuge von mangelndem Verständnis dafür, wie autonome Fahrzeuge funktionierten, und seien Vandalismus.“ (Golem, 14. Juli 2023) Tatsächlich wissen die Aktivisten sehr wohl, wie autonome Fahrzeuge funktionieren. Und genau das ist das Problem.
Abb.: So verwendet man Verkehrshütchen normalerweise
Der NDR wiederholt am 9. und 10. Juli 2023 die Sendung „Werden wir Roboter lieben?“, die auf ARTE in der Reihe „42 – Die Antwort auf fast alles“ am 19. Februar 2022 ausgestrahlt und von Nora Tschirner eingesprochen wurde. Es geht um soziale Roboter wie Sexroboter und um Vor- und Nebenformen wie Liebespuppen, zudem um andere Formen sozialer Roboter. Zu Wort kommen Prof. Dr. Peter Robinson, Computerwissenschaftler an der University of Cambridge, Dr. Hooman Samani, Robotiker an der University of Plymouth, Prof. Dr. Martin Fischer, Kognitionspsychologe an der Universität Potsdam, Prof. Dr. Catrin Misselhorn, Philosophin an der Universität Göttingen, und Prof. Dr. Oliver Bendel, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Er forscht seit fast 25 Jahren zu Conversational Agents und sozialen Robotern. 2020 hat er das Buch „Maschinenliebe“ herausgegeben, 2021 das Buch „Soziale Roboter“ … Weitere Informationen zur Sendung über www.ndr.de/fernsehen/42-Die-Antwort-auf-fast-alles,sendung1359076.html.
Abb.: Oliver Bendel bei ARTE mit Data (Foto: ARTE)