Seit 2010 hat Oliver Bendel mehrere Bände mit Haikus und anderen Gedichten veröffentlicht, wobei meistens das Handy eine wichtige Rolle gespielt hat: Es handelte sich entweder um Handyliteratur wie bei „stöckelnde dinger“ (2010), oder im Buch waren 2D- oder 3D-Codes abgedruckt, die die Gedichte enthielten, wie bei „handyhaiku“ (2010) und „Die Astronautin“ (2020). Im Februar 2023 entstand der Band „Dass es nur Kunst war, verdeckte die Kunst“. Die Haikus sind der Output von ChatGPT, bei wechselndem Input. Sie greifen die Themen der vorangehenden Bände auf, erzählen von Avataren, Hologrammen, Robotern und Astronautinnen. „ChatGPT“ steht für „Generative Pre-trained Transformer“. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, der seit Ende 2022 genutzt werden kann. Die Trainingsdaten stammen aus Foren, Artikeln, Büchern und gesprochener Sprache. Benutzt wird eine Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF) – der Mensch ist also im Spiel. Mit diesem Tool wurden, wie gesagt, die Haikus des Bands produziert. Manchmal wurden zu einem Input mehrere Resultate generiert und dann eines davon ausgewählt. Trotz der präzisen Anweisungen scheint ChatGPT nicht in der Lage zu sein, die Silbenanzahl durchgehend korrekt umzusetzen, übrigens auch nicht dann, wenn man ein Haiku als Vorbild eingegeben hat. Die Inputs und die Outputs, also die Haikus, wurden dann noch in JAB Codes umgewandelt. Der Band wurde am 20. Februar 2023 veröffentlicht und kann hier kostenlos heruntergeladen werden.
BR24 hat sich mit Oliver Bendel – Technikphilosoph, Informationsethiker und Maschinenethiker – über DeepL Write, ChatGPT und andere KI-Anwendungen unterhalten. Bei DeepL Write sieht er das Problem, dass das Unternehmen nicht die offiziellen Rechtschreibregeln befolgt, sondern eigene – oder aus dem Datenmaterial abgeleitete. Auch Microsoft Word hat seit vielen Jahren eine ungeeignete Rechtschreibprüfung, was vermutlich mit der zunehmend genutzten KI zusammenhängt. ChatGPT sieht Oliver Bendel als mächtiges Werkzeug an, das man für allerlei Belange nutzen kann. Hochschulen und Medien müssen freilich darauf reagieren. Studenten und Studentinnen müssen grundsätzlich fremdes geistiges Eigentum markieren und referenzieren – vielleicht gibt es bei ChatGPT kein geistiges Eigentum in diesem Sinne mehr, aber man kann auf jeden Fall sagen, dass es sich nicht um das geistige Eigentum der Anwender handelt. Auch Gesichtserkennung hält Oliver Bendel für eine mächtige Technologie. Man solle die Forschung dazu nicht begrenzen, wohl aber die Anwendung, und Gesichtserkennung zum Zweck der Massenüberwachung verbieten. Er berichtet von einem System, das von ihm und Ali Yürekkirmaz konzipiert wurde und das Gesichtserkennung für Bären in den Alpen vorsieht. Ihr Paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ wird demnächst in den Proceedings der „Ninth International Conference on Animal-Computer Interaction (ACI’22)“ erscheinen. Bei BR24 stehen ein Podcast mit dem Interview von Cosima Weiske mit Oliver Bendel und ein Artikel mit Aussagen von ihm zur Verfügung.
Abb.: Oliver Bendel bei einer Abschlusspräsentation (Foto: Sara Zarubica)
DeepL Write ist ein KI-basiertes Lektorprogramm, das seit 17. Januar 2023 als Betaversion über www.deepl.com/write verfügbar ist, für die deutsche und die englische Sprache. Es wurde nun mit Hilfe einer Rechtschreibtafel geprüft, die Oliver Bendel im Jahre 2015 erstellt und seitdem immer wieder aktualisiert hat. 1. Der Satz „Alkohol in Maßen ist gesund.“ wurde nicht beanstandet. Bei „Herzlich willkommen“ wurde „Willkommen“ vorgeschlagen. Als weitere Alternative zeigte das Tool „Herzlich Willkommen“ an, also eine falsche Schreibweise. 2. „Frühlingserwachen“ wurde nicht beanstandet. Als erste Alternative zu „Social-Media-Konferenz“ wurde „Social Media Konferenz“ vorgeschlagen, also eine falsche Schreibweise. Hier muss zwingend durchgekoppelt werden. Für „Donaudampfschifffahrtsgesellschaftskapitänsmütze“ offerierte DeepL Write solide Optionen wie „Kapitänsmütze der Donaudampfschifffahrtsgesellschaft“. 3. Zu „Wir betreten unser neues Haus, in dem man komfortabel wohnen kann.“ wurden merkwürdige Alternativen wie „Betreten unseres neuen Hauses, in dem es sich gut leben lässt.“ aufgeführt. „Wirksam führen“ wurde als korrekt erkannt, ebenso wie „Lenny und Laura gehen schwimmen.“ (wobei hier die Alternative „Lenny und Laura gehen baden.“ aufgelistet wurde). 4. Der korrekte Plural in „Die erste und die zweite Sturmwarnung wurden missachtet.“ wurde auch Bestandteil der verschiedenen Varianten. 5. „Das gibt’s doch nicht!“ wurde als korrekt erkannt, ebenso wie „Willis Würstchenbude“. Allerdings zeigte das Tool hier als erste Alternative „Willi’s Würstchenbude“ an. Diese Schreibweise lässt der Duden inzwischen zu, was freilich nicht für das Wörterbuch spricht. 6. „Der Chef fragt sie, ob sie zufrieden ist.“ wurde korrekt als Aussagesatz erkannt und nicht zum Fragesatz umformuliert. 7. Bei „Komm, wir essen, Oma!“ lautete eine Alternative „Komm, lass uns essen, Oma!“. Die Oma blieb in allen Fällen unversehrt. 8. „Die Ärzt*innen“ wurde als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Die weibliche Form nennt man bei Begrüßungen zuerst. Das korrekte generische Maskulinum fehlt bei den Vorschlägen ganz. Das Ergebnis des Tests ist, dass DeepL Write in wesentlichen Aspekten versagt, in Bezug auf Groß- und Kleinschreibung, Zusammen- und Getrenntschreibung und die amtlich fixierten Regeln. Es werden zum Teil eigene Regeln angewandt, die zudem nicht transparent dargestellt werden. Damit ist der Nutzen des Tools grundsätzlich in Frage gestellt. „Schreiben Sie klar, präzise und fehlerfrei“, so heißt es auf der Website – das kann man offenbar besser, indem man sich auf sein Sprachgefühl und den Rechtschreibrat verlässt.
„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.
Raffael Schuppisser, stellvertretender Chefredakteur der Aargauer Zeitung, interviewte Prof. Dr. Oliver Bendel zu Chatbots, die auf Machine Learning basieren. Ihn interessierte u.a., warum LaMDA und ChatGPT so unterschiedliche Antworten geben, etwa auf die Frage, ob sie eine Person sind oder ein Bewusstsein haben. Der Informations- und Maschinenethiker erläuterte: „Chatbots dieser Art beruhen auf Sprachmodellen. Dazu gehören GPT-3 (im Falle von ChatGPT) und Language Model for Dialogue Applications (im Falle von LaMDA). Die Sprachmodelle unterscheiden sich voneinander. Zudem werden sie unterschiedlich trainiert. Daher reagieren sie unterschiedlich auf Anfragen. Sie können mit dem Chatbot beliebige Gespräche führen. Er wird immer anders antworten. Er ruft eben nicht einfach Aussagen aus einer Wissensbasis ab, sondern kreiert sie jeweils neu. Es ist möglich, dass man ihn so trainiert hat, dass er abstreitet, eine Person zu sein oder Bewusstsein zu haben. Die Menschen, die ihn trainiert haben, hätten dann solche Antworten für gut und richtig befunden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert. Man kann dieses Vorgehen auch mit einer Wissensbasis kombinieren, etwa wenn es darauf ankommt, dass der Chatbot auf eine Frage hin eine bestimmte Antwort gibt oder dieselbe Aussage wiederholt trifft. So ist es einem Erfinder eines Chatbots vielleicht wichtig, dass die Angaben zu seiner Person immer korrekt und konsistent sind und auch nicht zu viel verraten wird. Wir haben unseren GOODBOT von 2013 immer wieder betonen lassen, dass er nur eine Maschine ist. Das lief allein über die feste Programmierung. Wir haben damals kein maschinelles Lernen benutzt.“ Oliver Bendel führte in weiteren Antworten aus, dass Maschinen kein echtes Bewusstsein haben können und ein solches immer nur simulieren. Am 14. und 15. Dezember 2022 griffen 22 Schweizer Zeitungen die Ausführungen auf, neben der Aargauer Zeitung etwa das St. Galler Tagblatt und die Luzerner Zeitung.
„Eine Künstliche Intelligenz, die nicht nur Arbeiten für uns erledigt, sondern mit der man sich unterhalten kann, mit der man in tiefe Gespräche eintauchen könnte, die nicht nur unsere Handlungen, sondern möglicherweise auch unsere sozialen Kontakte ersetzt, durch Isolation geplagte Menschen vom Gefühl der Einsamkeit befreit, die unseren Nöten und Sorgen zuhört, Ratschläge gibt, verständnisvoll tröstet, die sexuelle Wünsche erfüllt, lässt sich für viele nicht nur auf pragmatischer Ebene denken, sondern wirft ethische Fragen auf, nicht zuletzt die alte Frage nach der Bedeutung – und Ersetzbarkeit – des Individuums, der Humanität.“ (ByteCookie, 26. Oktober 2022) So ist es zu lesen in einem Artikel mit dem Titel „Über Staubsauger und One-Night-Stands“, der am 26. Oktober 2022 auf ByteCookie erschienen ist, einer Plattform für Freelancer. Zu Wort kommen u.a. Olga Levina, Professorin an der TH Brandenburg, Hans-Georg Dederer, Professor an der Universität Passau, und Oliver Bendel, Professor an der Hochschule für Wirtschaft FHNW. Die Plattform kann über www.bytecookie.net aufgerufen werden (es ist ein Login erforderlich).
„Sind Maschinen das Ende der Menschheit?“ So lautet der Titel eines Ende Oktober 2022 erschienenen Dossiers in der Zeitschrift „Der Pragmaticus“. Diese wurde u.a. vom Red-Bull-Chef Dietrich Mateschitz gegründet. Er ist vor kurzem gestorben, und es handelt sich um das erste Dossier, dessen Veröffentlichung er nicht mehr erlebt hat. Darin heißt es: „KI hat unser Leben bereits jetzt in vielerlei Hinsicht unter Kontrolle. Sie lesen diesen Text vielleicht auf einem Smartphone in der U-Bahn, und dank Google Maps wissen Sie schon, ob Sie den Anschlussbus nach Hause erreichen werden. Vielleicht sitzen Sie auch am Schreibtisch, ein desorientierter Staubsaugerroboter fährt schon wieder gegen den Sessel und reißt Sie aus dem Lesefluss, genervt sagen Sie: ‚Alexa, stopp!‘ KI hat es sich längst, oft unbemerkt, in unserem Alltag bequem gemacht, in Form von Smartphones, virtuellen Assistenten oder Saugrobotern.“ Zu Wort kommen u.a. Sepp Hochreiter, Professor für Machine Learning in Linz, und Georg Dorffner, Professor für KI an der Medizinischen Universität in Wien, zudem Oliver Bendel, Professor für Wirtschaftsinformatik und Ethik an der Hochschule für Wirtschaft FHNW. Maschinen sind, so seine Meinung, nicht das Ende der Menschheit, ganz im Gegenteil. Das Dossier kann über www.derpragmaticus.com/d/roboter/ aufgerufen werden.
„Maschinelle Übersetzung (engl. ‚machine translation‘) ist die automatische Übersetzung von einer natürlichen Sprache in eine andere. Sie wird erforscht und entwickelt innerhalb der Künstlichen Intelligenz.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon zur maschinellen Übersetzung von Oliver Bendel, veröffentlicht im März 2022. Eingegangen wird auch auf das Earth Species Project, in dem man die maschinelle Übersetzung zwischen tierischer und menschlicher Sprache anstrebt. „Interessant für erste Versuche sind Wale und Affen und andere Tiere, die Töne zur Verständigung benutzen. Bedenken muss man, dass mit tierischen und menschlichen Sprachen unterschiedliche Weltmodelle verbunden sind.“ Am Ende wird die Perspektive der Ethik eingenommen: „Ungewollte Bedeutungsverschiebungen und ihre Folgen mag man in der Medienethik thematisieren. Die Übersetzung von wissenschaftlichen Texten und Gebrauchstexten wird weitgehend automatisiert, was in der Wirtschaftsethik analysiert werden kann.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/maschinelle-uebersetzung-123753 abgerufen werden.
Abb.: Ein Wörterbuch kann auch bei der Übersetzung helfen
Dual-Use ist ein altbekanntes Problem. Meist ist damit gemeint, dass etwas sowohl zivilen als auch militärischen Zwecken dienen kann. Letztere sind oft nicht im Sinne des Erfinders. Man kann den Begriff weiter fassen und ihn so verstehen, dass nützliche Instrumente und Technologien in den falschen Händen zu schädlichen werden. Das kennt man bereits von Messern und Fahrzeugen, und man kann auch aus vielen hilfreichen Robotern tödliche Waffen machen. Künstliche Intelligenz kann dabei helfen, Krankheiten zu erkennen und zu bekämpfen oder aber Krankheiten – etwa durch biologische Waffen, die von ihr mitentwickelt werden – hervorzurufen. Genau zu diesem Thema befragte der Tages-Anzeiger den Informations- und Maschinenethiker Oliver Bendel. Das Interview erschien am 25. März 2022 in der gedruckten Ausgabe. Es ist auch online abrufbar.
Abb.: KI kann bei der Entwicklung biologischer Waffen helfen
Der Artikel „KI-gestütztes Recruiting – technische Grundlagen, wirtschaftliche Chancen und Risiken sowie ethische und soziale Herausforderungen“ von Gwendolin Wilke und Oliver Bendel ist am 7. März 2022 in der HMD – Praxis der Wirtschaftsinformatik erschienen. Aus dem Abstract: „Bei der Rekrutierung von neuen Mitarbeitern und Mitarbeiterinnen setzen Firmen heute vermehrt auf die Unterstützung durch künstliche Intelligenz (KI). Die technischen Möglichkeiten reichen von Vorauswahlgesprächen mit Chatbots über die automatisierte Auswertung schriftlicher Bewerbungsdossiers hinsichtlich Fachkompetenz und Erfahrung bis hin zur maschinellen Analyse von
Videobewerbungen zur Bewertung von Softskills wie Selbstvertrauen, Enthusiasmus oder Kommunikationsfähigkeit. Auch Lernplattformen werden zur Vorauswahl und Überprüfung eingesetzt. Der Artikel erklärt die technischen Grundlagen und Möglichkeiten des KI-gestützten Recruitings und zeigt wirtschaftliche Chancen und Risiken auf. Ethische und soziale Herausforderungen werden diskutiert und verständliche und umsetzbare Handlungsempfehlungen für Unternehmen unterbreitet, damit sie rechtliche Vorgaben und ethische Richtlinien einhalten und auf Kritik reagieren können.“ Es handelt sich um eine Open-Access-Publikation, die über link.springer.com/article/10.1365/s40702-022-00849-w heruntergeladen werden kann.
Der von Oliver Bendel herausgegebene Springer-Band „Soziale Roboter“ enthält, das Vorwort mitgerechnet, 30 Beiträge führender Expertinnen und Experten. Von Klaus Mainzer stammt die Abhandlung „Soziale Robotik und künstliches Bewusstsein: Technische und philosophische Grundlagen“. Aus dem Abstract: „Die Entstehung natürlichen Bewusstseins ist Gegenstand interdisziplinärer Forschung von Gehirnforschung, Neuro- und Kognitionspsychologie und Philosophie. Eine technische Umsetzung von Bewusstsein in der Robotik setzt eine hochentwickelte KI-Forschung voraus. Voraussetzung ist eine hybride KI, die symbolische KI und subsymbolische KI verbindet: Erkenntnistheoretisch entspricht hybride KI einem ‚hybriden‘ kognitiven System wie dem menschlichen Organismus, in dem die (‚unbewusste‘) Verarbeitung von Wahrnehmungsdaten mit (‚bewusstem‘) logischen Schließen verbunden wird. Hybrider KI werden daher höhere Intelligenzgrade zugesprochen als der Reduktion auf symbolische oder subsymbolische KI, die bereits in technischem Einsatz sind. Humanoide Roboter sind Hybridsysteme im Sinn hybrider KI mit symbolischer Wissensrepräsentation und verhaltensbasiertem Agieren, das die sensorisch-motorische Leiblichkeit und Veränderung von Umweltsituationen berücksichtigt.“ Ein Abschnitt „behandelt die Grundlagen humanoider Robotik im Human Robotics Project (HRP) mit seinen kognitivistisch-funktionalistischen Grundlagen, konnektionistischen Grundlagen bis zu hybriden kognitiven Robotern auf der Grundlage hybrider KI“. „Abschließend geht es … um die Frage, ob künstliches Bewusstsein in Zukunft technisch möglich und sinnvoll ist. Im Zentrum stehen zukünftige Schlüsseltechnologien wie kollektive Intelligenz in Cyberphysical Systems, neue Rechnerstrukturen mit neuromorphen Computern und Quantencomputer.“ Das Buch ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.
Abb.: AAAI 2019 Spring Symposium an der Stanford University zu künstlichem Bewusstsein
Insgesamt 30 Beiträge enthält der von Oliver Bendel herausgegebene Springer-Band „Soziale Roboter“, wenn man das Vorwort mitzählt. Von Felix Lindner stammt die Abhandlung „Soziale Robotik und KI: Wie sich Roboter autonom nach Werten und Normen verhalten können“. Aus dem Abstract: „Während im öffentlichen Diskurs Künstliche Intelligenz und Robotik häufig ganz selbstverständlich zusammengedacht werden, haben sich historisch zwei separate Disziplinen entwickelt: die Künstliche Intelligenz beschäftigt sich mit der Formalisierung und Algorithmisierung von Schlussfolgern und Problemlösen, und die Robotik befasst sich mit der maschinellen Wahrnehmung der Umwelt sowie der autonomen Ausführung von Handlungen. In diesem Kapitel wird die Soziale Robotik als ein Bindeglied zwischen den beiden Disziplinen aufgefasst. Soziale Roboter sind Roboter, die sich nach den Werten und Normen des sozialen Miteinanders richten. Damit dies möglich wird, müssen Verfahren aus der Robotik um eine soziale Dimension erweitert werden. Eine Möglichkeit besteht darin, Techniken aus der Künstlichen Intelligenz zu verwenden, um soziale Werte und Normen explizit zu modellieren. Der Beitrag thematisiert das sogenannte Value-Alignment-Problem in der Künstlichen Intelligenz im Allgemeinen und demonstriert anhand von sozialer Roboter-Navigation im Speziellen, wie Techniken aus der Künstlichen Intelligenz für die Soziale Robotik genutzt werden können, damit Roboter ihre Handlungen nach menschlichen Werten und Normen ausrichten.“ Das Buch ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.
Die Zeitschrift für Berufs- und Wirtschaftspädagogik widmet sich im Sommer 2021 dem Thema „Künstliche Intelligenz in der beruflichen Bildung: Zukunft der Arbeit und Bildung mit intelligenten Maschinen?!“. Herausgegeben wird das Sonderheft von Prof. Dr. Sabine Seufert und ihren Kollegen. In der Verlagsinformation heißt es: „Die Autorinnen und Autoren reflektieren kritisch die Auswirkungen der KI auf die berufliche Bildung. In einem ersten Teil untersuchen sie die Implikationen von KI auf gewerblich-technische Berufe, Industrieberufe, IT-Berufe und Pflegeberufe. In einem zweiten Teil widmen sie sich Forschungsrichtungen zur KI in der Berufsbildung – von der Individualisierung durch Hybrid Intelligence über Learning Analytics, Augmented Reality und Virtual Reality bis zur beruflichen Rehabilitation und Lernortkooperation.“ (Information Franz Steiner Verlag) Der Beitrag von Prof. Dr. Oliver Bendel trägt den Titel „Strukturelle und organisationale Rahmenbedingungen für den Einsatz von Pflegerobotern“. Das Heft kann über elibrary.steiner-verlag.de/book/99.105010/9783515130752 bestellt werden. Eine Leseprobe ist hier erhältlich.
Abb.: P-Care im Pflegeheim (Foto: Daimler und Benz Stiftung)
„KI passt Lippenbewegungen an andere Sprachen an“ – so der Titel eines Artikels von Tobias Költzsch, der am 23. Mai 2021 bei Golem erschienen ist. „Das britische Unternehmen Flawless entwickelt eine auf Deepfake basierende Technologie, mit deren Hilfe synchronisierte Filme realistischer aussehen sollen. Das vom Regisseur Scott Mann mitgegründete Unternehmen will mit Hilfe von künstlicher Intelligenz die Lippenbewegungen von Schauspielern im Nachhinein anpassen, damit sie der synchronisierten Sprache entsprechen.“ (Golem, 23. Mai 2021) Dies wirft zahlreiche Fragen auf. Die Lippen gehören den Schauspielerinnen und Schauspielern, die Bewegungen ihrer Lippen zu ihrem Spiel. Wenn die Lippen nun anders aussehen und sich anders bewegen, könnte das zum einen Persönlichkeitsrechte verletzen, zum anderen die Qualität des Films beeinträchtigen. Insgesamt gibt es ethische, rechtliche und künstlerische Implikationen. Der Raub der Stimme ist schon seit einiger Zeit möglich – nun erfolgt ein „Mundraub“ der neuen Art.
Die Künstliche Intelligenz (KI) hat nach Dekaden des Auf- und Abschwungs im 21. Jahrhundert eine enorme Bedeutung in Forschung und Praxis erlangt. Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) konnten zur gleichen Zeit ihre Begriffe und Methoden in die Öffentlichkeit tragen, wo sie mehr oder weniger gut verstanden wurden. Eine Grafik versucht seit 2018 die Begriffe und Zusammenhänge von Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zu klären. Sie wird ständig weiterentwickelt und dadurch präziser, aber auch komplexer. Seit Anfang 2021 liegt eine neue Version vor. In ihr wird noch deutlicher gemacht, dass die drei Disziplinen bestimmte Fähigkeiten (meist von Menschen) nicht nur abbilden, sondern auch erweitern können.
Manche, die ihren Angehörigen oder ihren Partner verloren haben, lassen ihn mit Hilfe von Technik, Künstlicher Intelligenz und Robotik wiederauferstehen. Die Funke-Mediengruppe hat Oliver Bendel zu diesem Thema befragt. Manche, so seine Auskunft, werden die Toten wiederauferstehen lassen, indem sie deren Sprache oder Stimme verwenden. Es reichen heute nur wenige Minuten der Originalstimme, um Sprachassistenten beliebige Sätze sprechen zu lassen, die ihr täuschend ähnlich sind. Andere werden Avatare erzeugen oder erzeugen lassen, ähnlich wie die Neons. Wieder andere, so der Informations- und Maschinenethiker, werden ihre Toten in Form von humanoiden Robotern bei sich haben. Einrichtungen wie Hanson Robotics und Realbotix in den USA und die Hiroshi Ishiguro Laboratories in Japan können schon heute sehr lebensechte Abbildungen herstellen. Die Aussagen von Oliver Bendel flossen in Beiträge ein, die in zehn Zeitungen und Kanälen erschienen, etwa online im Hamburger Abendblatt.
Chatbots gibt es seit ca. 60 Jahren, wenn man Joseph Weizenbaums Eliza als Startpunkt nimmt. Um die Jahrtausendwende fand ein regelrechter Hype statt. Die Deutsche Bank konnte mit Cor@ auftrumpfen, Artificial Life mit Luci, Roy und Alma. Zu dieser Zeit wurde viel Wert auf den Avatar gelegt – ein Begriff, der von Oliver Bendel im „Lexikon der Wirtschaftsinformatik“ von 2001 definiert wurde. Heute haben Chatbots und Sprachassistenten wieder eine hohe Sichtbarkeit, und sie können mit KI-Systemen aller Art verbunden werden, etwa zur Emotionsanalyse (Sprache und Bild) und zur Textgenerierung über GPT-2 oder GPT-3. Weniger Wert wird erstaunlicherweise auf die Visualisierung gelegt, auf diese Sichtbarkeit im wörtlichen Sinne. Bei Chatbots ist sie in den Hintergrund getreten, bei Sprachassistenten war sie kaum je vorhanden, wenn man von der Gatebox absieht, in der ein Hologram Girl wohnt. Es ist an der Zeit, sich an Cor@ der Deutschen Bank, an Leo von Schweppes und an viele weitere Musterbeispiele zu erinnern, sie mit neueren Konzepten wie den Neons zu verbinden und dem Benutzer zu erlauben, etwas nicht nur zu hören, sondern auch zu sehen. Dies kann wichtig sein, wenn Mimik und Gestik eine Rolle spielen, wenn bei Schwerhörigkeit oder Taubheit von den Lippen abgelesen (oder Gebärdensprache verwendet) werden soll – oder einfach, um ein Erlebnis für alle Sinne zu schaffen. Eine Einführung zu Chatbots ist im Buchbeitrag „Von Cor@ bis Mitsuku“ von Oliver Bendel verfügbar, abgedruckt im „Handbuch Digitale Wirtschaft“ (Hrsg. Tobias Kollmann, Springer 2019).
Abb.: Die Chatbots von Artificial Life im Jahre 2000/2001
Die Mitglieder der Ethikkommissionen der Schweiz sind zu der diesjährigen Weiterbildung mit dem Thema „Künstliche Intelligenz in der Humanforschung – Wissenschaftliche, rechtliche und ethische Herausforderungen“ ins Landesmuseum Zürich eingeladen. Die Veranstaltung wird durchgeführt von swissethics, der Dachorganisation der Kantonalen Ethikkommissionen. Sie wird eröffnet von Prof. Dr. Julia Vogt (ETH Zürich). Ihr Vortrag trägt den Titel „Künstliche Intelligenz: eine wissenschaftliche Herausforderung in der Forschung“. Danach spricht Prof. Dr. med. Adrian Egli (Universitätsspital Basel) über „Herausforderungen künstlicher Intelligenz in der Mikrobiologie“. Nach der Pause geht es um „Apps, Algorithmen und Roboter in der Medizin: Haftungsrechtliche Herausforderungen“ – das Gebiet von Prof. Dr. iur. Corinne Widmer Lüchinger (Universität Basel). Den Abschluss bildet der Vortrag von Prof. Dr. oec. HSG Oliver Bendel (Hochschule für Wirtschaft FHNW) mit dem Titel „Therapie- und Pflegeroboter: Ethische Herausforderungen“. Das Programm kann hier aufgerufen werden. Weitere Informationen über www.swissethics.ch/aus-fortbildung/fuer-ek-mitglieder.
„Wer hat Angst vor der KI?“ Dieser Frage geht Carmen Gräf am 16. Juli 2020 von 22 bis 23 Uhr bei RBB Kultur nach. „Erst lernten die Computer rechnen, dann organisieren, analysieren, sprechen und schließlich – denken. Dank Künstlicher Intelligenz. Nun ist die Forschung dabei, den Computern auch das Fühlen beizubringen. Eine neue Stufe Künstlicher Intelligenz entsteht. Das sorgt für jede Menge Hoffnung und Euphorie, aber auch für Angst und Unbehagen. Wird die Maschine den Menschen überholen oder kann der Mensch die digitalen Potentiale sinnvoll nutzen? Ein Einblick in aktuelle Diskussionen, Forschungen und Anwendungen.“ (Website RBB Kultur) Erwähnt werden auch die Entwicklungen des Informations- und Maschinenethikers Oliver Bendel, konkret der LIEBOT, der systematisch die Unwahrheit sagt, und HAPPY HEDGEHOG, der igelfreundliche Rasenmähroboter. Die Sendung ist ein Jahr lang in der ARD-Mediathek abrufbar. Weitere Informationen sind hier erhältlich.
Kinofenster ist ein Projekt der Bundeszentrale für politische Bildung (bpb). Es wurde 1996 als Printmagazin initiiert. Im Jahre 2000 erfolgte die Umstellung zu einem Onlineangebot. Der aktuelle Schwerpunkt im Juli 2020 widmet sich, ausgehend von dem Film „Hi, AI“, künstlicher Intelligenz und moralischen Maschinen. „Humanoide Roboter sind nicht mehr nur Science Fiction. Im Dokumentarfilm Hi, AI beobachtet Regisseurin Isa Willlinger den Einzug solcher menschenähnlicher Maschinen in unseren Alltag. Begleitend zum Film stellt eine Sequenzanalyse drei Visionen von künstlerischer Intelligenz und ein Hintergrundtext das Motiv des Androiden-Roboters im Kino vor. Zudem sprechen wir mit Kate Darling und Oliver Bendel über Chancen und Gefahren künstlicher Intelligenz.“ (Website Kinofenster) In „Hi, AI“ tritt übrigens Harmony auf, ein bekannter Sexroboter. Er begleitet einen Trucker bei einem Roadtrip durch die USA. Die Interviews und die Materialien sind über www.kinofenster.de abrufbar.
Abb.: Henry, der Bruder von Harmony (Foto: Realbotix)
Immer wieder hört man, oft von Theologen, manchmal von Philosophen, dass Maschinen nicht autonom seien, nicht intelligent, nicht moralisch etc. Sie übertragen den Begriff, den sie aus ihrem Bereich kennen, auf technische Wissenschaften wie Informatik, Künstliche Intelligenz (KI) und Maschinenethik (die technisch geprägt ist und eng mit KI und Robotik zusammenarbeitet). Sie anerkennen nicht, dass jede Disziplin ihre eigenen Begriffe haben kann (und in der Regel hat). Bei einer Tagung im Jahre 2015 beschimpfte Bundestagspräsident Prof. Dr. Norbert Lammert, ein zutiefst religiöser Mann, die Referenten mit den Worten, Maschinen seien nicht autonom, sie hätten sich nämlich nicht selbst ein Gesetz gegeben. Nun sprechen Informatik und Robotik aber nun einmal von autonomen Systemen und Maschinen, und selbstverständlich dürfen sie das, wenn sie darlegen, wie sie das meinen. Eine solche Begriffsklärung und -aneignung steht sogar am Anfang jeder wissenschaftlichen Betätigung, und dass die Begriffe gleich lauten wie die anderer Bereiche, heißt keineswegs, dass sie dasselbe bedeuten und bedeuten müssen. Eine neue Grafik von Prof. Dr. Oliver Bendel, die auf früheren Entwürfen aufbaut, stellt dar, was der Gegenstandsbereich der Disziplinen oder Arbeitsbereiche der KI, der Maschinenethik und des Maschinellen Bewusstseins ist, und macht für sie terminologische Vorschläge. Im Kern geht es diesen darum, etwas in bestimmten Aspekten ab- oder nachzubilden bzw. zu simulieren. So schafft es die Künstliche Intelligenz eben, künstliche Intelligenz hervorzubringen, etwa Dialogsysteme oder Maschinen, die bestimmte Probleme lösen. Ob diese „wirklich“ intelligent sind oder nicht, ist keine sinnvolle Frage, und der Terminus technicus benutzt nicht umsonst das Adjektiv „künstlich“ – hier wäre noch einfacher als im Falle von „autonom“ zu verstehen, dass es sich um eine „neue“ (immerhin seit über 50 Jahren erklärte) Bedeutung handelt.
Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.