Beim „Digital Ethics Summit“ am 14. September 2023 in Düsseldorf – keine Fachtagung, sondern eine populärwissenschaftliche und mediengetriebene Veranstaltung – trat u.a. der Germanist und Philosoph Richard David Precht auf. Er wird seitdem mit dem Satz „Wir verzeihen Maschinen nicht, was wir Menschen verzeihen müssen.“ zitiert. Dieser Gedanke tritt allerdings im Zusammenhang mit dem autonomen Fahren und in anderen Zusammenhängen seit über zehn Jahren in unterschiedlichen Varianten auf. Die Süddeutsche Zeitung zitiert den Rechtswissenschaftler Eric Hilgendorf im Mai 2012 mit den Worten „Menschen verzeiht man Fehler, Robotern nicht“. In einem Interview mit dem Informations- und Maschinenethiker Oliver Bendel aus dem Jahre 2016, ausgehend von humanoiden Robotern mit hoheitlichen Aufgaben, heißt es: „Eine Möglichkeit ist, dass die Maschinen eines Tages so verlässlich und intelligent werden, dass wir ihnen vertrauen. Eine andere Möglichkeit ist, dass sie wie wir Fehler machen, wir ihnen diese Fehler aber nicht verzeihen, nicht verzeihen können, weil es eben Maschinen sind.“ Im Artikel „Cloud am Steuer“ von 2014 wird er mit Blick auf autonome Autos mit den Worten zitiert: „Vielleicht würden die Menschen den Maschinen dann irgendwann auch mehr erlauben – und mehr verzeihen.“ In Artikeln und Interviews wies Oliver Bendel immer wieder darauf hin, dass man Menschen eher verzeiht als Maschinen und dass dies Folgen hat für die Akzeptanz des autonomen Fahrens, bei dem zwangsläufig Unfälle passieren. Eigentlich stammt die Diskussion aber aus den 1970er- und 1980er-Jahren. In seinem zweiten Studium in den 1990ern hat Oliver Bendel in einer Arbeit zur Informationsethik u.a. William Bechtel zitiert: „If we accept this result that some computers could be held responsible for their decisions if they were adaptable systems that learned to behave in particular ways in their environment, there will be conditions under which we will forgive them and not hold them responsible. These would be much the same as the circumstances under which we would cease to hold humans responsible.“ Schon damals hat sich Oliver Bendel dagegen verwahrt, dass Computer, KI-Systeme und Roboter Verantwortung übernehmen können.
Der Beitrag zum Thema „Darf man Maschinen wehtun?“ (alternativer Titel: „Dürfen wir Maschinen verletzen?“) läuft am 15. Juni 2023 ab 19.05 Uhr bei Deutschlandfunk Kultur. Für das Hintergrundgespräch stand Prof. Dr. Oliver Bendel zur Verfügung. Er wird auch zweimal in dem Beitrag zitiert. Der Technikphilosoph streicht gerne heraus, dass KI-Systeme und Roboter Meister im Simulieren sind. Sie simulieren Intelligenz, Moral und Bewusstsein. Zugleich ist ihm wichtig, auf den tiefen Graben zwischen Menschen und Maschinen hinzuweisen. Er besteht darin, dass diese nicht empfinden und leiden können, dass sie keine echte Moral (zu der ein freier Willen gehört) und kein echtes Bewusstsein (zu dem eine Haltung zur Welt oder zum Ich gehört, die oft mit Überraschung, Freude und Angst einhergeht) haben. Da sie nicht empfinden und leiden können, kann man ihnen nicht wehtun. Und man darf ihnen auch in einem bestimmten Sinne wehtun, d.h. man kann mit ihnen im Prinzip machen, was man will, ohne Rücksicht auf sie als moralische Objekte (die sie nicht sind). Moralische Objekte können natürlich die Besitzer oder Benutzer der KI-Systeme und Roboter sein. Deshalb sollte man nicht unbedingt einen sozialen Roboter vor den Augen seines Besitzers oder Benutzers zerlegen, so wenig wie man einen Teddybären vor den Augen des Jungen oder Mädchens zerlegen sollte, dessen Spielkamerad er ist. Oliver Bendel ist wichtig, dass Maschinen keine Rechte haben können, auch keine Würde. Werte kann man ihnen zuschreiben. Schon Pflanzen sind Maschinen in dieser Hinsicht voraus. Die Bundesverfassung der Schweiz „verlangt, im Umgang mit Tieren, Pflanzen und anderen Organismen der Würde der Kreatur Rechnung zu tragen“ (Website BAFU). Der Technikphilosoph hält diese Verfassungsnorm für einen rechtlichen und zivilisatorischen Fortschritt. Er ist dafür, sich weiter für Pflanzen und Tiere einzusetzen, nicht für Maschinen, so sehr er sich mit diesen verbunden fühlt. Das Programm des Senders kann über www.deutschlandfunkkultur.de/programm aufgerufen werden.
In der c’t 11/2023 ist der Artikel „Virtuelle Freunde? KI-Chatbots leisten Gesellschaft und wecken einseitige Gefühle“ erschienen. Arne Grävemeyer geht auf fünf Seiten auf das Thema ein. Befragt hat er dazu Prof. Dr. Oliver Bendel. Eine Frage war, ob solche Programme und Figuren – die Emotionen zeigen (ohne sie zu haben) und hervorrufen – sich als solche offenbaren sollten. Seine Antwort: „Aus ethischer Sicht würde ich das fordern. Man sollte wissen, ob man mit Menschen oder Maschinen kommuniziert. Unsere eigenen Emotionen sind ein wertvolles Gut. Wir entwickeln sie fast automatisch, wenn wir auf menschenähnliche Entitäten stoßen. Wir haben aber die Möglichkeit, die Emotionen zu begrenzen, wenn wir wissen, dass es sich um Programme und Maschinen handelt. Dazu gehört, dass wir diese abstellen und nicht ständig an sie denken, wenn sie nicht bei uns sind. Auch unsere Zeit ist ein kostbares Gut. Wir sollten selbst entscheiden, mit wem oder was wir sie verbringen.“ (c’t, 11/2023) Insgesamt wurden schriftlich und telefonisch etliche Fragen gestellt. Einige Antworten sind in den Artikel eingeflossen, der seit 5. Mai 2023 erhältlich ist.
„Inspirierend anders“, der Podcast von Luca Beutel, geht in die Forschung. Für die ersten beiden Folgen hat der Mann mit dem Schnäuzer mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die erste Folge, ausgestrahlt seit dem 2. Mai 2023, heißt „#165 IAF – Die ultimative Maschine: Wie Robotik die Grenzen der Menschheit erweitert“. Oliver Bendel stellt darin die Grundlagen der Robotik dar und bringt diese in einen Zusammenhang mit der Künstlichen Intelligenz (KI). Ursprünglich wurden deren Gegenstände zusammengedacht. Dann haben sie sich aber getrennt entwickelt. Nun wachsen Roboter und KI-Systeme immer mehr zusammen. Eine Woche später erscheint die zweite Folge mit dem Titel „#167 IAF – Menschliche Bedürfnisse, robotische Lösungen: Die Zukunft der menschenähnlichen Roboter“. Darin geht es u.a. um ethische und ästhetische Fragen, die sich zu sozialen Robotern wie Pflegerobotern und Sexrobotern stellen. Die erste Folge kann u.a. über Spotify aufgerufen werden.
Abb.: Oliver Bendel am Campus Brugg-Windisch (Foto: Dominic Büttner)
„Oliver Bendel antwortet im März auf eine Interviewanfrage aus San Francisco. Der Informationsethiker ist auf dem Weg an ein Symposium, wo er über Umarmungsroboter und Barroboter referieren wird. Vor einigen Jahren hat er an derselben Veranstaltung der renommierten Association for the Advancement of Artificial Intelligence (AAAI) annotierte Entscheidungsbäume für moralische Maschinen vorgestellt. Wenn sich Bendel nicht gerade auf einer seiner vielen wissenschaftlichen Reisen befindet, forscht er in beschaulicher Umgebung: Seit 2009 bekleidet der 55-Jährige eine Professur für Informationsethik, Maschinenethik und Soziale Robotik an der Fachhochschule Nordwestschweiz (FHNW) in Brugg-Windisch.“ (Inside IT, 24. April 2023) Mit diesen Worten beginnt ein Artikel von Thomas Schwandener, der am 24. April 2023 in Inside IT erschienen ist. Weiter heißt es: „In seiner Arbeit geht es um das Zusammenleben von sozialen Robotern und Menschen, um die Potenziale künstlicher Intelligenz, aber auch um ethische Folgefragen. Bendel ist eine Autorität auf seinem Gebiet. Er hat mehrere Standardwerke verfasst, spricht an internationalen Fachtagungen und trat mehrfach vor dem Deutschen Bundestag als Sachverständiger auf.“ (Inside IT, 24. April 2023) Es folgt ein längeres Interview, das am Rande der Shift geführt wurde. Darin weist der Informations- und Maschinenethiker auf die tiefe Kluft zwischen Menschen und Maschinen hin. Der ganze Artikel kann hier aufgerufen werden.
Abb.: Oliver Bendel bei der Shift (Foto: Shift/Louis Rafael)
Im Schweizer Monat (Ausgabe Juli/August 2022) erklärt Oliver Bendel, warum Maschinen keine Verantwortung im moralischen Sinne tragen können. Er geht vom Begriff der Verantwortung aus und auf Roboter und KI-Systeme ein und schreibt dann: „Wenn Verantwortung im definierten Sinne verstanden wird, können Maschinen keine Verantwortung tragen – nicht einmal autonome Maschinen, die sozusagen die technische Krone der menschlichen Schöpfung sind. Autonome Systeme können insbesondere nicht die Folgen ihres Tuns auf sich nehmen. Dies hängt damit zusammen, dass sie eben kein Bewusstsein, keine Einsichtsfähigkeit und keinen freien Willen haben. Übrigens können sie genauso wenig – anders als Tiere – moralische Rechte haben, wobei hier vor allem mit Empfindungs- und Leidensfähigkeit argumentiert wird.“ Die anderen Beiträge im Heft stammen von Konstantin Beck, Judith Bellaiche, Yannick Blättler, Christine Brand, Beat Brechbühl, Gerold Bührer, Baschi Dürr, Alexander Fink, Heinrich Fischer, Ronnie Grob, Allan Guggenbühl, Monika Hausammann, Ayaan Hirsi Ali, Melanie Häner, Alexandra Janssen, Joel Kotkin, Lukas Leuzinger, Christoph Luchsinger, Thomas Minder, Douglas Murray, Daniel Niklaus, Ahoi Polloi, Nicole Ruggle, Urs W. Schoettli, Anja Nora Schulthess, Thomas Sevcik, Michael Shellenberger, Vojin Saša Vukadinović und Tamara Wernli. Weitere Informationen sind über schweizermonat.ch/issue/ausgabe-1098-juli-august-2022/ erhältlich.
Abb.: Oliver Bendel mit Alpha Mini (Foto: Sara Zarubica)
„Automaten gibt es seit tausenden Jahren, von den dampfbetriebenen Altären der Antike über die Androiden im Spätbarock (Musikerin, Schreiber und Zeichner) bis hin zu modernen Maschinen. Eine Sonderstellung haben die Automaten von Leonardo da Vinci inne. Es handelt sich mehrheitlich um Skizzen und Entwürfe, die teilweise Jahrhunderte später erfolgreich umgesetzt wurden. Auf den Maler und Ingenieur geht etwa ein Fahrzeug zurück, das weniger an ein Roboterauto (das Personen transportiert), sondern eher an ein Spielzeugauto erinnert.“ So beginnt ein Beitrag von Oliver Bendel für das Gabler Wirtschaftslexikon. Es werden Beispiele gegeben und Abgrenzungen – wie zu Robotern – vorgenommen. Am Ende kommt die Ethik zu Wort: „Wirtschafts-, Technik- und Informationsethik widmen sich den Herausforderungen, die sich durch Automaten und Automation ergeben, sei es in Bezug auf die Ersetzung von Mitarbeitern, sei es in Bezug auf die Möglichkeit der Gefährdung, Verletzung und Überwachung. Die genannten Bereichsethiken betrachten ebenso den Beitrag von Automaten und Automation zu einem guten Leben, nicht zuletzt vor dem Hintergrund, dass Arbeit idealisiert und ideologisiert wird.“ Der Beitrag ist im Januar 2019 erschienen und kann über wirtschaftslexikon.gabler.de/definition/automat-119939 aufgerufen werden.
Abb.: Ein Blumenautomat am Kona International Airport
Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: „Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.“ Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.
„Seit es Autos gibt, werden sie besungen.“ Mit diesen Worten beginnt ein Artikel von Oliver Bendel, der am 31. Januar 2016 in der Zeitschrift SenLine erschienen ist. „Mercedes Benz“ von Janis Joplin sei einer breiten Öffentlichkeit bekannt, „Wir fahren Manta, Manta“ von den Ärzten eingeweihten Kreisen. Aus den Werken von Chuck Berry ließe sich, so der Verfasser, ein Soundtrack für die Straße mischen. Die Berliner Band 2raumwohnung habe 2004 das Album „Es wird Morgen“ veröffentlicht, mit dem wenig beachteten Lied „Jemand fährt“. „Das war ein paar Jahre nach dem ersten iPod und ein paar vor dem ersten iPhone. Vom Google-Auto hat noch niemand gesprochen.“ In einer Strophe heißt es: „Alles, was klingt, ist Musik./Es singen die Maschinen/auf der stark befahrenen Autobahn/oder auf geraden Schienen.“ Der Artikel in SenLine kann hier kostenlos heruntergeladen werden. Für die Zeitschrift, die Prof. Dr. Helmut Bachmaier herausgibt, haben schon Prof. Dr. Ernst Peter Fischer und Prof. em. Dr. Helmut Weidhase geschrieben.
EPFL und NCCR Robotics laden am 20. April 2013 zum sechsten Mal zum FESTIVAL DE ROBOTIQUE ein. Das Motto lautet „Dans les étoiles!“ – eine Hommage an die Roboter und den Weltraum. Mit Spannung werden die Veranstaltungen „Coupe Roberta 2013“ und „Grand Concours Robopoly“ erwartet. Und die bunten, hübschen Astropoden, die laut Website von den Sternen kommen und sich wackelnd vorwärts bewegen. Nach ihrer Reise durch das Universum und fern der Heimat werden sich diese Roboter, so die Annahme der Veranstalter, einsam fühlen. Die Besucher sollen ihnen deshalb ein neues Zuhause bauen, mit Hindernissen, Durchgängen und Tunneln. Man wird sehen, wie sich die Astropoden dort zurechtfinden. Neben ihnen gibt es weitere faszinierende Roboter, mit denen man kommunizieren und interagieren kann. Dabei kann man sie auch in moralischer Hinsicht auf die Probe stellen und überprüfen, ob sie Anforderungen genügen, wie sie in der Maschinenethik formuliert werden. Das Festival findet an der École polytechnique fédérale de Lausanne EPFL in Lausanne statt. Weitere Informationen über festivalrobotique.epfl.ch (Link nicht mehr gültig).
Am 15. März 2013 trug Oliver Bendel bei der European TA Conference (PACITA Conference) in Prag zur Maschinenethik vor, im Rahmen der Session Ethical Aspects of TA, die auf der Website wie folgt beschrieben wird: „Which ethical dilemmas are evident in selecting technologies? This session dares a tour d’horizon of ethical expertise and TA and focuses on ethical questions in selecting health technologies, on autonomous machines tested as agents or robots, on conditions for gaining acceptance of technological development and on social sustainability.“ Insgesamt waren vier Vorträge vorgesehen, von denen drei gehalten wurden: Dr. Miriam Ines Siebzehner referierte zu „Ethical dilemmas in selecting health-care technologies in Israel“, Prof. Dr. Oliver Bendel zu „Towards a Machine Ethics“, Dr. Petr Machleidt zu „Technology assessment as applied ethics of technology in the Czech Republic“. Die Folien zu den Vorträgen sind seit Ende März 2013 über pacita.strast.cz/en/conference/programme/xvii-ethical-aspects-of-ta erhältlich. Oliver Bendel leitete mit folgenden Worten ein: „In this presentation the young field of machine ethics is explored. Technology assessment (TA) is concerned with the consequences of technical developments, and some of its topics have moral dimensions. It could be valuable for TA to keep an eye on machine ethics. The main question of this presentation is whether and how it is possible to implement morality into autonomous machines.“ Er definierte die Maschinenethik, strukturierte ihr Anwendungsfeld, erklärte, welche normativen Modelle sich besonders gut für eine Implementierung eignen, und widmete sich technischen Details, zu denen Dr. Gwendolin Wilke, eine Expertin für Fuzzylogik, beigetragen hatte. Oliver Bendel schloss mit folgender Einschätzung: „The speaker is sceptical about the possibility of implementing a moral code in a machine in a satisfactory manner. Moreover, the requirements of machine processing could be different from system to system (and even from situation to situation), and an approach which works well in one environment can fail in another. However, there will be substantial interest from the fields of industry and military that would like to bring their solutions into the market respectively to the areas of conflict, and, in a different sense, of philosophy to solve some of the central questions. To say it from the philosophical point of view: Machine ethics will be the touchstone of ethics in general.“
Abb.: Oliver Bendel in Prag (Foto: Stefanie Hauske)
Michael Anderson und Susan Leigh Anderson gehen als Herausgeber des 2011 in der Cambridge University Press erschienenen Buchs „Machine Ethics“ der Frage nach, ob und wie autonome Systeme in moralischer Weise „handeln“ sollen und können. Schon vor Jahrzehnten hat man in Literatur und Wissenschaft über diese Frage nachgedacht; aber eine entsprechende Disziplin ist erst in den letzten Jahren entstanden. Offensichtlich wird die Notwendigkeit gesehen, das „Verhalten“ von Maschinen im Kontext der Moral zu reflektieren und Philosophen (vor allem Ethiker) und Vertreter der Künstlichen Intelligenz darüber nachdenken zu lassen. In der Einführung heißt es: „The subject of this book is a new field of research: Developing ethics for machines, in contrast to developing ethics for human beings who use machines.“ Wir benutzen Maschinen, und Maschinen benutzen uns. Wie sollen die Maschinen mit uns umgehen, und wie sollen sie sich entscheiden in Situationen, in denen wir in unserer Identität und in unserer Existenz bedroht werden? Die Beiträge enthalten bemerkenswerte Vorschläge und verdienen eine aufmerksame Lektüre.
In einem Interview mit dem Institut für Wirtschaftsinformatik (Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz FHNW) vom 13. November 2012 erklärt der Philosoph und Wirtschaftsinformatiker Oliver Bendel „den Begriff der Maschinenethik, in welchem Kontext diese entstanden ist und wozu wir sie brauchen“ (IWI-Blog). Nathalie Baumann, die zum Team des IWI gehört und auch journalistisch tätig ist, steigt ein mit der Frage: „Oliver Bendel, fahren Sie Ihr Auto noch oder fährt Ihr Auto Sie? Oder anders gefragt: Wie intelligent ist Ihr Auto?“ Nicht nur um das selbständig fahrende Auto geht es, sondern auch um Agenten, Roboter und Drohnen. Intensiv wird erörtert, inwieweit eine Maschine ein Subjekt oder ein Objekt der Moral und der Ethik sein kann. Am Schluss wird noch ein Blick auf Japan geworfen, wo faszinierende humanoide Roboter gebaut werden. Das Interview ist nachzulesen über blogs.fhnw.ch/iwi/ (Link nicht mehr gültig).
Abb.: Vorlesung an der FHNW (Foto: Gataric Fotografie)
Im Gabler Wirtschaftslexikon wird seit 28. August 2012 auch die Maschinenethik definiert. Diese wird der Informationsethik zugeordnet und ins Verhältnis zur „Menschenethik“ gesetzt. Es geht unter anderem um die Frage, ob und wie autonome Maschinen – etwa Agenten, Roboter und Drohnen – in moralischer Weise handeln sollen und können. Schon vor Jahrzehnten hat man in Wissenschaft und Literatur über diese Frage nachgedacht; aber eine entsprechende „Teilbereichsethik“ (als Teil der Bereichsethik der Informationsethik) ist erst in den letzten Jahren entstanden. Offensichtlich wird die Notwendigkeit gesehen, das Verhalten von Maschinen in den Kontext der Moral zu stellen und Ethiker und Vertreter der Künstlichen Intelligenz (sowie Informatiker und Wirtschaftsinformatiker) darüber nachdenken zu lassen. Oliver Bendel definiert in seinem Beitrag den Begriff der Maschinenethik, diskutiert die Eignung normativer Modelle an, stellt wichtige Anwendungsbereiche dar und betont die hohe Relevanz der Teilbereichsethik. Der Beitrag ist direkt über wirtschaftslexikon.gabler.de/Definition/maschinenethik.html abrufbar. Er wurde dem Sachgebiet „Grundlagen der VWL“ zugewiesen. Für das Gabler Wirtschaftslexikon schreiben nach eigenen Angaben über „150 Experten aus Wissenschaft und Praxis“. Mehr als „25.000 Stichwörter stehen kostenlos“ bereit.
Abb.: Maschinenethik kann als Ingenieursdisziplin betrieben werden