Schlagworte: Moral der Maschinen

Maschinelle Moral im aktuellen P.M. Magazin

In der Februarausgabe von P.M. Magazin ist ein langes Interview mit Oliver Bendel abgedruckt. Am 9. September trafen sich der Redakteur Rüdiger Barth und der Wissenschaftler auf dem Campus Brugg-Windisch der FHNW und sprachen über Maschinenethik, Künstliche Intelligenz und Robotik. P.M. ist eine populärwissenschaftliche Zeitschrift und hat eine Auflage von ca. 163.000 Exemplaren. Der Titel des sechsseitigen Beitrags – neben dem Interview finden sich noch Informationen zu Oliver Bendel und zu den Robotikgesetzen von Isaac Asimov – lautet “Ich würde das Auto ein bisschen dumm lassen”. Der Informationsethiker und Maschinenethiker kann sich vorstellen, dass Autos klug genug sind, für bestimmte Tiere zu bremsen, wenn die Luft rein ist, sie aber zu dumm dafür sind, Menschen zu qualifizieren, auf ihre Eigenschaften zu schauen, um sie dann bei einem Unfall zu verschonen oder nicht zu verschonen, was man wiederum als klug bezeichnen könnte, da es keine befriedigenden Lösungen für solche Entscheidungen gibt. Auch das Quantifizieren ist, zumindest bei kleinen Zahlen, nicht angemessen. Warum sollte jemand getötet werden, nur weil zwei Passanten in der Nähe stehen? Kaum jemand würde das akzeptieren, der Betroffene nicht, die Familie nicht, die Freunde nicht. Die zwei Passanten wären natürlich aufgeschlossener für solche Abwägungen, aber auch nur, wenn sie zusammen unterwegs sind und nicht alleine, was wiederum die Ungerechtigkeit zeigt. Solche Gedankenspiele dürfen nicht mit der Wirklichkeit verwechselt werden. Sie sind aber ein klassisches Mittel, um Grundannahmen und Widersprüche zu erkennen und am Ende die Wirklichkeit auch gestalten zu können.

Abb.: Künstliche Intelligenz und maschinelle Moral

Neuerscheinung zur Moral in der Maschine

Die Maschinenethik hat die Moral von Maschinen zum Gegenstand. Die meisten ihrer Vertreter und Anhänger sitzen in den USA, doch auch in Europa wächst das Interesse am Thema. Philosophen, Robotiker oder Experten für Künstliche Intelligenz stellen sich Fragen dieser Art: Können Maschinen gut oder böse sein? Kann man von einer Moral der Maschinen sprechen? Verwendet man Regeln oder Fälle? Hat die Maschinenethik eine Existenzberechtigung? Ist sie Konkurrenz oder Pendant zur Menschenethik? Letzten Endes geht es darum, ob bzw. wie man (teil-)autonomen Systemen so etwas wie Moral beibringen kann. Untersucht und erweitert werden unter anderem Chatbots, Serviceroboter, autonome Drohnen, ob zivil oder militärisch genutzt, und selbstständig fahrende Autos. Im Telepolis-Buch “Die Moral in der Maschine” (Heise Medien), erschienen im Februar 2016, finden sich (populär-)wissenschaftliche und journalistische Beiträge von Oliver Bendel aus den Jahren 2012 bis 2016 zur Roboterethik und zur Maschinenethik. Sie sind in ganz unterschiedlichen schweizerischen und deutschen Zeitungen und Zeitschriften sowie auf einschlägigen Plattformen erschienen und widmen sich technischen Implementierungen, vor allem aber philosophischen Implikationen.

Abb.: Auch das Trolley-Problem kommt im Buch vor, als Roboterauto-Problem

Einladung zum FESTIVAL DE ROBOTIQUE

EPFL und NCCR Robotics laden am 20. April 2013 zum sechsten Mal zum FESTIVAL DE ROBOTIQUE ein. Das Motto lautet “Dans les étoiles!” – eine Hommage an die Roboter und den Weltraum. Mit Spannung werden die Veranstaltungen “Coupe Roberta 2013″ und “Grand Concours Robopoly” erwartet. Und die bunten, hübschen Astropoden, die laut Website von den Sternen kommen und sich wackelnd vorwärts bewegen. Nach ihrer Reise durch das Universum und fern der Heimat werden sich diese Roboter, so die Annahme der Veranstalter, einsam fühlen. Die Besucher sollen ihnen deshalb ein neues Zuhause bauen, mit Hindernissen, Durchgängen und Tunneln. Man wird sehen, wie sich die Astropoden dort zurechtfinden. Neben ihnen gibt es weitere faszinierende Roboter, mit denen man kommunizieren und interagieren kann. Dabei kann man sie auch in moralischer Hinsicht auf die Probe stellen und überprüfen, ob sie Anforderungen genügen, wie sie in der Maschinenethik formuliert werden. Das Festival findet an der École polytechnique fédérale de Lausanne EPFL in Lausanne statt. Weitere Informationen über festivalrobotique.epfl.ch.

Abb.: Astropoden (Quelle: festivalrobotique.epfl.ch/astropodes; mit freundlicher Genehmigung des EPFL)

Auf dem Weg zu einer Maschinenethik

Am 15. März 2013 trug Oliver Bendel bei der European TA Conference (PACITA Conference) in Prag zur Maschinenethik vor, im Rahmen der Session Ethical Aspects of TA, die auf der Website wie folgt beschrieben wird: “Which ethical dilemmas are evident in selecting technologies? This session dares a tour d’horizon of ethical expertise and TA and focuses on ethical questions in selecting health technologies, on autonomous machines tested as agents or robots, on conditions for gaining acceptance of technological development and on social sustainability.” Insgesamt waren vier Vorträge vorgesehen, von denen drei gehalten wurden: Dr. Miriam Ines Siebzehner referierte zu “Ethical dilemmas in selecting health-care technologies in Israel”, Prof. Dr. Oliver Bendel zu “Towards a Machine Ethics”, Dr. Petr Machleidt zu “Technology assessment as applied ethics of technology in the Czech Republic”. Die Folien zu den Vorträgen sind seit Ende März 2013 über pacita.strast.cz/en/conference/programme/xvii-ethical-aspects-of-ta erhältlich. Oliver Bendel leitete mit folgenden Worten ein: “In this presentation the young field of machine ethics is explored. Technology assessment (TA) is concerned with the consequences of technical developments, and some of its topics have moral dimensions. It could be valuable for TA to keep an eye on machine ethics. The main question of this presentation is whether and how it is possible to implement morality into autonomous machines.” Er definierte die Maschinenethik, strukturierte ihr Anwendungsfeld, erklärte, welche normativen Modelle sich besonders gut für eine Implementierung eignen, und widmete sich technischen Details, zu denen Dr. Gwendolin Wilke, eine Expertin für Fuzzylogik, beigetragen hatte. Oliver Bendel schloss mit folgender Einschätzung: “The speaker is sceptical about the possibility of implementing a moral code in a machine in a satisfactory manner. Moreover, the requirements of machine processing could be different from system to system (and even from situation to situation), and an approach which works well in one environment can fail in another. However, there will be substantial interest from the fields of industry and military that would like to bring their solutions into the market respectively to the areas of conflict, and, in a different sense, of philosophy to solve some of the central questions. To say it from the philosophical point of view: Machine ethics will be the touchstone of ethics in general.”

Towards a Machine Ethics

Am 15. März 2013 trägt Oliver Bendel bei der European TA Conference in Prag zum Thema “Towards a Machine Ethics” vor. Das Abstract, das im Frühjahr im Tagungsband veröffentlicht wird, hebt mit den Worten an: “There is an increasing use of autonomous machines such as agents, chatbots, algorithmic trading computers, robots of different stripes and unmanned ground or air vehicles. They populate the modern world like legendary figures and artificial creatures in Greek mythology – with the main difference being that they are real in the narrow sense of the word. Some are only partially autonomous (acting under human command) while others are completely autonomous within their area of action. A genuinely autonomous machine should be able to act in a moral way, able to make decisions that are good for humans, animals and the environment. But what does it mean for machines to behave morally? Should they learn moral rules? Should they evaluate the consequences of their acts? Or should they become a virtuous character, following Aristotle? How is it possible to implement the classical normative models of ethics and is there a need for new ones?” Der erste, zweite und dritte Abschnitt des Beitrags wird knapp zusammengefasst; dann wird auf den vierten eingegangen: “Fourthly, the paper tries to answer the question if and how it is possible to implement the classical normative models of ethics and which models should be preferred. Seven important normative approaches are described and estimated relating to their suitability for machine processing. Then the focus shifts to duty-based ethics, ethics of responsibility and virtue ethics that seem to be serious candidates. With a short technical analysis it can be shown that they fit to machine processing, apart from some limitations. The most promising approach may be the combination of the selected normative models. It is not only similar in the ‘normal’ human ethics, but also an opportunity to balance out weaknesses of the autonomous machines and to allow them alternatives. In addition, other methods like orientation on reference persons and social media evaluation could be used.” Am Ende werden Wichtigkeit und Schwierigkeit des jungen Forschungsgebiets der Maschinenethik gleichermaßen betont und persönliche und allgemeine Einschätzungen gegeben.

Die Moral der Maschinen

“Ein schöner Tag im Sommer 2015. Der New Autonomous Car, kurz NAC genannt, fährt die Strasse am Fluss entlang. Mit seiner elegant geschwungenen Schnauze, die fast ein Schnabel ist, ist er ein Augenschmaus. Die Ente am gegenüberliegenden Ufer wirkt aufgeregt. Am nicht vorhandenen Steuer sitzt die junge Nobelpreisträgerin Kim. Ein bisschen schneller, sagt sie zu NAC, der das als Eingriff in seine Autonomie empfindet. Beleidigt erhöht er trotzdem das Tempo.” So fängt eine Geschichte an, die einen Artikel von Oliver Bendel zur Maschinenethik einleitet. Die Maschinenethik hat die Moral von Maschinen zum Gegenstand, etwa von Agenten, Robotern und Drohnen und überhaupt von autonomen Systemen. Sie kann als Teilbereichsethik innerhalb von Informationsethik und Technikethik eingeordnet werden. Am Ende (bzw. am Anfang) muss jemand sterben. Wer das ist und was dazu führt, ist seit dem 24. Oktober 2012 in der Schweizer Online-Zeitschrift inside-it.ch nachzulesen.