Schlagworte: KI

KI und Ethik

In Austin (Texas, USA) finden vom 25. bis 26. Januar 2015 die “Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence (AAAI-15)” statt. Auf der Website werden zum “W01 – AI and Ethics” mediale Aussagen wie “Artificial Intelligence Is Changing the World, and Humankind Must Adapt” und “Physicist Louis Del Monte believes that by 2045 machines will threaten human survival” zitiert. Vor diesem Hintergrund heißt es: “The goal of this workshop is to provide a forum to discuss the ethical questions implicit in such headlines, which go to the centre of the quest to build AI systems with potentially super-human intelligence.” Es werden sowohl informations- und technikethische als auch maschinenethische Bereiche behandelt, z.B. “AI as a threat to or saviour for humanity”, “Safeguards necessary within AI research”, “Autonomous agents in the military”, “Autonomous agents in commerce and other domains” und “Mechanisms to ensure moral behaviours in AI systems”. Weitere Informationen sind über www.aaai.org/Workshops/ws15workshops.php erhältlich.

Der GOODBOT kommt auf die Welt

Viele Benutzer mögen Chatbots auf Websites und unterhalten sich gerne mit ihnen. Dabei spielen Produkte und Dienstleistungen meist eine untergeordnete Rolle. Man will das virtuelle Gegenüber ausfragen, mit ihm flirten, es necken und reizen. Wenn man in Schwierigkeiten steckt, will man eine Antwort erhalten, die einen nicht noch mehr entmutigt und verstört. Die meisten Bots sind in dieser Hinsicht völlig überfordert. Auf Selbstmorddrohungen oder Ankündigungen von Amokläufen reagieren sie inadäquat. In einem Projekt an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW wird unter der Leitung von Oliver Bendel eine moralische Maschine besonderer Art, nämlich ein sogenannter GOODBOT, konzipiert und prototypisch implementiert. Zunächst werden theoretische Grundlagen im Kontext der Maschinenethik erarbeitet. Es interessiert unter anderem, welche normativen Modelle maschinell verarbeitbar sind. Dann werden ausgewählte Chatbots auf Websites sowie Sprachassistenten wie Siri analysiert und verglichen sowie Erkenntnisse zu Systemen solcher Art gewonnen. Ein vorhandener Regelkatalog soll daraufhin überprüft werden, ob er in einem regelbasierten System umgesetzt bzw. wie er angepasst werden kann. Nicht nur Top-down-, sondern auch Bottom-up-Ansätze sollen erwogen werden. Zudem ist relevant, inwieweit soziale Medien und leibhaftige Menschen moralische Referenzpunkte bilden können. Das Projekt hat im Juni 2013 begonnen. Informationen zum Initiator und Projektleiter über www.fhnw.ch/personen/oliver-bendel.

Abb.: Ein Chatbot, der als “bad bot” bezeichnet werden könnte

Neue Plattform zur Maschinenethik

Die Plattform maschinenethik.net wurde im Frühjahr 2013 gegründet und ist der Maschinenethik und speziell auch der Roboterethik und der Algorithmenethik gewidmet. Im Glossar zur Informationsethik von Oliver Bendel heißt es: “Die Maschinenethik (‘Machine Ethics’) hat die Moral von Maschinen zum Gegenstand, vor allem von (teil-)autonomen Systemen wie Agenten, Robotern, Drohnen, Computern im automatisierten Handel und selbstständig fahrenden Autos. Sie kann innerhalb von Informations- und Technikethik eingeordnet oder als Pendant zur Menschenethik angesehen werden.” Kern der Plattform ist ein Blog mit Nachrichten zu Veranstaltungen, Diskussionen, Publikationen und Entwicklungen. Zwei Twitter-Walls bringen die deutsch- und englischsprachigen Tweets zum Thema. Ein Literaturverzeichnis rundet das Angebot ab. Die USA, Kanada, Australien, Japan und Holland forschen intensiv im Bereich der Maschinenethik. Auch aus den deutschsprachigen Ländern sollten Beiträge kommen. Zudem sollten neben KI und Philosophie weitere Disziplinen wie die Wirtschaftsinformatik beitragen.

Towards a Machine Ethics

Am 15. März 2013 trägt Oliver Bendel bei der European TA Conference in Prag zum Thema “Towards a Machine Ethics” vor. Das Abstract, das im Frühjahr im Tagungsband veröffentlicht wird, hebt mit den Worten an: “There is an increasing use of autonomous machines such as agents, chatbots, algorithmic trading computers, robots of different stripes and unmanned ground or air vehicles. They populate the modern world like legendary figures and artificial creatures in Greek mythology – with the main difference being that they are real in the narrow sense of the word. Some are only partially autonomous (acting under human command) while others are completely autonomous within their area of action. A genuinely autonomous machine should be able to act in a moral way, able to make decisions that are good for humans, animals and the environment. But what does it mean for machines to behave morally? Should they learn moral rules? Should they evaluate the consequences of their acts? Or should they become a virtuous character, following Aristotle? How is it possible to implement the classical normative models of ethics and is there a need for new ones?” Der erste, zweite und dritte Abschnitt des Beitrags wird knapp zusammengefasst; dann wird auf den vierten eingegangen: “Fourthly, the paper tries to answer the question if and how it is possible to implement the classical normative models of ethics and which models should be preferred. Seven important normative approaches are described and estimated relating to their suitability for machine processing. Then the focus shifts to duty-based ethics, ethics of responsibility and virtue ethics that seem to be serious candidates. With a short technical analysis it can be shown that they fit to machine processing, apart from some limitations. The most promising approach may be the combination of the selected normative models. It is not only similar in the ‘normal’ human ethics, but also an opportunity to balance out weaknesses of the autonomous machines and to allow them alternatives. In addition, other methods like orientation on reference persons and social media evaluation could be used.” Am Ende werden Wichtigkeit und Schwierigkeit des jungen Forschungsgebiets der Maschinenethik gleichermaßen betont und persönliche und allgemeine Einschätzungen gegeben.

Robot Companions for Citizens

Am 22. Mai 2012 hat das Zentrum für Technologiefolgen-Abschätzung TA-SWISS in Bern das EU-Flagship-Projekt “Robot Companions for Citizens” vorgestellt. Auf der Tagung mit dem Titel “RoboCom – Rise of Sentient Machines?” wurde das Projekt aus informationstechnischer, rechtswissenschaftlicher und ethischer Perspektive beleuchtet. Weitere Informationen zum Projekt, die Präsentationen der Keynote-Speaker und Presseberichte stehen über www.ta-swiss.ch/projekte/biotechnologie-und-medizin/robotik/ zur Verfügung. Der Inhalt der Tagung wurde von TA-SWISS in einem lesenswerten Faktenblatt (“Unser Freund, der Roboter”) zusammengefasst, das am 23. Juli 2012 online gestellt wurde. Die Teilbereichsethik der Maschinenethik, die man zu Computer- und Netzethik und damit zur Informationsethik rechnen kann, wird durch die Aktivitäten auf EU-Ebene weiter gestärkt.