Schlagworte: KI

Einblicke in aktuelle Praxisfelder der Ethik

Im Rahmen der Ringvorlesung “Angewandte Ethik – Transdisziplinäre Einblicke in aktuelle Praxisfelder der Ethik” fanden seit 11. Oktober 2016 an der Hochschule Konstanz bereits einige Vorträge statt. Prof. Dr. Regine Kather (Philosophisches Seminar, Albert-Ludwigs-Universität Freiburg) berichtete am 22. November 2016 “Von der Würde des Menschen und der Würde der Kreatur” und entwickelte “Grundprinzipien einer integrativen Bioethik”, PD Dr. Claudia Pawlenka (Philosophisches Institut, Heinrich-Heine-Universität Düsseldorf) ging am 20. Dezember auf “Ethische Fragen im Sport” ein und konkret auf “Perfektionierung und Kommodifizierung des Menschen”. Der Vortrag von PD Dr. Joachim Boldt (Institut für Ethik und Geschichte der Medizin, Albert-Ludwigs-Universität Freiburg) trug den Titel “Künstliches Leben – Perspektiven der synthetischen Biologie” (10. Januar 2017). Prof. Dr. Oliver Bendel (Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft FHNW) spricht am 17. Januar über “Die Moral in der Maschine – Maschinenethik”. Zudem geht er kurz auf die Informationsethik und die Roboterethik ein und auf die Vorschläge des Europäischen Parlaments und des IEEE zur Regelung von Robotik und KI. Weitere Informationen über www.htwg-konstanz.de.

Abb.: Von künstlichem Leben und natürlicher Technik

Daimler und Benz Stiftung zu Pflegerobotik

Gegen 15 renommierte Wissenschaftlerinnen und Wissenschaftler treffen am 12. und 13. September 2017 in der Villa der gemeinnützigen Daimler und Benz Stiftung in Ladenburg zusammen, tragen vor und diskutieren zu Pflegerobotern. Die Stiftung engagiert sich immer wieder in Bezug auf Robotik und Künstliche Intelligenz (KI) und mit Blick auf moralische und soziale Themen, wie 2015 mit einer Tagung zur Roboterethik. Der Workshop ermöglicht technische, wirtschaftliche, medizinische und ethische Reflexionen über Pflegeroboter. Die Teilnehmerinnen und Teilnehmer sollen im Rahmen der Ladenburger Diskurse kontrovers und konstruktiv diskutieren und zu neuen Erkenntnissen gelangen. Die wissenschaftliche Leitung obliegt Prof. Dr. Oliver Bendel. Er lud im Namen der Stiftung Wirtschaftswissenschaftler, Robotiker, Informatiker, Mediziner und Moralphilosophen aus Deutschland, Österreich, der Schweiz und UK ein. Bisher liegen elf Zusagen vor. Die Ergebnisse des Workshops werden in einem Herausgeberband zusammengefasst. Sie richten sich an ein breites Publikum. Letztlich müssen die Krankenhäuser, die Pflegeheime und die Patientinnen und Patienten bzw. Seniorinnen und Senioren entscheiden, wie die Pflege der Zukunft aussehen soll.

Abb.: Bei der Hochzeit denkt man noch nicht an die Pflege

Swiss Re Life & Health Forum 2016

Beim Swiss Re Life & Health Forum 2016 am 25. November in München wird es unter anderem um Künstliche Intelligenz (KI) gehen. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW trägt vor zum Thema “Künstliche Intelligenz: Vom hässlichen Entlein zum stolzen Schwan” und beantwortet die Frage: “Was kommt auf die digitalisierte Gesellschaft zu?” Dr. Andrea Cornelius, Vice President, Global Insurance, IBM Cognitive Solutions, widmet sich im Anschluss daran einem ganzen Spektrum, “Von neuen Serviceangeboten über das Underwriting bis hin zur Leistungsprüfung“, und stellt die Frage “Werden kognitive Lösungen die Versicherungswirtschaft revolutionieren?” Auf dem Podium diskutieren dann der Wissenschaftler und die Unternehmensvertreterin mit Markus Unterkofler, Head Client Management Germany L&H, Swiss Re, und Marcus Nagel, Vorstandsvorsitzender der Zurich Gruppe Deutschland. Es moderiert Dr. Ralf Krüger von Swiss Re. Weitere Informationen über www.swissre.com/events/swiss_re_LH_forum_think_tomorrow.html.

Abb.: Das Gebäude der Swiss Re in London

Gibt es Algorithmen für Empathie?

Am 28. Oktober 2016 fand im Paul-Löbe-Haus in Berlin der 3. Netzpolitische Kongress unter dem Motto “Für eine Ethik der digitalen Gesellschaft” statt. Der wirtschaftspolitische Sprecher der Fraktion der Bundestagsfraktion der Grünen, Dieter Janecek, schreibt auf seiner Website: “Gemeinsam mit Olivia Klose (Software Development Engineer bei Microsoft) und Prof. Dr. Oliver Bendel (Wirtschaftsinformatiker, Wissenschaftler und Autor) haben wir uns mit ‘Deep Learning’ auseinandergesetzt: Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?” Und weiter: “Eines der zentralen Ziele des Workshops war, die Unterschiede zwischen rein regelbasierten und selbstlernenden Systemen sowohl technisch als auch mit Blick auf die später zu beantwortenden Fragen der Maschinenethik deutlich zu machen. Rein regelbasierten Systemen lassen sich Verhaltensweisen, die man moralisch nennen kann, anhand von annotierten Entscheidungsbäumen beibringen, die Prof. Oliver Bendel maßgeblich entwickelt hat.” (Website Janecek) Angespielt wird damit auf den Beitrag “Annotated Decision Trees for Simple Moral Machines”, erschienen 2016 im Proceedingsband der AAAI Spring Symposium Series. “Aus ethischer Perspektive stellt sich aber nicht nur die Frage, nach welchen Prinzipien diese Maschinen handeln sollen, sondern auch, welche Maschinen wir durch entsprechende Programmierung überhaupt zu moralischen Maschinen machen wollen, wann moralische Vorgaben vielleicht unverhältnismäßige Einschränkungen in der Funktionsweise einer Maschine darstellen, ob wirklich alle denkbaren Szenarien auch immer vorhersehbar sind, und welche Art von Aufgaben wir überhaupt auf Maschinen übertragen möchten.” (Website Janecek) Der ganze Beitrag ist über http://www.dieterjanecek.de/de/article/287.nk16-f%C3%BCr-eine-ethik-der-digitalen-gesellschaft.html abrufbar.

Abb.: Das Paul-Löbe-Haus in Berlin

Google und die Moral

Nadja Röll vom SRF hat mit Oliver Bendel von der Hochschule für Wirtschaft FHNW am 7. Oktober 2016 ein Interview zur “Partnership on Artificial Intelligence to Benefit People and Society” geführt. Fünf IT-Konzerne haben angekündigt, dass sie ihre Forschung im Bereich der Künstlichen Intelligenz (KI) bündeln und Leitplanken für Mensch und Maschine entwickeln wollen, nämlich Google, Amazon, Facebook, IBM und Microsoft. Es fehlen bislang Apple sowie die von Elon Musk geleitete Non-Profit-Organisation namens OpenAI. Gerade letzterer würde man sowohl eine gesellschafts- und benutzerbezogene Reflexion der Chancen und Risiken von Robotik und eine Erstellung von Moralkodizes für die Entwicklung von Robotern (Informationsethik und Roboterethik) als auch eine zielführende Integration von Entscheidungsmechanismen in die Maschinen (Maschinenethik) zutrauen. Im Interview mit dem Schweizer Fernsehen schreibt Oliver Bendel den Unternehmen sowohl Sachverständigkeit als auch Schnelligkeit zu. Allerdings ist er skeptisch, ob sie sich selbst beschneiden werden: Künstliche Intelligenz hängt, etwa im Deep Learning, mit Big Data zusammen, und als Datenkonzerne werden Google, Amazon und Co. nicht vom Datensammeln lassen, auch wenn es gegen Persönlichkeitsrechte verstößt. Der Beitrag kann über www.srf.ch/kultur/wissen/wenn-google-die-moral-von-maschinen-festlegt-gibt-es-probleme aufgerufen werden.

Abb.: Studierende der FHNW auf Google-Fahrrädern

Acht Technologien für die Zukunft

Die Zeitung 20 Minuten hat Oliver Bendel zu Fragen der Digitalisierung und der Robotik interviewt. Eine Frage lautete, worin der Unterschied zwischen Robotern und Künstlicher Intelligenz bestehe. Die Antwort darauf lautete: “Ein Hardwareroboter ist nichts anderes als ein Bewegungsautomat. Im Falle der Softwareroboter kann man auch von Tätigkeitsautomat sprechen. Bisher war der Hardwareroboter in der Regel ‘dumm’ und für einfache Aufgaben zuständig. Mit Hilfe der Künstlichen Intelligenz (der Begriff bezeichnet die Disziplin und ihren Gegenstand) kann der Bewegungsautomat vielfältige Aufgaben wahrnehmen. Das setzt allerdings voraus, dass er auch in seiner Hardware vielfältig wird, z.B. Werkzeuge besitzt, mit denen er greifen, schieben, werfen etc. kann. Manchmal führt das dazu, dass er humanoid wird, also menschenähnlich. Künstliche Intelligenz kann mit Lernfähigkeit verbunden sein. Der Roboter beobachtet einen Arbeiter und ahmt ihn nach. Oder er beobachtet eine Situation im Straßenverkehr und erstellt auf der Grundlage seiner Analysen und Schlussfolgerungen eigene Regeln. In geschlossenen oder halboffenen Welten (Computer, Haushalt, Fabrik) ist das oft nützlich, in offenen Welten (Straßenverkehr) manchmal gefährlich.” Auf der Basis dieser Ausführungen und der Antworten weiterer Experten ist der Beitrag “Acht Technologien, die unsere Zukunft verändern” entstanden, der am 12. September 2016 erschienen ist und über www.20min.ch/finance/news/story/Acht-Technologien–die-unsere-Zukunft-veraendern-30887235 aufgerufen werden kann.

Abb.: Eine Treppe in der Gegenwart

AI and Ethics

In his speech at the University of Zurich, Kaspar Etter (Stiftung für Effektiven Altruismus) discusses the relation between artificial intelligence and ethics. Some information from the advertising text: “We humans steer the future not because we’re the strongest or the fastest but because we’re the smartest animal on this planet. However, there are no reasons to assume that blind evolutionary processes have reached the physical limit of intelligence with us. Quite to the contrary, we have already seen how intelligent machines outperform the best of our kind on an increasing number of tasks, ranging from Chess over the quiz show Jeopardy to Go. What will happen when artificial intelligence surpasses human intelligence in a broader range and controls our destiny? Are we ready to make our final invention? And what is to be done from an ethical perspective?” (Website EA) The text continues: “In his talk, Kaspar Etter will cover the current state and trends in artificial intelligence, its present implications on our society and what is to be expected for the coming decades. You will also learn about a phenomenon called intelligence explosion and strategic considerations for approaching the challenges ahead of us.” (Website EA) The event will take place in KOL-F-117, May 26, 2016, at 7 pm.

Workshop zur Ethik der Künstlichen Intelligenz

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: “Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.” (Website Workshop) Zum Ziel des Workshops wird gesagt: “The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.” (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.

Abb.: Autonome Autos sind ein Thema des Workshops

KI und Ethik

In Austin (Texas, USA) finden vom 25. bis 26. Januar 2015 die “Workshops at the Twenty-Ninth AAAI Conference on Artificial Intelligence (AAAI-15)” statt. Auf der Website werden zum “W01 – AI and Ethics” mediale Aussagen wie “Artificial Intelligence Is Changing the World, and Humankind Must Adapt” und “Physicist Louis Del Monte believes that by 2045 machines will threaten human survival” zitiert. Vor diesem Hintergrund heißt es: “The goal of this workshop is to provide a forum to discuss the ethical questions implicit in such headlines, which go to the centre of the quest to build AI systems with potentially super-human intelligence.” Es werden sowohl informations- und technikethische als auch maschinenethische Bereiche behandelt, z.B. “AI as a threat to or saviour for humanity”, “Safeguards necessary within AI research”, “Autonomous agents in the military”, “Autonomous agents in commerce and other domains” und “Mechanisms to ensure moral behaviours in AI systems”. Weitere Informationen sind über www.aaai.org/Workshops/ws15workshops.php erhältlich.

Der GOODBOT kommt auf die Welt

Viele Benutzer mögen Chatbots auf Websites und unterhalten sich gerne mit ihnen. Dabei spielen Produkte und Dienstleistungen meist eine untergeordnete Rolle. Man will das virtuelle Gegenüber ausfragen, mit ihm flirten, es necken und reizen. Wenn man in Schwierigkeiten steckt, will man eine Antwort erhalten, die einen nicht noch mehr entmutigt und verstört. Die meisten Bots sind in dieser Hinsicht völlig überfordert. Auf Selbstmorddrohungen oder Ankündigungen von Amokläufen reagieren sie inadäquat. In einem Projekt an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW wird unter der Leitung von Oliver Bendel eine moralische Maschine besonderer Art, nämlich ein sogenannter GOODBOT, konzipiert und prototypisch implementiert. Zunächst werden theoretische Grundlagen im Kontext der Maschinenethik erarbeitet. Es interessiert unter anderem, welche normativen Modelle maschinell verarbeitbar sind. Dann werden ausgewählte Chatbots auf Websites sowie Sprachassistenten wie Siri analysiert und verglichen sowie Erkenntnisse zu Systemen solcher Art gewonnen. Ein vorhandener Regelkatalog soll daraufhin überprüft werden, ob er in einem regelbasierten System umgesetzt bzw. wie er angepasst werden kann. Nicht nur Top-down-, sondern auch Bottom-up-Ansätze sollen erwogen werden. Zudem ist relevant, inwieweit soziale Medien und leibhaftige Menschen moralische Referenzpunkte bilden können. Das Projekt hat im Juni 2013 begonnen. Informationen zum Initiator und Projektleiter über www.fhnw.ch/personen/oliver-bendel.

Abb.: Ein Chatbot, der als “bad bot” bezeichnet werden könnte

Neue Plattform zur Maschinenethik

Die Plattform maschinenethik.net wurde im Frühjahr 2013 gegründet und ist der Maschinenethik und speziell auch der Roboterethik und der Algorithmenethik gewidmet. Im Glossar zur Informationsethik von Oliver Bendel heißt es: “Die Maschinenethik (‘Machine Ethics’) hat die Moral von Maschinen zum Gegenstand, vor allem von (teil-)autonomen Systemen wie Agenten, Robotern, Drohnen, Computern im automatisierten Handel und selbstständig fahrenden Autos. Sie kann innerhalb von Informations- und Technikethik eingeordnet oder als Pendant zur Menschenethik angesehen werden.” Kern der Plattform ist ein Blog mit Nachrichten zu Veranstaltungen, Diskussionen, Publikationen und Entwicklungen. Zwei Twitter-Walls bringen die deutsch- und englischsprachigen Tweets zum Thema. Ein Literaturverzeichnis rundet das Angebot ab. Die USA, Kanada, Australien, Japan und Holland forschen intensiv im Bereich der Maschinenethik. Auch aus den deutschsprachigen Ländern sollten Beiträge kommen. Zudem sollten neben KI und Philosophie weitere Disziplinen wie die Wirtschaftsinformatik beitragen.

Towards a Machine Ethics

Am 15. März 2013 trägt Oliver Bendel bei der European TA Conference in Prag zum Thema “Towards a Machine Ethics” vor. Das Abstract, das im Frühjahr im Tagungsband veröffentlicht wird, hebt mit den Worten an: “There is an increasing use of autonomous machines such as agents, chatbots, algorithmic trading computers, robots of different stripes and unmanned ground or air vehicles. They populate the modern world like legendary figures and artificial creatures in Greek mythology – with the main difference being that they are real in the narrow sense of the word. Some are only partially autonomous (acting under human command) while others are completely autonomous within their area of action. A genuinely autonomous machine should be able to act in a moral way, able to make decisions that are good for humans, animals and the environment. But what does it mean for machines to behave morally? Should they learn moral rules? Should they evaluate the consequences of their acts? Or should they become a virtuous character, following Aristotle? How is it possible to implement the classical normative models of ethics and is there a need for new ones?” Der erste, zweite und dritte Abschnitt des Beitrags wird knapp zusammengefasst; dann wird auf den vierten eingegangen: “Fourthly, the paper tries to answer the question if and how it is possible to implement the classical normative models of ethics and which models should be preferred. Seven important normative approaches are described and estimated relating to their suitability for machine processing. Then the focus shifts to duty-based ethics, ethics of responsibility and virtue ethics that seem to be serious candidates. With a short technical analysis it can be shown that they fit to machine processing, apart from some limitations. The most promising approach may be the combination of the selected normative models. It is not only similar in the ‘normal’ human ethics, but also an opportunity to balance out weaknesses of the autonomous machines and to allow them alternatives. In addition, other methods like orientation on reference persons and social media evaluation could be used.” Am Ende werden Wichtigkeit und Schwierigkeit des jungen Forschungsgebiets der Maschinenethik gleichermaßen betont und persönliche und allgemeine Einschätzungen gegeben.

Robot Companions for Citizens

Am 22. Mai 2012 hat das Zentrum für Technologiefolgen-Abschätzung TA-SWISS in Bern das EU-Flagship-Projekt “Robot Companions for Citizens” vorgestellt. Auf der Tagung mit dem Titel “RoboCom – Rise of Sentient Machines?” wurde das Projekt aus informationstechnischer, rechtswissenschaftlicher und ethischer Perspektive beleuchtet. Weitere Informationen zum Projekt, die Präsentationen der Keynote-Speaker und Presseberichte stehen über www.ta-swiss.ch/projekte/biotechnologie-und-medizin/robotik/ zur Verfügung. Der Inhalt der Tagung wurde von TA-SWISS in einem lesenswerten Faktenblatt (“Unser Freund, der Roboter”) zusammengefasst, das am 23. Juli 2012 online gestellt wurde. Die Teilbereichsethik der Maschinenethik, die man zu Computer- und Netzethik und damit zur Informationsethik rechnen kann, wird durch die Aktivitäten auf EU-Ebene weiter gestärkt.