Daimler und Benz Stiftung zu Pflegerobotik

Gegen 15 renommierte Wissenschaftlerinnen und Wissenschaftler treffen am 12. und 13. September 2017 in der Villa der gemeinnützigen Daimler und Benz Stiftung in Ladenburg zusammen, tragen vor und diskutieren zu Pflegerobotern. Die Stiftung engagiert sich immer wieder in Bezug auf Robotik und Künstliche Intelligenz (KI) und mit Blick auf moralische und soziale Themen, wie 2015 mit einer Tagung zur Roboterethik. Der Workshop ermöglicht technische, wirtschaftliche, medizinische und ethische Reflexionen über Pflegeroboter. Die Teilnehmerinnen und Teilnehmer sollen im Rahmen der Ladenburger Diskurse kontrovers und konstruktiv diskutieren und zu neuen Erkenntnissen gelangen. Die wissenschaftliche Leitung obliegt Prof. Dr. Oliver Bendel. Er lud im Namen der Stiftung Wirtschaftswissenschaftler, Robotiker, Informatiker, Mediziner und Moralphilosophen aus Deutschland, Österreich, der Schweiz und UK ein. Bisher liegen elf Zusagen vor. Die Ergebnisse des Workshops werden in einem Herausgeberband zusammengefasst. Sie richten sich an ein breites Publikum. Letztlich müssen die Krankenhäuser, die Pflegeheime und die Patientinnen und Patienten bzw. Seniorinnen und Senioren entscheiden, wie die Pflege der Zukunft aussehen soll.

Abb.: Bei der Hochzeit denkt man noch nicht an die Pflege

Swiss Re Life & Health Forum 2016

Beim Swiss Re Life & Health Forum 2016 am 25. November in München wird es unter anderem um Künstliche Intelligenz (KI) gehen. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW trägt vor zum Thema „Künstliche Intelligenz: Vom hässlichen Entlein zum stolzen Schwan“ und beantwortet die Frage: „Was kommt auf die digitalisierte Gesellschaft zu?“ Dr. Andrea Cornelius, Vice President, Global Insurance, IBM Cognitive Solutions, widmet sich im Anschluss daran einem ganzen Spektrum, „Von neuen Serviceangeboten über das Underwriting bis hin zur Leistungsprüfung“, und stellt die Frage „Werden kognitive Lösungen die Versicherungswirtschaft revolutionieren?“ Auf dem Podium diskutieren dann der Wissenschaftler und die Unternehmensvertreterin mit Markus Unterkofler, Head Client Management Germany L&H, Swiss Re, und Marcus Nagel, Vorstandsvorsitzender der Zurich Gruppe Deutschland. Es moderiert Dr. Ralf Krüger von Swiss Re. Weitere Informationen über www.swissre.com.

Abb.: Das Gebäude der Swiss Re in London

Gibt es Algorithmen für Empathie?

Am 28. Oktober 2016 fand im Paul-Löbe-Haus in Berlin der 3. Netzpolitische Kongress unter dem Motto „Für eine Ethik der digitalen Gesellschaft“ statt. Der wirtschaftspolitische Sprecher der Fraktion der Bundestagsfraktion der Grünen, Dieter Janecek, schreibt auf seiner Website: „Gemeinsam mit Olivia Klose (Software Development Engineer bei Microsoft) und Prof. Dr. Oliver Bendel (Wirtschaftsinformatiker, Wissenschaftler und Autor) haben wir uns mit ‚Deep Learning‘ auseinandergesetzt: Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?“ Und weiter: „Eines der zentralen Ziele des Workshops war, die Unterschiede zwischen rein regelbasierten und selbstlernenden Systemen sowohl technisch als auch mit Blick auf die später zu beantwortenden Fragen der Maschinenethik deutlich zu machen. Rein regelbasierten Systemen lassen sich Verhaltensweisen, die man moralisch nennen kann, anhand von annotierten Entscheidungsbäumen beibringen, die Prof. Oliver Bendel maßgeblich entwickelt hat.“ (Website Janecek) Angespielt wird damit auf den Beitrag „Annotated Decision Trees for Simple Moral Machines“, erschienen 2016 im Proceedingsband der AAAI Spring Symposium Series. „Aus ethischer Perspektive stellt sich aber nicht nur die Frage, nach welchen Prinzipien diese Maschinen handeln sollen, sondern auch, welche Maschinen wir durch entsprechende Programmierung überhaupt zu moralischen Maschinen machen wollen, wann moralische Vorgaben vielleicht unverhältnismäßige Einschränkungen in der Funktionsweise einer Maschine darstellen, ob wirklich alle denkbaren Szenarien auch immer vorhersehbar sind, und welche Art von Aufgaben wir überhaupt auf Maschinen übertragen möchten.“ (Website Janecek) Der ganze Beitrag ist über http://www.dieterjanecek.de abrufbar.

Abb.: Das Paul-Löbe-Haus in Berlin

Ethik und KI

Das Paul-Löbe-Haus ist ein Veranstaltungs- und Diskussionsort des Deutschen Bundestags, gelegen am Südrand des Spreebogenparks. Dort fand am 28. Oktober 2016 ab 9 Uhr der 3. Netzpolitische Kongress von Bündnis 90/Die Grünen mit dem Titel „Für eine Ethik der digitalen Gesellschaft“ statt. Ein Schwerpunkt war der Zusammenhang zwischen Künstlicher Intelligenz (KI) und Ethik. Dr. Anton Hofreiter hielt um 10 Uhr die Eröffnungsrede. Dann war der Publizist Sascha Lobo zugeschaltet. In sechs Workshops ging man Fragen der Informations-, Technik- und Maschinenethik nach. Workshop Nr. 5, moderiert von Hans-Christian Ströbele, Mitglied des Deutschen Bundestags, galt dem Thema „Drohnen – eine Ethik für neue Formen der Überwachung und des Krieges“. Es diskutierten Anja Dahlmann von der Stiftung Wissenschaft und Politik und Malte Spitz, Datenschutzexperte. Workshop Nr. 6, moderiert vom Grünen-Politiker Dieter Janecek, war dem Thema „Deep Learning – Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?“ gewidmet. Olivia Klose von Microsoft erklärte den Unterschied zwischen schwacher und starker KI. Oliver Bendel von der Hochschule für Wirtschaft FHNW verortete seine eigenen Projekte in der schwachen KI und erklärte, warum selbstlernende Systeme in offenen Welten nicht immer eine gute Idee sind. Am Rande der Veranstaltung führte er Gespräche mit Lars Klingbeil, dem netzpolitischen Sprecher der SPD-Bundestagsfraktion, und Hans-Christian Ströbele. Weitere Informationen über www.gruene-bundestag.de.

Abb.: Klose, Janecek und Bendel vor dem Workshop (Foto: Kai Wargalla)

Google und die Moral

Nadja Röll vom SRF hat mit Oliver Bendel von der Hochschule für Wirtschaft FHNW am 7. Oktober 2016 ein Interview zur „Partnership on Artificial Intelligence to Benefit People and Society“ geführt. Fünf IT-Konzerne haben angekündigt, dass sie ihre Forschung im Bereich der Künstlichen Intelligenz (KI) bündeln und Leitplanken für Mensch und Maschine entwickeln wollen, nämlich Google, Amazon, Facebook, IBM und Microsoft. Es fehlen bislang Apple sowie die von Elon Musk geleitete Non-Profit-Organisation namens OpenAI. Gerade letzterer würde man sowohl eine gesellschafts- und benutzerbezogene Reflexion der Chancen und Risiken von Robotik und eine Erstellung von Moralkodizes für die Entwicklung von Robotern (Informationsethik und Roboterethik) als auch eine zielführende Integration von Entscheidungsmechanismen in die Maschinen (Maschinenethik) zutrauen. Im Interview mit dem Schweizer Fernsehen schreibt Oliver Bendel den Unternehmen sowohl Sachverständigkeit als auch Schnelligkeit zu. Allerdings ist er skeptisch, ob sie sich selbst beschneiden werden: Künstliche Intelligenz hängt, etwa im Deep Learning, mit Big Data zusammen, und als Datenkonzerne werden Google, Amazon und Co. nicht vom Datensammeln lassen, auch wenn es gegen Persönlichkeitsrechte verstößt. Der Beitrag kann über www.srf.ch/kultur/wissen/wenn-google-die-moral-von-maschinen-festlegt-gibt-es-probleme aufgerufen werden.

Abb.: Ein Freelancer mit Notebook

Acht Technologien für die Zukunft

Die Zeitung 20 Minuten hat Oliver Bendel zu Fragen der Digitalisierung und der Robotik interviewt. Eine Frage lautete, worin der Unterschied zwischen Robotern und Künstlicher Intelligenz bestehe. Die Antwort darauf lautete: „Ein Hardwareroboter ist nichts anderes als ein Bewegungsautomat. Im Falle der Softwareroboter kann man auch von Tätigkeitsautomat sprechen. Bisher war der Hardwareroboter in der Regel ‚dumm‘ und für einfache Aufgaben zuständig. Mit Hilfe der Künstlichen Intelligenz (der Begriff bezeichnet die Disziplin und ihren Gegenstand) kann der Bewegungsautomat vielfältige Aufgaben wahrnehmen. Das setzt allerdings voraus, dass er auch in seiner Hardware vielfältig wird, z.B. Werkzeuge besitzt, mit denen er greifen, schieben, werfen etc. kann. Manchmal führt das dazu, dass er humanoid wird, also menschenähnlich. Künstliche Intelligenz kann mit Lernfähigkeit verbunden sein. Der Roboter beobachtet einen Arbeiter und ahmt ihn nach. Oder er beobachtet eine Situation im Straßenverkehr und erstellt auf der Grundlage seiner Analysen und Schlussfolgerungen eigene Regeln. In geschlossenen oder halboffenen Welten (Computer, Haushalt, Fabrik) ist das oft nützlich, in offenen Welten (Straßenverkehr) manchmal gefährlich.“ Auf der Basis dieser Ausführungen und der Antworten weiterer Experten ist der Beitrag „Acht Technologien, die unsere Zukunft verändern“ entstanden, der am 12. September 2016 erschienen ist und über www.20min.ch/finance/news/story/Acht-Technologien–die-unsere-Zukunft-veraendern-30887235 aufgerufen werden kann.

Abb.: Auch VR gehört zu den Technologien der Zukunft

AI and Ethics

In his speech at the University of Zurich, Kaspar Etter (Stiftung für Effektiven Altruismus) discusses the relation between artificial intelligence and ethics. Some information from the advertising text: „We humans steer the future not because we’re the strongest or the fastest but because we’re the smartest animal on this planet. However, there are no reasons to assume that blind evolutionary processes have reached the physical limit of intelligence with us. Quite to the contrary, we have already seen how intelligent machines outperform the best of our kind on an increasing number of tasks, ranging from Chess over the quiz show Jeopardy to Go. What will happen when artificial intelligence surpasses human intelligence in a broader range and controls our destiny? Are we ready to make our final invention? And what is to be done from an ethical perspective?“ (Website EA) The text continues: „In his talk, Kaspar Etter will cover the current state and trends in artificial intelligence, its present implications on our society and what is to be expected for the coming decades. You will also learn about a phenomenon called intelligence explosion and strategic considerations for approaching the challenges ahead of us.“ (Website EA) The event will take place in KOL-F-117, May 26, 2016, at 7 pm.

Fig.: Zurich and its universities

Workshop zur Ethik der Künstlichen Intelligenz

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: „Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.“ (Website Workshop) Zum Ziel des Workshops wird gesagt: „The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.“ (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk.

Abb.: Autonome Autos sind ein Thema des Workshops

Weder Wahrheits- noch Lügenmaschinen?

Das Buch „Können Roboter lügen?“ von Raúl Rojas enthält „Essays zur Robotik und Künstlichen Intelligenz“, die von 2011 bis 2013 in der Online-Zeitschrift Telepolis erschienen sind. Rojas ist Professor für Künstliche Intelligenz an der Freien Universität Berlin. Im Kontext der Maschinenethik (und der Roboterethik) ist vor allem der dritte Teil interessant. Im Vorwort heißt es: „Der dritte Teil über Robotik und KI gibt einen Einblick in die Arbeit, die in den letzten Jahren auf diesem Gebiet geleistet worden ist. Wir wären froh, mit Robotern die Eleganz eines Insekts bei der Bewältigung von Hindernissen zu erreichen. Wir können aber schon heute kleine und große Roboter – z.B. autonome Fahrzeuge – mit kognitiven Architekturen ausstatten, die eine effiziente und nützliche Funktionalität erlauben. Die Kapitel über Roboter, die lügen, bzw. über das Watson-System zeigen die zwei Seiten der Medaille: Wie weit die künstliche Intelligenz gekommen ist und wie weit entfernt sie doch noch vom Ziel bleibt.“ Rojas gelangt zum Schluss: „Roboter kennen die Wahrheit nicht, deswegen können sie nicht lügen.“ Das Buch wurde Ende Mai 2013 im Heise Zeitschriften Verlag veröffentlicht und ist u.a. in der Kindle-Edition erhältlich.

Abb.: Der berühmte Baron

Die Maschinenethik aus amerikanischer Perspektive

Michael Anderson und Susan Leigh Anderson gehen als Herausgeber des 2011 in der Cambridge University Press erschienenen Buchs „Machine Ethics“ der Frage nach, ob und wie autonome Systeme in moralischer Weise „handeln“ sollen und können. Schon vor Jahrzehnten hat man in Literatur und Wissenschaft über diese Frage nachgedacht; aber eine entsprechende Disziplin ist erst in den letzten Jahren entstanden. Offensichtlich wird die Notwendigkeit gesehen, das „Verhalten“ von Maschinen im Kontext der Moral zu reflektieren und Philosophen (vor allem Ethiker) und Vertreter der Künstlichen Intelligenz darüber nachdenken zu lassen. In der Einführung heißt es: „The subject of this book is a new field of research: Developing ethics for machines, in contrast to developing ethics for human beings who use machines.“ Wir benutzen Maschinen, und Maschinen benutzen uns. Wie sollen die Maschinen mit uns umgehen, und wie sollen sie sich entscheiden in Situationen, in denen wir in unserer Identität und in unserer Existenz bedroht werden? Die Beiträge enthalten bemerkenswerte Vorschläge und verdienen eine aufmerksame Lektüre.

Abb.: Der Roboter Asimo