Schlagworte: Künstliche Intelligenz

KI in der National Geographic

Die Juli-Ausgabe der Zeitschrift National Geographic bringt den ersten Teil einer dreiteiligen Serie zur Künstlichen Intelligenz. Auf 14 Seiten widmet man sich der Arbeit von Oliver Bendel. Der Informations- und Maschinenethiker lebt und arbeitet in der Schweiz. Er stand dem Chefredakteur Florian Gless und der Redakteurin Ines Bellinger Rede und Antwort. Zudem gibt es eine Graphic Novel zu aktuellen Entwicklungen und den entsprechenden Überlegungen von Oliver Bendel. Ein Glossar zur KI rundet den Beitrag ab. Die Fotos stammen von Elias Hassos, der u.a. Hans Magnus Enzensberger und Martin Walser porträtiert hat. “Wir können in der Hängematte liegen” – so lautet die Überschrift des Beitrags. Oliver Bendel ist der Meinung, dass uns Roboter unterstützen und entlasten können. Dass Menschen die besten Jahre des Lebens und die besten Stunden des Tages einem Unternehmen schenken, das ihnen womöglich nicht einmal sympathisch ist, hält er für eine Ideologie, die man hinterfragen kann. Vielleicht reichen vier Stunden am Tag für den Lebensunterhalt, wenn ein Grundeinkommen dazukommt. Denn die Gewinne werden weiter erzielt, mit Hilfe von Robotik und Künstlicher Intelligenz auch ohne die Arbeiter und Angestellten. Sie müssen nur gerecht verteilt werden. Weitere Informationen über www.nationalgeographic.de.

Abb.: KI wird uns Arbeit abnehmen

Über Wonder Woman und Fat Man

Was haben Wonder Woman und ein Lügendetektor gemeinsam? Warum schämen wir uns für andere Menschen? Kann die Sonne erlöschen? Wer war Mata Hari? Die Fragen bei “Beat the Prof” auf ZEIT ONLINE sind immer anregend, die Antworten oft verblüffend. Im Mai 2017 wurde ein neues Quiz freigeschaltet, und zwar zur Künstlichen Intelligenz. Die Fragen und Antworten erarbeitete der Informations- und Maschinenethiker Oliver Bendel, der in Zürich lebt und in Basel, Olten und Windisch an der Hochschule für Wirtschaft FHNW arbeitet. Enthalten ist u.a. eine Frage zum Fetter-Mann-Problem. Der bedauernswerte Unbeteiligte werde von einer Brücke auf ein Gleis gestoßen. Aber warum? Antwort 1: “Er wird getötet, damit andere auf dem Gleis überleben.” Antwort 2: “Er wird heruntergeschubst, damit die Brücke nicht einstürzt.” Antwort 3: “Er wird getötet, damit das Fetter-Mann-Problem entsteht.” Das Quiz kann über www.zeit.de/campus/2017-05/beat-the-prof-ethik-kuenstliche-intelligenz aufgerufen werden.

Abb.: Wonder Woman beim Schminken

Künstliche Intelligenz bei der Deutschen Telekom

“We love AI” nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: “Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.” (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: “Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.” Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.

Abb.: Die Telekom liebt KI

AI for Social Good

Vom 28. bis zum 30. März 2017 findet das AAAI 2017 Spring Symposium “AI for Social Good (AISOC)” an der Stanford University statt. Aus dem Call for Papers: “A rise in real-world applications of AI has stimulated significant interest from the public, media, and policy makers, including the White House Office of Science and Technology Policy (OSTP). Along with this increasing attention has come media-fueled concerns about purported negative consequences of AI, which often overlooks the societal benefits that AI is delivering and can deliver in the near future. This symposium will focus on the promise of AI across multiple sectors of society. We seek to bring together AI researchers and researchers/practitioners/experts/policy makers from a wide variety of domains.” (Website AISOC) Es tragen vor allem Forscherinnen und Forscher aus den USA vor, aber auch aus Holland und der Schweiz. Oliver Bendel von der Hochschule für Wirtschaft FHNW ist mit zwei Beiträgen mit dabei, mit “Towards Kant Machines” (zusammen mit Kevin Schwegler und Bradley Richards, die nicht vor Ort sein können) und “LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner”. Damit ist auch die Maschinenethik beim KI-Symposium vertreten. Weitere Informationen über scf.usc.edu/~amulyaya/AISOC17/index.html.

Abb.: Gedenktafel für Alan Turing in San Francisco

Einblicke in aktuelle Praxisfelder der Ethik

Im Rahmen der Ringvorlesung “Angewandte Ethik – Transdisziplinäre Einblicke in aktuelle Praxisfelder der Ethik” fanden seit 11. Oktober 2016 an der Hochschule Konstanz bereits einige Vorträge statt. Prof. Dr. Regine Kather (Philosophisches Seminar, Albert-Ludwigs-Universität Freiburg) berichtete am 22. November 2016 “Von der Würde des Menschen und der Würde der Kreatur” und entwickelte “Grundprinzipien einer integrativen Bioethik”, PD Dr. Claudia Pawlenka (Philosophisches Institut, Heinrich-Heine-Universität Düsseldorf) ging am 20. Dezember auf “Ethische Fragen im Sport” ein und konkret auf “Perfektionierung und Kommodifizierung des Menschen”. Der Vortrag von PD Dr. Joachim Boldt (Institut für Ethik und Geschichte der Medizin, Albert-Ludwigs-Universität Freiburg) trug den Titel “Künstliches Leben – Perspektiven der synthetischen Biologie” (10. Januar 2017). Prof. Dr. Oliver Bendel (Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft FHNW) spricht am 17. Januar über “Die Moral in der Maschine – Maschinenethik”. Zudem geht er kurz auf die Informationsethik und die Roboterethik ein und auf die Vorschläge des Europäischen Parlaments und des IEEE zur Regelung von Robotik und KI. Weitere Informationen über www.htwg-konstanz.de.

Abb.: Von künstlichem Leben und natürlicher Technik

Daimler und Benz Stiftung zu Pflegerobotik

Gegen 15 renommierte Wissenschaftlerinnen und Wissenschaftler treffen am 12. und 13. September 2017 in der Villa der gemeinnützigen Daimler und Benz Stiftung in Ladenburg zusammen, tragen vor und diskutieren zu Pflegerobotern. Die Stiftung engagiert sich immer wieder in Bezug auf Robotik und Künstliche Intelligenz (KI) und mit Blick auf moralische und soziale Themen, wie 2015 mit einer Tagung zur Roboterethik. Der Workshop ermöglicht technische, wirtschaftliche, medizinische und ethische Reflexionen über Pflegeroboter. Die Teilnehmerinnen und Teilnehmer sollen im Rahmen der Ladenburger Diskurse kontrovers und konstruktiv diskutieren und zu neuen Erkenntnissen gelangen. Die wissenschaftliche Leitung obliegt Prof. Dr. Oliver Bendel. Er lud im Namen der Stiftung Wirtschaftswissenschaftler, Robotiker, Informatiker, Mediziner und Moralphilosophen aus Deutschland, Österreich, der Schweiz und UK ein. Bisher liegen elf Zusagen vor. Die Ergebnisse des Workshops werden in einem Herausgeberband zusammengefasst. Sie richten sich an ein breites Publikum. Letztlich müssen die Krankenhäuser, die Pflegeheime und die Patientinnen und Patienten bzw. Seniorinnen und Senioren entscheiden, wie die Pflege der Zukunft aussehen soll.

Abb.: Bei der Hochzeit denkt man noch nicht an die Pflege

Swiss Re Life & Health Forum 2016

Beim Swiss Re Life & Health Forum 2016 am 25. November in München wird es unter anderem um Künstliche Intelligenz (KI) gehen. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW trägt vor zum Thema “Künstliche Intelligenz: Vom hässlichen Entlein zum stolzen Schwan” und beantwortet die Frage: “Was kommt auf die digitalisierte Gesellschaft zu?” Dr. Andrea Cornelius, Vice President, Global Insurance, IBM Cognitive Solutions, widmet sich im Anschluss daran einem ganzen Spektrum, “Von neuen Serviceangeboten über das Underwriting bis hin zur Leistungsprüfung“, und stellt die Frage “Werden kognitive Lösungen die Versicherungswirtschaft revolutionieren?” Auf dem Podium diskutieren dann der Wissenschaftler und die Unternehmensvertreterin mit Markus Unterkofler, Head Client Management Germany L&H, Swiss Re, und Marcus Nagel, Vorstandsvorsitzender der Zurich Gruppe Deutschland. Es moderiert Dr. Ralf Krüger von Swiss Re. Weitere Informationen über www.swissre.com/events/swiss_re_LH_forum_think_tomorrow.html.

Abb.: Das Gebäude der Swiss Re in London

Gibt es Algorithmen für Empathie?

Am 28. Oktober 2016 fand im Paul-Löbe-Haus in Berlin der 3. Netzpolitische Kongress unter dem Motto “Für eine Ethik der digitalen Gesellschaft” statt. Der wirtschaftspolitische Sprecher der Fraktion der Bundestagsfraktion der Grünen, Dieter Janecek, schreibt auf seiner Website: “Gemeinsam mit Olivia Klose (Software Development Engineer bei Microsoft) und Prof. Dr. Oliver Bendel (Wirtschaftsinformatiker, Wissenschaftler und Autor) haben wir uns mit ‘Deep Learning’ auseinandergesetzt: Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?” Und weiter: “Eines der zentralen Ziele des Workshops war, die Unterschiede zwischen rein regelbasierten und selbstlernenden Systemen sowohl technisch als auch mit Blick auf die später zu beantwortenden Fragen der Maschinenethik deutlich zu machen. Rein regelbasierten Systemen lassen sich Verhaltensweisen, die man moralisch nennen kann, anhand von annotierten Entscheidungsbäumen beibringen, die Prof. Oliver Bendel maßgeblich entwickelt hat.” (Website Janecek) Angespielt wird damit auf den Beitrag “Annotated Decision Trees for Simple Moral Machines”, erschienen 2016 im Proceedingsband der AAAI Spring Symposium Series. “Aus ethischer Perspektive stellt sich aber nicht nur die Frage, nach welchen Prinzipien diese Maschinen handeln sollen, sondern auch, welche Maschinen wir durch entsprechende Programmierung überhaupt zu moralischen Maschinen machen wollen, wann moralische Vorgaben vielleicht unverhältnismäßige Einschränkungen in der Funktionsweise einer Maschine darstellen, ob wirklich alle denkbaren Szenarien auch immer vorhersehbar sind, und welche Art von Aufgaben wir überhaupt auf Maschinen übertragen möchten.” (Website Janecek) Der ganze Beitrag ist über http://www.dieterjanecek.de/de/article/287.nk16-f%C3%BCr-eine-ethik-der-digitalen-gesellschaft.html abrufbar.

Abb.: Das Paul-Löbe-Haus in Berlin

Ethik und KI

Das Paul-Löbe-Haus ist ein Veranstaltungs- und Diskussionsort des Deutschen Bundestags, gelegen am Südrand des Spreebogenparks. Dort fand am 29. Oktober 2016 ab 9 Uhr der 3. Netzpolitische Kongress von Bündnis 90/Die Grünen mit dem Titel “Für eine Ethik der digitalen Gesellschaft” statt. Ein Schwerpunkt war der Zusammenhang zwischen Künstlicher Intelligenz (KI) und Ethik. Dr. Anton Hofreiter hielt um 10 Uhr die Eröffnungsrede. Dann war Sascha Lobo zugeschaltet. In sechs Workshops ging man Fragen der Informations-, Technik- und Maschinenethik nach. Workshop Nr. 5, moderiert von Christian Ströbele, galt dem Thema “Drohnen – eine Ethik für neue Formen der Überwachung und des Krieges”. Es diskutierten Anja Dahlmann von der Stiftung Wissenschaft und Politik und Malte Spitz, Datenschutzexperte. Workshop Nr. 6, moderiert von Dieter Janecek, war dem Thema “Deep Learning – Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?” gewidmet. Olivia Klose von Microsoft erklärte den Unterschied zwischen schwacher und starker KI. Oliver Bendel von der Hochschule für Wirtschaft FHNW verortete seine eigenen Projekte in der schwachen KI und erklärte, warum selbstlernende Systeme in offenen Welten nicht immer eine gute Idee sind. Weitere Informationen über www.gruene-bundestag.de/termin/3-netzpolischer-kongress-nk16-fuer-eine-ethik-der-digitalen-gesellschaft.html.

Abb.: Klose, Janecek und Bendel vor dem Workshop (Foto: Kai Wargalla)

Google und die Moral

Nadja Röll vom SRF hat mit Oliver Bendel von der Hochschule für Wirtschaft FHNW am 7. Oktober 2016 ein Interview zur “Partnership on Artificial Intelligence to Benefit People and Society” geführt. Fünf IT-Konzerne haben angekündigt, dass sie ihre Forschung im Bereich der Künstlichen Intelligenz (KI) bündeln und Leitplanken für Mensch und Maschine entwickeln wollen, nämlich Google, Amazon, Facebook, IBM und Microsoft. Es fehlen bislang Apple sowie die von Elon Musk geleitete Non-Profit-Organisation namens OpenAI. Gerade letzterer würde man sowohl eine gesellschafts- und benutzerbezogene Reflexion der Chancen und Risiken von Robotik und eine Erstellung von Moralkodizes für die Entwicklung von Robotern (Informationsethik und Roboterethik) als auch eine zielführende Integration von Entscheidungsmechanismen in die Maschinen (Maschinenethik) zutrauen. Im Interview mit dem Schweizer Fernsehen schreibt Oliver Bendel den Unternehmen sowohl Sachverständigkeit als auch Schnelligkeit zu. Allerdings ist er skeptisch, ob sie sich selbst beschneiden werden: Künstliche Intelligenz hängt, etwa im Deep Learning, mit Big Data zusammen, und als Datenkonzerne werden Google, Amazon und Co. nicht vom Datensammeln lassen, auch wenn es gegen Persönlichkeitsrechte verstößt. Der Beitrag kann über www.srf.ch/kultur/wissen/wenn-google-die-moral-von-maschinen-festlegt-gibt-es-probleme aufgerufen werden.

Abb.: Studierende der FHNW auf Google-Fahrrädern

Acht Technologien für die Zukunft

Die Zeitung 20 Minuten hat Oliver Bendel zu Fragen der Digitalisierung und der Robotik interviewt. Eine Frage lautete, worin der Unterschied zwischen Robotern und Künstlicher Intelligenz bestehe. Die Antwort darauf lautete: “Ein Hardwareroboter ist nichts anderes als ein Bewegungsautomat. Im Falle der Softwareroboter kann man auch von Tätigkeitsautomat sprechen. Bisher war der Hardwareroboter in der Regel ‘dumm’ und für einfache Aufgaben zuständig. Mit Hilfe der Künstlichen Intelligenz (der Begriff bezeichnet die Disziplin und ihren Gegenstand) kann der Bewegungsautomat vielfältige Aufgaben wahrnehmen. Das setzt allerdings voraus, dass er auch in seiner Hardware vielfältig wird, z.B. Werkzeuge besitzt, mit denen er greifen, schieben, werfen etc. kann. Manchmal führt das dazu, dass er humanoid wird, also menschenähnlich. Künstliche Intelligenz kann mit Lernfähigkeit verbunden sein. Der Roboter beobachtet einen Arbeiter und ahmt ihn nach. Oder er beobachtet eine Situation im Straßenverkehr und erstellt auf der Grundlage seiner Analysen und Schlussfolgerungen eigene Regeln. In geschlossenen oder halboffenen Welten (Computer, Haushalt, Fabrik) ist das oft nützlich, in offenen Welten (Straßenverkehr) manchmal gefährlich.” Auf der Basis dieser Ausführungen und der Antworten weiterer Experten ist der Beitrag “Acht Technologien, die unsere Zukunft verändern” entstanden, der am 12. September 2016 erschienen ist und über www.20min.ch/finance/news/story/Acht-Technologien–die-unsere-Zukunft-veraendern-30887235 aufgerufen werden kann.

Abb.: Eine Treppe in der Gegenwart

AI and Ethics

In his speech at the University of Zurich, Kaspar Etter (Stiftung für Effektiven Altruismus) discusses the relation between artificial intelligence and ethics. Some information from the advertising text: “We humans steer the future not because we’re the strongest or the fastest but because we’re the smartest animal on this planet. However, there are no reasons to assume that blind evolutionary processes have reached the physical limit of intelligence with us. Quite to the contrary, we have already seen how intelligent machines outperform the best of our kind on an increasing number of tasks, ranging from Chess over the quiz show Jeopardy to Go. What will happen when artificial intelligence surpasses human intelligence in a broader range and controls our destiny? Are we ready to make our final invention? And what is to be done from an ethical perspective?” (Website EA) The text continues: “In his talk, Kaspar Etter will cover the current state and trends in artificial intelligence, its present implications on our society and what is to be expected for the coming decades. You will also learn about a phenomenon called intelligence explosion and strategic considerations for approaching the challenges ahead of us.” (Website EA) The event will take place in KOL-F-117, May 26, 2016, at 7 pm.

Workshop zur Ethik der Künstlichen Intelligenz

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: “Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.” (Website Workshop) Zum Ziel des Workshops wird gesagt: “The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.” (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.

Abb.: Autonome Autos sind ein Thema des Workshops

Weder Wahrheits- noch Lügenmaschinen?

Das Buch “Können Roboter lügen?” von Raúl Rojas enthält “Essays zur Robotik und Künstlichen Intelligenz”, die von 2011 bis 2013 in der Online-Zeitschrift Telepolis erschienen sind. Rojas ist Professor für Künstliche Intelligenz an der Freien Universität Berlin. Im Kontext der Maschinenethik (und der Roboterethik) ist vor allem der dritte Teil interessant. Im Vorwort heißt es: “Der dritte Teil über Robotik und KI gibt einen Einblick in die Arbeit, die in den letzten Jahren auf diesem Gebiet geleistet worden ist. Wir wären froh, mit Robotern die Eleganz eines Insekts bei der Bewältigung von Hindernissen zu erreichen. Wir können aber schon heute kleine und große Roboter – z.B. autonome Fahrzeuge – mit kognitiven Architekturen ausstatten, die eine effiziente und nützliche Funktionalität erlauben. Die Kapitel über Roboter, die lügen, bzw. über das Watson-System zeigen die zwei Seiten der Medaille: Wie weit die künstliche Intelligenz gekommen ist und wie weit entfernt sie doch noch vom Ziel bleibt.” Rojas gelangt zum Schluss: “Roboter kennen die Wahrheit nicht, deswegen können sie nicht lügen.” Das Buch wurde Ende Mai 2013 im Heise Zeitschriften Verlag veröffentlicht und ist u.a. in der Kindle-Edition erhältlich.