Schlagworte: Artificial Intelligence

AI and Society IV

Nach dem Mittagessen spannte Oliver Bendel beim Symposium “AI and Society” den Bogen “From GOODBOT to BESTBOT”. Sein BESTBOT-Projekt, das GOODBOT und LIEBOT zusammenführt, startete eine Woche vorher an der School of Business FHNW (der mit der Implementierung beauftragte Student ist David Studer). Der BESTBOT, ein Artefakt der Maschinenethik, soll Probleme des Benutzers auch über Gesichtserkennung identifizieren, was wiederum Probleme für den Benutzer schafft, die ebenfalls diskutiert werden sollen, und zwar aus Sicht der Informationsethik. “Toward Beneficial Human-Level AI … and Beyond” thematisierte maschinelles Bewusstsein und “superintelligence” und das TalaMind-Projekt. Philip Jackson betonte, dieses “will help to achieve beneficial human-level AI and superintelligence” schneller und besser als andere Methoden. Andrew Williams sprach über “The Potential Social Impact of the Artificial Intelligence Divide”. Er fragte nach den Vorurteilen und Verzerrungen, die über KI verstärkt werden. Bei der abschließenden Diskussionsrunde war ein Thema der Zusammenhang zwischen natürlicher Sprache und menschlicher und maschineller Moral, ein anderes die Entwicklung des Arbeitsmarkts angesichts der Übernahme von Arbeit durch KI-Systeme und Roboter.

Abb.: Palmen an der Stanford University

AI and Society III

Das “AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” an der Stanford University ging am 27. März 2018 um 9.15 Uhr in die zweite Runde (oder in die dritte, wenn man die Halbtage zählt). Den Invited Talk hielt Emma Brunskill, Stanford University, zum Thema “Beyond Expected Reward: Considerations for Reinforcement Learning in High Stakes Domains”. Sie stellte die Frage, wie ein Agent aus Erfahrung lernen kann, gute Entscheidungen zu treffen, wenn die Erfahrung kostspielig oder risikobehaftet ist. Die Session “Applications and Interactive Agents” startete mit “Interactive Agent that Understands the User”. Piotr Gmytrasiewicz präsentierte ein assistierendes KI-System namens MARTHA. Emanuelle Burton stieß in “The Heart of the Matter” vor und fragte nach der “Patient Autonomy as a Model for the Wellbeing of Technology Users” (so der Untertitel). Sie stellte eine Case Study mit dem Titel “Joe the heart patient” vor. In “The Uncanny Return of Physiognomy” kritisierte Oliver Bendel neuere Verfahren der Gesichtserkennung, mit denen z.B. sexuelle Orientierungen und kriminelle Tendenzen festgestellt werden sollen, und ordnete sie Physiognomik, der Pseudowissenschaft von Lavater und Co. sowie Biometrik in ihrer unseriösen Form (in der Tradition von Peter Camper) zu.

Abb.: Auch am zweiten Tag war bestes Wetter in Stanford

AI and Society II

Nach dem Lunch ging es beim Symposium “AI and Society” am 26. März 2017 um 14.00 Uhr weiter mit der Session “Ethics and Moral Agents”. Umang Bhatt trug vor zum Thema “Maintaining The Humanity of Our Models”. Er ging auf eine Krankheitsdiagnose durch ein KI-System und später auf Obdachlose in L.A. ein und setzte dies in Beziehung zur Bias-Problematik. In “Ethics as Aesthetic for Artificial General Intelligence” stellte Dan Ventura die Frage: “How can we ensure an AI agent behaves ethically?” Er schlug den Schönheitssinn als Bestandteil der Metaethik vor. Rafal Rzepka betonte in “Importance of Contextual Knowledge in Artificial Moral Agents Development”, dass Fühlen, Beobachten und Zählen wichtig für moralisches Verhalten seien, wobei das Fühlen nicht die Domäne von Computern sei. Er setzt auf Geschichten als Grundlage für die Entscheidungen der Systeme. Abschließend fand die Discussion Session statt, moderiert von Venerable Tenzin Priyadashi und Judy Wajcman.

Abb.: Unter den Blüten an der Stanford University

Programme of AAAI Spring Symposium

The tentative schedule of AAAI 2018 Spring Symposium on AI and Society at Stanford University (26 – 28 March 2018) has been published. On Tuesday Emma Brunskill from Stanford University, Philip C. Jackson (“Toward Beneficial Human-Level AI … and Beyond”) and Andrew Williams (“The Potential Social Impact of the Artificial Intelligence Divide”) will give a lecture. Oliver Bendel will have two talks, one on “The Uncanny Return of Physiognomy” and one on “From GOODBOT to BESTBOT”. From the description on the website: “Artificial Intelligence has become a major player in today’s society and that has inevitably generated a proliferation of thoughts and sentiments on several of the  related issues. Many, for example, have felt the need to voice, in different ways and through different channels, their concerns on: possible undesirable outcomes caused by artificial agents, the morality of their use in specific sectors, such as the military, and the impact they will have on the labor market. The goal of this symposium is to gather a diverse group of researchers from many disciplines and to ignite a scientific discussion on this topic.” (AAAI website)

Fig.: On the campus of Stanford University

Über Wonder Woman und Fat Man

Was haben Wonder Woman und ein Lügendetektor gemeinsam? Warum schämen wir uns für andere Menschen? Kann die Sonne erlöschen? Wer war Mata Hari? Die Fragen bei “Beat the Prof” auf ZEIT ONLINE sind immer anregend, die Antworten oft verblüffend. Im Mai 2017 wurde ein neues Quiz freigeschaltet, und zwar zur Künstlichen Intelligenz. Die Fragen und Antworten erarbeitete der Informations- und Maschinenethiker Oliver Bendel, der in Zürich lebt und in Basel, Olten und Windisch an der Hochschule für Wirtschaft FHNW arbeitet. Enthalten ist u.a. eine Frage zum Fetter-Mann-Problem. Der bedauernswerte Unbeteiligte werde von einer Brücke auf ein Gleis gestoßen. Aber warum? Antwort 1: “Er wird getötet, damit andere auf dem Gleis überleben.” Antwort 2: “Er wird heruntergeschubst, damit die Brücke nicht einstürzt.” Antwort 3: “Er wird getötet, damit das Fetter-Mann-Problem entsteht.” Das Quiz kann über www.zeit.de/campus/2017-05/beat-the-prof-ethik-kuenstliche-intelligenz aufgerufen werden.

Abb.: Wonder Woman beim Schminken

Künstliche Intelligenz bei der Deutschen Telekom

“We love AI” nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: “Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.” (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: “Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.” Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.

Abb.: Die Telekom liebt KI

AI and Ethics

In his speech at the University of Zurich, Kaspar Etter (Stiftung für Effektiven Altruismus) discusses the relation between artificial intelligence and ethics. Some information from the advertising text: “We humans steer the future not because we’re the strongest or the fastest but because we’re the smartest animal on this planet. However, there are no reasons to assume that blind evolutionary processes have reached the physical limit of intelligence with us. Quite to the contrary, we have already seen how intelligent machines outperform the best of our kind on an increasing number of tasks, ranging from Chess over the quiz show Jeopardy to Go. What will happen when artificial intelligence surpasses human intelligence in a broader range and controls our destiny? Are we ready to make our final invention? And what is to be done from an ethical perspective?” (Website EA) The text continues: “In his talk, Kaspar Etter will cover the current state and trends in artificial intelligence, its present implications on our society and what is to be expected for the coming decades. You will also learn about a phenomenon called intelligence explosion and strategic considerations for approaching the challenges ahead of us.” (Website EA) The event will take place in KOL-F-117, May 26, 2016, at 7 pm.

Workshop zur Ethik der Künstlichen Intelligenz

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: “Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.” (Website Workshop) Zum Ziel des Workshops wird gesagt: “The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.” (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.

Abb.: Autonome Autos sind ein Thema des Workshops