Schlagworte: Artificial Intelligence

Wenn Algorithmen den Menschen diskriminieren

Das Handelsblatt titelt am 26. August 2018 mit den Worten “Wenn Algorithmen den Menschen diskriminieren”. Im Teaser des Beitrags von Hannah Steinharter und Michael Maisch heißt es: “Die Finanzbranche setzt enorme Hoffnungen auf die künstliche Intelligenz. Aber die Herrschaft der Maschinen führt zu ernsten ethischen Problemen.” Und im Haupttext: “Künstliche Intelligenz (KI) rechnet in der Finanzbranche nicht nur Versicherungsbeiträge aus. Mithilfe von Algorithmen überprüfen Banken und andere Finanzdienstleister die Kreditwürdigkeit ihrer Kunden, forschen nach Betrug und automatisieren quasi jeden Geschäftsbereich – von der Vermögensverwaltung bis zur Kontoeröffnung.” (Handelblatt, 26. August 2018) Befragt wurden zu dem Thema u.a. Raúl Rojas aus Berlin und Oliver Bendel aus Zürich. Der Artikel kann über www.handelsblatt.com/finanzen/banken-versicherungen/kuenstliche-intelligenz-wenn-algorithmen-den-menschen-diskriminieren/22949674.html abgerufen werden.

Abb.: Bekomme ich Kredit?

Beitrag über Nudging

“Beim Nudging (engl. ‘Anstoßen’, ‘Schubsen’ oder ‘Stupsen’) bewegt man jemanden auf mehr oder weniger subtile Weise dazu, etwas Bestimmtes einmalig oder dauerhaft zu tun oder zu lassen. Dabei können Voreinstellungen und Standards (Defaults) ebenso zum Einsatz kommen wie Produktinformationen und Warenpräsentationen. Angestrebt werden die Verhaltensänderungen der Personen und Gruppen etwa von Unternehmen oder vom Staat.” Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der Anfang August 2018 im Wirtschaftslexikon von Springer Gabler erschienen ist. Auch die Perspektive der Ethik wird eingenommen. Am Ende heißt es: “Manche Nudges führen u.U. nicht nur zu einer Verhaltens-, sondern auch zu einer Bewusstseinsänderung und einer Realitätsverschiebung. Wir lassen uns von sozialen Medien und Systemen der Künstlichen Intelligenz animieren und dirigieren, reagieren auf Lob und Tadel, akzeptieren Belohnungen und Geschenke, selbst wenn wir damit auf andere Druck ausüben und zu Gleichschaltung und Überwachung beitragen.” Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/nudging-99919 abgerufen werden.

Abb.: Auch eine Smartwatch ermöglicht Nudging

Understanding AI & Us

The international workshop “Understanding AI & Us” will take place in Berlin (Alexander von Humboldt Institute for Internet and Society) on 30 June 2018. It is hosted by Joanna Bryson (MIT), Janina Loh (University of Vienna), Stefan Ullrich (Weizenbaum Institute Berlin) and Christian Djeffal (IoT and Government, Berlin). Birgit Beck, Oliver Bendel and Pak-Hang Wong are invited to the panel on the ethical challenges of artificial intelligence. The aim of the workshop is to bring together experts from the field of research reflecting on AI. The event is funded by the Volkswagen Foundation (VolkswagenStiftung). The project “Understanding AI & Us” furthers and deepens the understanding of artificial intelligence (AI) in an interdisciplinary way. “This is done in order to improve the ways in which AI-systems are invented, designed, developed, and criticised.” (Invitation letter) “In order to achieve this, we form a group that merges different abilities, competences and methods. The aim is to provide space for innovative and out-of-the-box-thinking that would be difficult to pursue in ordinary academic discourse in our respective disciplines. We are seeking ways to merge different disciplinary epistemological standpoints in order to increase our understanding of the development of AI and its impact upon society.” (Invitation letter)

Fig.: The Humboldt Box in Berlin

Ethik und KI in Kalifornien

Die Technical Reports des AAAI 2018 Spring Symposium “AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” sind Ende April 2018 erschienen. Zum Download stehen u.a. bereit “From GOODBOT to BESTBOT” (Oliver Bendel), “The Uncanny Return of Physiognomy” (Oliver Bendel), “The Heart of the Matter: Patient Autonomy as a Model for the Wellbeing of Technology Users” (Emanuelle Burton et al.), “Trustworthiness and Safety for Intelligent Ethical Logical Agents via Interval Temporal Logic and Runtime Self-Checking” (Stefania Costantin et al.), “Ethical Considerations for AI Researchers” (Kyle Dent), “Interactive Agent that Understands the User” (Piotr Gmytrasiewicz et al.), “Toward Beneficial Human-Level AI … and Beyond” (Philip C. Jackson Jr.), “Towards Provably Moral AI Agents in Bottom-Up Learning Frameworks” (Nolan P. Shaw et al.), “An Architecture for a Military AI System with Ethical Rules” (Yetian Wang et al.) und “Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety” (Mark R. Waser et al.). Das Symposium fand vom 26. bis zum 28. März 2018 an der Stanford University statt. Für die Maschinenethik wie auch für Informationsethik und Roboterethik ist die Konferenzreihe seit Jahren eine der wichtigsten Plattformen weltweit.

Abb.: Eine Skulptur in San Francisco

AI and Society IV

Nach dem Mittagessen spannte Oliver Bendel beim Symposium “AI and Society” den Bogen “From GOODBOT to BESTBOT”. Sein BESTBOT-Projekt, das GOODBOT und LIEBOT zusammenführt, startete eine Woche vorher an der School of Business FHNW (der mit der Implementierung beauftragte Student ist David Studer). Der BESTBOT, ein Artefakt der Maschinenethik, soll Probleme des Benutzers auch über Gesichtserkennung identifizieren, was wiederum Probleme für den Benutzer schafft, die ebenfalls diskutiert werden sollen, und zwar aus Sicht der Informationsethik. “Toward Beneficial Human-Level AI … and Beyond” thematisierte maschinelles Bewusstsein und “superintelligence” und das TalaMind-Projekt. Philip Jackson betonte, dieses “will help to achieve beneficial human-level AI and superintelligence” schneller und besser als andere Methoden. Andrew Williams sprach über “The Potential Social Impact of the Artificial Intelligence Divide”. Er fragte nach den Vorurteilen und Verzerrungen, die über KI verstärkt werden. Bei der abschließenden Diskussionsrunde war ein Thema der Zusammenhang zwischen natürlicher Sprache und menschlicher und maschineller Moral, ein anderes die Entwicklung des Arbeitsmarkts angesichts der Übernahme von Arbeit durch KI-Systeme und Roboter.

Abb.: Palmen an der Stanford University

AI and Society III

Das “AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” an der Stanford University ging am 27. März 2018 um 9.15 Uhr in die zweite Runde (oder in die dritte, wenn man die Halbtage zählt). Den Invited Talk hielt Emma Brunskill, Stanford University, zum Thema “Beyond Expected Reward: Considerations for Reinforcement Learning in High Stakes Domains”. Sie stellte die Frage, wie ein Agent aus Erfahrung lernen kann, gute Entscheidungen zu treffen, wenn die Erfahrung kostspielig oder risikobehaftet ist. Die Session “Applications and Interactive Agents” startete mit “Interactive Agent that Understands the User”. Piotr Gmytrasiewicz präsentierte ein assistierendes KI-System namens MARTHA. Emanuelle Burton stieß in “The Heart of the Matter” vor und fragte nach der “Patient Autonomy as a Model for the Wellbeing of Technology Users” (so der Untertitel). Sie stellte eine Case Study mit dem Titel “Joe the heart patient” vor. In “The Uncanny Return of Physiognomy” kritisierte Oliver Bendel neuere Verfahren der Gesichtserkennung, mit denen z.B. sexuelle Orientierungen und kriminelle Tendenzen festgestellt werden sollen, und ordnete sie Physiognomik, der Pseudowissenschaft von Lavater und Co. sowie Biometrik in ihrer unseriösen Form (in der Tradition von Peter Camper) zu.

Abb.: Auch am zweiten Tag war bestes Wetter in Stanford

AI and Society II

Nach dem Lunch ging es beim Symposium “AI and Society” am 26. März 2017 um 14.00 Uhr weiter mit der Session “Ethics and Moral Agents”. Umang Bhatt trug vor zum Thema “Maintaining The Humanity of Our Models”. Er ging auf eine Krankheitsdiagnose durch ein KI-System und später auf Obdachlose in L.A. ein und setzte dies in Beziehung zur Bias-Problematik. In “Ethics as Aesthetic for Artificial General Intelligence” stellte Dan Ventura die Frage: “How can we ensure an AI agent behaves ethically?” Er schlug den Schönheitssinn als Bestandteil der Metaethik vor. Rafal Rzepka betonte in “Importance of Contextual Knowledge in Artificial Moral Agents Development”, dass Fühlen, Beobachten und Zählen wichtig für moralisches Verhalten seien, wobei das Fühlen nicht die Domäne von Computern sei. Er setzt auf Geschichten als Grundlage für die Entscheidungen der Systeme. Abschließend fand die Discussion Session statt, moderiert von Venerable Tenzin Priyadashi und Judy Wajcman.

Abb.: Unter den Blüten an der Stanford University

Programme of AAAI Spring Symposium

The tentative schedule of AAAI 2018 Spring Symposium on AI and Society at Stanford University (26 – 28 March 2018) has been published. On Tuesday Emma Brunskill from Stanford University, Philip C. Jackson (“Toward Beneficial Human-Level AI … and Beyond”) and Andrew Williams (“The Potential Social Impact of the Artificial Intelligence Divide”) will give a lecture. Oliver Bendel will have two talks, one on “The Uncanny Return of Physiognomy” and one on “From GOODBOT to BESTBOT”. From the description on the website: “Artificial Intelligence has become a major player in today’s society and that has inevitably generated a proliferation of thoughts and sentiments on several of the  related issues. Many, for example, have felt the need to voice, in different ways and through different channels, their concerns on: possible undesirable outcomes caused by artificial agents, the morality of their use in specific sectors, such as the military, and the impact they will have on the labor market. The goal of this symposium is to gather a diverse group of researchers from many disciplines and to ignite a scientific discussion on this topic.” (AAAI website)

Fig.: On the campus of Stanford University

Über Wonder Woman und Fat Man

Was haben Wonder Woman und ein Lügendetektor gemeinsam? Warum schämen wir uns für andere Menschen? Kann die Sonne erlöschen? Wer war Mata Hari? Die Fragen bei “Beat the Prof” auf ZEIT ONLINE sind immer anregend, die Antworten oft verblüffend. Im Mai 2017 wurde ein neues Quiz freigeschaltet, und zwar zur Künstlichen Intelligenz. Die Fragen und Antworten erarbeitete der Informations- und Maschinenethiker Oliver Bendel, der in Zürich lebt und in Basel, Olten und Windisch an der Hochschule für Wirtschaft FHNW arbeitet. Enthalten ist u.a. eine Frage zum Fetter-Mann-Problem. Der bedauernswerte Unbeteiligte werde von einer Brücke auf ein Gleis gestoßen. Aber warum? Antwort 1: “Er wird getötet, damit andere auf dem Gleis überleben.” Antwort 2: “Er wird heruntergeschubst, damit die Brücke nicht einstürzt.” Antwort 3: “Er wird getötet, damit das Fetter-Mann-Problem entsteht.” Das Quiz kann über www.zeit.de/campus/2017-05/beat-the-prof-ethik-kuenstliche-intelligenz aufgerufen werden.

Abb.: Wonder Woman beim Schminken

Künstliche Intelligenz bei der Deutschen Telekom

“We love AI” nennt sich ein neues Angebot der Deutschen Telekom im World Wide Web, das sich ganz der Künstlichen Intelligenz widmet. Jan Hofmann begrüßt die Besucher: “Wir sind überzeugt, dass künstliche Intelligenz nicht nur den Kundenservice verändern wird, sondern unsere gesamte Industrie – jede Industrie, unsere Gesellschaft und unser tägliches Leben.” (Website We love AI) Eines der ersten Interviews wurde mit dem Informations- und Maschinenethiker Oliver Bendel geführt. Er untersucht die Möglichkeit maschineller Moral und baut einfache moralische Maschinen als Artefakte, die er dann wiederum untersucht. Zu seinem neuesten Projekt innerhalb der Maschinenethik, das einen tierfreundlichen Saugroboter namens LADYBIRD zum Ziel hat, sagt er: “Mir geht es um das Prinzip. Mir geht es darum, zu zeigen, dass solche tierfreundlichen Maschinen möglich sind. Dass man zum Beispiel Entscheidungsbäume benutzen kann, um solche Maschinen zu bauen. In diese Entscheidungsbäume kann man moralische Begründungen einbeziehen. Das mit Ladybird ist ein sehr anschauliches Beispiel. Wir bauen eine Maschine, die bestimmte Farbsensoren hat, die über Muster- und Bilderkennung verfügt und tatsächlich den Marienkäfer erkennt und verschont. Ich will das Prinzip verdeutlichen: Es ist möglich, eine Maschine zu bauen, die bestimmten ethischen Modellen und moralischen Regeln folgt.” Das ganze Interview kann über www.we-love.ai/de/blog/post/Interview-OliverBendel.html aufgerufen werden.

Abb.: Die Telekom liebt KI

AI and Ethics

In his speech at the University of Zurich, Kaspar Etter (Stiftung für Effektiven Altruismus) discusses the relation between artificial intelligence and ethics. Some information from the advertising text: “We humans steer the future not because we’re the strongest or the fastest but because we’re the smartest animal on this planet. However, there are no reasons to assume that blind evolutionary processes have reached the physical limit of intelligence with us. Quite to the contrary, we have already seen how intelligent machines outperform the best of our kind on an increasing number of tasks, ranging from Chess over the quiz show Jeopardy to Go. What will happen when artificial intelligence surpasses human intelligence in a broader range and controls our destiny? Are we ready to make our final invention? And what is to be done from an ethical perspective?” (Website EA) The text continues: “In his talk, Kaspar Etter will cover the current state and trends in artificial intelligence, its present implications on our society and what is to be expected for the coming decades. You will also learn about a phenomenon called intelligence explosion and strategic considerations for approaching the challenges ahead of us.” (Website EA) The event will take place in KOL-F-117, May 26, 2016, at 7 pm.

Workshop zur Ethik der Künstlichen Intelligenz

Der Call for Papers zum Workshop ETHICS FOR ARTIFICIAL INTELLIGENCE bei der 25th International Joint Conference on Artificial Intelligence IJCAI-16 sollte Informations-, Maschinen- und Roboterethiker gleichermaßen interessieren. In der Beschreibung heißt es: “Recent progress in various subfields of AI has caused some researchers and pundits to raise concerns about the dangers that AI might ultimately pose. These concerns range from questions about the ethics of delegating to military drones the authority to decide when to attack human targets, up to fears about a possible existential risk posed by AI technologies … Much of the debate surrounding these issues has taken place in a scientific vacuum, uninformed by the experiences and insights of practicing AI researchers. Meanwhile, a wide range of other and sometimes less obvious ethical issues arise from current and proposed use of AI in diverse areas such as medicine, social care, autonomous trading agents and autonomous vehicles.” (Website Workshop) Zum Ziel des Workshops wird gesagt: “The aim of this workshop is to bring together … AI researchers and others interested in understanding how the discipline of AI should respond to these concerns. The workshop particularly aims to foster an active exchange of ideas between attendees from different disciplinary backgrounds to gain a better understanding of the ethical issues surrounding AI.” (Website Workshop) Die Konferenz findet vom 9. – 15. Juli 2016 in New York statt. Weitere Informationen über www.cs.ox.ac.uk/efai/call-for-papers/.

Abb.: Autonome Autos sind ein Thema des Workshops