Schlagworte: AAAI Spring Symposium

AI and Society IV

Nach dem Mittagessen spannte Oliver Bendel beim Symposium “AI and Society” den Bogen “From GOODBOT to BESTBOT”. Sein BESTBOT-Projekt, das GOODBOT und LIEBOT zusammenführt, startete eine Woche vorher an der School of Business FHNW (der mit der Implementierung beauftragte Student ist David Studer). Der BESTBOT, ein Artefakt der Maschinenethik, soll Probleme des Benutzers auch über Gesichtserkennung identifizieren, was wiederum Probleme für den Benutzer schafft, die ebenfalls diskutiert werden sollen, und zwar aus Sicht der Informationsethik. “Toward Beneficial Human-Level AI … and Beyond” thematisierte maschinelles Bewusstsein und “superintelligence” und das TalaMind-Projekt. Philip Jackson betonte, dieses “will help to achieve beneficial human-level AI and superintelligence” schneller und besser als andere Methoden. Andrew Williams sprach über “The Potential Social Impact of the Artificial Intelligence Divide”. Er fragte nach den Vorurteilen und Verzerrungen, die über KI verstärkt werden. Bei der abschließenden Diskussionsrunde war ein Thema der Zusammenhang zwischen natürlicher Sprache und menschlicher und maschineller Moral, ein anderes die Entwicklung des Arbeitsmarkts angesichts der Übernahme von Arbeit durch KI-Systeme und Roboter.

Abb.: Palmen an der Stanford University

AI and Society III

Das “AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” an der Stanford University ging am 27. März 2018 um 9.15 Uhr in die zweite Runde (oder in die dritte, wenn man die Halbtage zählt). Den Invited Talk hielt Emma Brunskill, Stanford University, zum Thema “Beyond Expected Reward: Considerations for Reinforcement Learning in High Stakes Domains”. Sie stellte die Frage, wie ein Agent aus Erfahrung lernen kann, gute Entscheidungen zu treffen, wenn die Erfahrung kostspielig oder risikobehaftet ist. Die Session “Applications and Interactive Agents” startete mit “Interactive Agent that Understands the User”. Piotr Gmytrasiewicz präsentierte ein assistierendes KI-System namens MARTHA. Emanuelle Burton stieß in “The Heart of the Matter” vor und fragte nach der “Patient Autonomy as a Model for the Wellbeing of Technology Users” (so der Untertitel). Sie stellte eine Case Study mit dem Titel “Joe the heart patient” vor. In “The Uncanny Return of Physiognomy” kritisierte Oliver Bendel neuere Verfahren der Gesichtserkennung, mit denen z.B. sexuelle Orientierungen und kriminelle Tendenzen festgestellt werden sollen, und ordnete sie Physiognomik, der Pseudowissenschaft von Lavater und Co. sowie Biometrik in ihrer unseriösen Form (in der Tradition von Peter Camper) zu.

Abb.: Auch am zweiten Tag war bestes Wetter in Stanford

AI and Society II

Nach dem Lunch ging es beim Symposium “AI and Society” am 26. März 2017 um 14.00 Uhr weiter mit der Session “Ethics and Moral Agents”. Umang Bhatt trug vor zum Thema “Maintaining The Humanity of Our Models”. Er ging auf eine Krankheitsdiagnose durch ein KI-System und später auf Obdachlose in L.A. ein und setzte dies in Beziehung zur Bias-Problematik. In “Ethics as Aesthetic for Artificial General Intelligence” stellte Dan Ventura die Frage: “How can we ensure an AI agent behaves ethically?” Er schlug den Schönheitssinn als Bestandteil der Metaethik vor. Rafal Rzepka betonte in “Importance of Contextual Knowledge in Artificial Moral Agents Development”, dass Fühlen, Beobachten und Zählen wichtig für moralisches Verhalten seien, wobei das Fühlen nicht die Domäne von Computern sei. Er setzt auf Geschichten als Grundlage für die Entscheidungen der Systeme. Abschließend fand die Discussion Session statt, moderiert von Venerable Tenzin Priyadashi und Judy Wajcman.

Abb.: Unter den Blüten an der Stanford University

AI and Society I

Das Symposium “AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” an der Stanford University begann am 26. März 2018 um 9 Uhr. Den Invited Talk hielt Vince Conitzer, Duke University, über “Moral Artificial Intelligence, Kidney Exchanges, and Societal Tradeoffs”. Er diskutierte ausführlich das Parking Game. Sodann stellte er die Moral Machine des MIT vor und ging auf einen “kidney exchange algorithm” und “underdemanded pairs” ein. Von 11.00 bis 12.30 Uhr fand die Session “Moral Decision Making” statt. In “Towards Provably Moral AI Agents in Bottom-up Learning Frameworks” forderten Nolan P. Shaw und Ryan W. Orr “robustness”, “simplicity”, “consistence” und “universality” von ihren moralischen Maschinen; diese sollen über neuronale Netzwerke von moralischen Agenten aller Art lernen. In “A Military AI System with Ethical Rules” brachte Yetian Wang Knowledge Representation und Machine Learning zusammen. Der letzte Vortrag vor dem Mittagessen – das man in den Cafés der Umgebung bei Bilderbuchwetter einnahm – war “Preferences and Ethical Principles in Decision Making”. Das Thema von Kristen Brent Venable waren CP-Nets.

Abb.: Das Wahrzeichen der Stanford University

Maschinenethik an der Stanford University

Am 27. März 2017 begann um 9.00 Uhr das AAAI Spring Symposium “AI for Social Good”. Eingeführt wurde von Amulya Yadav (University of Southern California, CA, USA) und Fei Fang (Harvard University). Die ersten beiden Keynotes hielten Carla Gomes (Cornell University) und Henry Kautz (University of Rochester) zum Thema “AI for Sustainability and Public Health”. Ihre gemeinsame These lautete: “Two real, immediate existential threats facing humanity are, first, the exhaustion of the earth’s physical and biological resources, and second, global contagion. AI will play a major role fighting both threats.” (Website AISOC) Carla Gomes ging aus vom Begriff “computational sustainability” – es handele sich um ein neues interdisziplinäres Forschungsfeld, das darauf abziele, “computational methods for sustainable development” zu entwickeln. Ihr Anliegen ist es u.a., den Lebensraum von Bären und Vögeln zu schützen. Der Vortrag von Henry Kautz trug den Titel “Mining Social Media to Improve Public Health”. Die Benutzer sozialer Medien seien ein “organic sensor network”. Ein Projekt, das vorgestellt wurde, war Twitterflu. Ein anderes richtete sich gegen “foodborne illness” und trug den Namen nEmesis. Bei diesem werden ebenfalls Tweets ausgewertet, wie auch bei GeoDrink, wo das Trinkverhalten von Benutzern analysiert wird. Sechs weitere Zusammenfassungen der Vorträge des Symposiums, auch zur Maschinenethik, finden sich auf maschinenethik.net (beginnend mit einem Beitrag vom 27. März).

Abb.: Frühling in Stanford