Schlagworte: AI and Society

AI and Society IV

Nach dem Mittagessen spannte Oliver Bendel beim Symposium “AI and Society” den Bogen “From GOODBOT to BESTBOT”. Sein BESTBOT-Projekt, das GOODBOT und LIEBOT zusammenführt, startete eine Woche vorher an der School of Business FHNW (der mit der Implementierung beauftragte Student ist David Studer). Der BESTBOT, ein Artefakt der Maschinenethik, soll Probleme des Benutzers auch über Gesichtserkennung identifizieren, was wiederum Probleme für den Benutzer schafft, die ebenfalls diskutiert werden sollen, und zwar aus Sicht der Informationsethik. “Toward Beneficial Human-Level AI … and Beyond” thematisierte maschinelles Bewusstsein und “superintelligence” und das TalaMind-Projekt. Philip Jackson betonte, dieses “will help to achieve beneficial human-level AI and superintelligence” schneller und besser als andere Methoden. Andrew Williams sprach über “The Potential Social Impact of the Artificial Intelligence Divide”. Er fragte nach den Vorurteilen und Verzerrungen, die über KI verstärkt werden. Bei der abschließenden Diskussionsrunde war ein Thema der Zusammenhang zwischen natürlicher Sprache und menschlicher und maschineller Moral, ein anderes die Entwicklung des Arbeitsmarkts angesichts der Übernahme von Arbeit durch KI-Systeme und Roboter.

Abb.: Palmen an der Stanford University

AI and Society III

Das “AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” an der Stanford University ging am 27. März 2018 um 9.15 Uhr in die zweite Runde (oder in die dritte, wenn man die Halbtage zählt). Den Invited Talk hielt Emma Brunskill, Stanford University, zum Thema “Beyond Expected Reward: Considerations for Reinforcement Learning in High Stakes Domains”. Sie stellte die Frage, wie ein Agent aus Erfahrung lernen kann, gute Entscheidungen zu treffen, wenn die Erfahrung kostspielig oder risikobehaftet ist. Die Session “Applications and Interactive Agents” startete mit “Interactive Agent that Understands the User”. Piotr Gmytrasiewicz präsentierte ein assistierendes KI-System namens MARTHA. Emanuelle Burton stieß in “The Heart of the Matter” vor und fragte nach der “Patient Autonomy as a Model for the Wellbeing of Technology Users” (so der Untertitel). Sie stellte eine Case Study mit dem Titel “Joe the heart patient” vor. In “The Uncanny Return of Physiognomy” kritisierte Oliver Bendel neuere Verfahren der Gesichtserkennung, mit denen z.B. sexuelle Orientierungen und kriminelle Tendenzen festgestellt werden sollen, und ordnete sie Physiognomik, der Pseudowissenschaft von Lavater und Co. sowie Biometrik in ihrer unseriösen Form (in der Tradition von Peter Camper) zu.

Abb.: Auch am zweiten Tag war bestes Wetter in Stanford

AI and Society I

Das Symposium “AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” an der Stanford University begann am 26. März 2018 um 9 Uhr. Den Invited Talk hielt Vince Conitzer, Duke University, über “Moral Artificial Intelligence, Kidney Exchanges, and Societal Tradeoffs”. Er diskutierte ausführlich das Parking Game. Sodann stellte er die Moral Machine des MIT vor und ging auf einen “kidney exchange algorithm” und “underdemanded pairs” ein. Von 11.00 bis 12.30 Uhr fand die Session “Moral Decision Making” statt. In “Towards Provably Moral AI Agents in Bottom-up Learning Frameworks” forderten Nolan P. Shaw und Ryan W. Orr “robustness”, “simplicity”, “consistence” und “universality” von ihren moralischen Maschinen; diese sollen über neuronale Netzwerke von moralischen Agenten aller Art lernen. In “A Military AI System with Ethical Rules” brachte Yetian Wang Knowledge Representation und Machine Learning zusammen. Der letzte Vortrag vor dem Mittagessen – das man in den Cafés der Umgebung bei Bilderbuchwetter einnahm – war “Preferences and Ethical Principles in Decision Making”. Das Thema von Kristen Brent Venable waren CP-Nets.

Abb.: Das Wahrzeichen der Stanford University