Schlagworte: Stanford

Von Menlo Park bis Mountain View

Am 10. April 2017 besuchte die Delegation aus Studierenden und Dozierenden der FHNW im Rahmen von connectUS die Swisscom in Menlo Park und Microsoft in Mountain View. Für den Zuständigen der Swisscom ist das Silicon Valley ein Erfolgsmodell. Zugleich wurden aber auch offen die Probleme angesprochen, die etwa durch den Zuzug der Fachkräfte nach San Francisco entstehen. Bei der Weiterreise wurde u.a. kontrovers diskutiert, ob die disruptiven Technologien mehr Chancen oder mehr Risiken beinhalten. Microsoft empfing die Delegation mit offenen Armen. Nach einer Verköstigung und einem Vortrag zur Künstlichen Intelligenz von Jarek Kazmierczak probierte man die Microsoft HoloLens aus, eine Datenbrille im Bereich der Augmented bzw. Mixed Reality. Die Studentinnen und Studenten erzeugten einen riesenhaften, muskelbepackten Mann, ließen eine Baletttänzerin auf dem Kopf eines Professors tanzen und einen Goldfisch um die Beine einer Studentin schwimmen. Neben diesem Schabernack gibt es interessante Möglichkeiten für berufliche Anwendungen, sowohl in Konstruktion und Produktion als auch in Kommunikation, Kooperation und Kollaboration. Es wurden noch weitere Anwendungen ausprobiert, von historischen Videospielen bis hin zu modernen Computerspielen. Ein Besuch des Campus der Stanford University schloss den ereignis- und angesichts der Kontakte und Diskurse auch folgenreichen Tag ab.

Abb.: Schabernack mit der HoloLens

Maschinenethik an der Stanford University

Am 27. März 2017 begann um 9.00 Uhr das AAAI Spring Symposium “AI for Social Good”. Eingeführt wurde von Amulya Yadav (University of Southern California, CA, USA) und Fei Fang (Harvard University). Die ersten beiden Keynotes hielten Carla Gomes (Cornell University) und Henry Kautz (University of Rochester) zum Thema “AI for Sustainability and Public Health”. Ihre gemeinsame These lautete: “Two real, immediate existential threats facing humanity are, first, the exhaustion of the earth’s physical and biological resources, and second, global contagion. AI will play a major role fighting both threats.” (Website AISOC) Carla Gomes ging aus vom Begriff “computational sustainability” – es handele sich um ein neues interdisziplinäres Forschungsfeld, das darauf abziele, “computational methods for sustainable development” zu entwickeln. Ihr Anliegen ist es u.a., den Lebensraum von Bären und Vögeln zu schützen. Der Vortrag von Henry Kautz trug den Titel “Mining Social Media to Improve Public Health”. Die Benutzer sozialer Medien seien ein “organic sensor network”. Ein Projekt, das vorgestellt wurde, war Twitterflu. Ein anderes richtete sich gegen “foodborne illness” und trug den Namen nEmesis. Bei diesem werden ebenfalls Tweets ausgewertet, wie auch bei GeoDrink, wo das Trinkverhalten von Benutzern analysiert wird. Sechs weitere Zusammenfassungen der Vorträge des Symposiums, auch zur Maschinenethik, finden sich auf maschinenethik.net (beginnend mit einem Beitrag vom 27. März).

Abb.: Frühling in Stanford

AI for Social Good

Vom 28. bis zum 30. März 2017 findet das AAAI 2017 Spring Symposium “AI for Social Good (AISOC)” an der Stanford University statt. Aus dem Call for Papers: “A rise in real-world applications of AI has stimulated significant interest from the public, media, and policy makers, including the White House Office of Science and Technology Policy (OSTP). Along with this increasing attention has come media-fueled concerns about purported negative consequences of AI, which often overlooks the societal benefits that AI is delivering and can deliver in the near future. This symposium will focus on the promise of AI across multiple sectors of society. We seek to bring together AI researchers and researchers/practitioners/experts/policy makers from a wide variety of domains.” (Website AISOC) Es tragen vor allem Forscherinnen und Forscher aus den USA vor, aber auch aus Holland und der Schweiz. Oliver Bendel von der Hochschule für Wirtschaft FHNW ist mit zwei Beiträgen mit dabei, mit “Towards Kant Machines” (zusammen mit Kevin Schwegler und Bradley Richards, die nicht vor Ort sein können) und “LADYBIRD: the Animal-Friendly Robot Vacuum Cleaner”. Damit ist auch die Maschinenethik beim KI-Symposium vertreten. Weitere Informationen über scf.usc.edu/~amulyaya/AISOC17/index.html.

Abb.: Gedenktafel für Alan Turing in San Francisco

Mit Robotern töten?

“Darf die Polizei mit Robotern töten?” Dies ist der Titel eines Beitrags, der am 9. Juli 2016 auf Spiegel Online erschienen ist. “Nachdem ein Roboter den mutmaßlichen Heckenschützen von Dallas getötet hat, werden unbequeme Fragen laut: Wie und warum ist die Entscheidung gefallen? Bricht mit dem Einsatz von ferngesteuerten Maschinen in der Polizeiarbeit eine neue Ära an? Ist der Einsatz von tötenden Maschinen ethisch vertretbar und – wollen die USA das?” (SPON, 9. Juli 2016) Zu Wort kommt u.a. Peter Asaro, der im März 2016 in Stanford zum Symposium zur Maschinenethik beigetragen und auch in der Roboterethik als Disziplin, die nach den Konsequenzen des Einsatzes von automatischen und autonomen Maschinen fragt, einen Namen hat. Gegenüber Bloomberg äußerte er: “Sobald das zu einem Standardverfahren wird, wird es auch in anderen Situationen eingesetzt werden, die nicht so deutlich sind wie dieser Fall.” (SPON, 9. Juli 2016) Der Jurist Stoughton wies gegenüber dem gleichen Nachrichtendienst darauf hin, dass sich, ob bei Schusswaffen oder Elektroschockern, jedes Mal die Frage des angemessenen Einsatzes gestellt habe. “Ich glaube, wir werden ähnliche Gespräche über Roboter haben, die den Tod bringen.” (SPON, 9. Juli 2016)

Abb.: Wer hat die Waffe in der Hand?

Tagungsband zur Maschinenethik

Im März 2016 ist der Proceedingsband “The 2016 AAAI Spring Symposium Series: Technical Reports” erschienen, in der AAAI Press (Palo Alto 2016). Die KI-Konferenz fand an der Stanford University statt. Zur Maschinenethik (Symposium “Ethical and Moral Considerations in Non-Human Agents”) referierten u.a. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) und Oliver Bendel (Hochschule für Wirtschaft FHNW). Auf den Seiten 195 bis 201 findet sich der Beitrag “Annotated Decision Trees for Simple Moral Machines” von Oliver Bendel. Im Abstract heißt es: “Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.” Der Tagungsband kann über www.aaai.org bestellt werden.

Abb.: Auf dem Stanford-Campus

Konferenz zur Maschinenethik

Beim Workshop “Ethical and Moral Considerations in Non-Human Agents” an der Stanford University vom 21. bis 23. März 2016 im Rahmen der AAAI Spring Symposia erklärte Ron Arkin (Georgia Institute of Technology, USA) in seiner Keynote “Robots that Need to Mislead: Biologically Inspired Machine Deception”, wie Tiere täuschen und wie man Maschinen beibringen kann, andere zu täuschen. Er ging auch auf die Möglichkeit ein, dass Roboter lügen, und stellte die Frage: “Should a robot be allowed to lie?” Elizabeth Kinne und Georgi Stojanov thematisierten in “Grounding Drones‘ Ethical Use Reasoning” die Chancen und Risiken von Kampfdrohnen. Sie präsentierten Szenarien, um die Probleme beim Einsatz zu vergegenwärtigen. Die Verantwortlichen könnten dazu neigen, immer mehr heikle Entscheidungen den Robotern zu überlassen. Der Vortrag “Metaethics in context of engineering ethical and moral systems” von Michal Klincewicz und Lily Frank, bereits nach der Kaffeepause, fragte nach den grundsätzlichen Möglichkeiten und Unmöglichkeiten moralischer Systeme. Oliver Bendel ging auf das LIEBOT-Projekt ein. An der Hochschule für Wirtschaft FHNW wird 2016 im Rahmen einer Bachelor-Arbeit ein Chatbot programmiert, der konsequent die Unwahrheit sagt. Vor allem stellte der Wissenschaftler aber einen annotierten Entscheidungsbaum für eine einfache moralische Maschine vor, ein tierfreundliches Roboterauto. “The artificial autonomous moral agents (AAMA): a minimalist model” war der letzte Vortrag vor dem Lunch. Ioan Muntean schlug in “The artificial autonomous moral agents (AAMA): a minimalist model” einen Ansatz der Tugendethik vor, den er zusammen mit Don Howard erarbeitet hatte. Bis zum Mittwoch tauschte man sich zur Maschinenethik und zur Roboterethik aus. Die letzte Keynote (“Programming Machine Ethics”) hielt Kumar Pandey von Aldebaran Robotics (SoftBank Group). Der Proceedingsband “The 2016 AAAI Spring Symposium Series: Technical Reports SS-16-01 – SS-16-07″ kann über www.aaai.org/Press/Reports/Symposia/Spring/ss-16.php bezogen werden.

Abb.: Sicherheitsdienst in Roboterform in der Shopping Mall von Stanford