11. Ulmer Robotertag

Der “11. Ulmer Robotertag” beleuchtet “Roboter in der digitalen Transformation”. “Als digitale Transformation oder digitaler Wandel wird ein auf digitalen Technologien basierender Veränderungsprozess der Gesellschaft bezeichnet, welcher starken Einfluss auf die industrielle Produktion nimmt.” (Flyer 11. Ulmer Robotertag) Verbunden mit dem digitalen Wandel seien große Chancen wie zum Beispiel effizientere Produktionsprozesse und Abläufe, aber auch neue Herausforderungen, beispielsweise durch den notwendigen radikalen Strukturwandel. “Als eine Schlüsseltechnologie für die digitale Produktionstransformation werden hierbei Industrie- und Serviceroboter verstanden. Um das Verständnis wie auch den Transfer in der Region zu stärken, widmet sich der diesjährige 11. Ulmer Robotertag diesem Thema. Die Veranstaltung wird in bewährter Weise in Zusammenarbeit von Hochschule Ulm und Mitsubishi Electric Europe durchgeführt.” (Flyer 11. Ulmer Robotertag) Dr. Alexander Hildebrandt (Festo AG & Co. KG) widmet sich der “Druckluft als Antriebsmedium für die Robotik”, Prof. Dr. Christian Schlegel (Hochschule Ulm) der “Servicerobotik in der Intralogistik”, um nur zwei Vorträge herauszugreifen. Im vergangenen Jahr hatte Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) bei der Jubiläumsveranstaltung zum Thema “Kollege und Kollegin Roboter – schöne neue Welt!” vorgetragen. Weitere Informationen über de3a.mitsubishielectric.com/UlmerRobotertag.

Abb.: Der Münsterplatz

Wo fängt die Arbeit an, wo hört sie auf?

In der Neuen Osnabrücker Zeitung ist am 25. April 2018 der Artikel “Robotersteuer: Ökonomen sind skeptisch” erschienen. Im Teaser heißt es: “DHL-Chef Frank Appel und Microsoft-Gründer Bill Gates zählen zu den Befürwortern dieser Idee. Doch Ökonomen sind skeptisch.” Thomas Straubhaar von der Universität Hamburg wird mit den Worten zitiert: “Der Roboter ist nicht der Feind des Menschen, sondern sein Freund.” “Die Maschine helfe den Arbeitnehmern, produktiver zu werden.» (NOZ, 25. April 2018) Der Wirtschaftsinformatiker Oliver Bendel von der Fachhochschule Nordwestschweiz gibt laut NOZ zu bedenken, dass bei einer Robotersteuer schwierige Unterscheidungen zu treffen sein werden: “Sprechen wir nur von Hardware- oder auch von Softwarerobotern? Reden wir nur über Fabrikarbeit?” “Problematisch sei außerdem, dass moderne Roboter oft vernetzte Systeme seien.” Und: “Sogenannte Kooperations- und Kollaborationsroboter arbeiteten ganz eng mit Menschen zusammen. Das sei ein Problem für die Berechnung einer Steuer: Wo fängt die Arbeit des Roboters an, wo hört sie auf?” (NOZ, 25. April 2018) Der Artikel kann über www.noz.de/deutschland-welt/wirtschaft/artikel/1198722/robotersteuer-oekonomen-sind-skeptisch aufgerufen werden.

Abb.: Ein Roboter in der Fabrik

Können Roboter Gefühle entwickeln?

Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.” Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.

Abb.: Robben haben Gefühle, Roboter nicht

Ethik und KI in Kalifornien

Die Technical Reports des AAAI 2018 Spring Symposium “AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” sind Ende April 2018 erschienen. Zum Download stehen u.a. bereit “From GOODBOT to BESTBOT” (Oliver Bendel), “The Uncanny Return of Physiognomy” (Oliver Bendel), “The Heart of the Matter: Patient Autonomy as a Model for the Wellbeing of Technology Users” (Emanuelle Burton et al.), “Trustworthiness and Safety for Intelligent Ethical Logical Agents via Interval Temporal Logic and Runtime Self-Checking” (Stefania Costantin et al.), “Ethical Considerations for AI Researchers” (Kyle Dent), “Interactive Agent that Understands the User” (Piotr Gmytrasiewicz et al.), “Toward Beneficial Human-Level AI … and Beyond” (Philip C. Jackson Jr.), “Towards Provably Moral AI Agents in Bottom-Up Learning Frameworks” (Nolan P. Shaw et al.), “An Architecture for a Military AI System with Ethical Rules” (Yetian Wang et al.) und “Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety” (Mark R. Waser et al.). Das Symposium fand vom 26. bis zum 28. März 2018 an der Stanford University statt. Für die Maschinenethik wie auch für Informationsethik und Roboterethik ist die Konferenzreihe seit Jahren eine der wichtigsten Plattformen weltweit.

Abb.: Eine Skulptur in San Francisco

Der Blick der Schweiz auf die Maschinenethik

In seiner Keynote auf der “Minds Mastering Machines” in Köln am 25. April 2018 hat Oliver Bendel die Teilnehmerinnen und Teilnehmer auf eine Reise mitgenommen, u.a. nach Prag, Krakau, Stanford, Fort Lauderdale und Wien. Auf Konferenzen, die dort stattfanden, präsentierte er in den letzten Jahren Konzepte und Artefakte der Maschinenethik. In Prag waren es das Roboterauto-Problem und die dazugehörige quantifizierende und qualifizierende Formel, die 2012 entwickelt wurden, in Stanford ab 2016 ein tierfreundliches Auto, ein tierfreundlicher Staubsaugerroboter und gute und böse Chatbots. In Krakau diskutierte er mit Ron Arkin vom Georgia Tech auf dem Podium, ob man betrügerische Roboter bauen darf. Eine Teilnehmerin der Konferenz, Shirin Glander, protokollierte in Köln mit und twitterte das Ergebnis über @ShirinGlander … Sie hat in ihrer Zeichnung sozusagen den Blick der Schweiz auf die Maschinenethik eingefangen. “Die Minds Mastering Machines wendet sich mit ihrem technischen Fokus an Softwareentwickler und -architekten, Data Scientists, Projekt- und Teamleiter sowie Forscher.” (Website MMM)

Abb.: Die Zeichnung von Shirin Glander

Über die Schönheit weiblicher Roboter

Die Hersteller humanoider Roboter ahmen gerne Frauen nach. Es gibt mehrere Gründe dafür, und manche hat auch Hiroshi Ishiguro genannt, der in Wien bei der Konferenz “Robophilosophy” neben Joanna Bryson und Oliver Bendel eine Keynote gegeben hat. Frauen wirken, so eine Annahme, vertrauenswürdiger und anziehender auf uns als Männer. Gerade Kinder erschrecken nicht vor ihnen, selbst wenn es gar keine Menschen sind. Eine andere Annahme ist, dass Frauen und ihre künstlichen Ebenbilder vieles gemeinsam haben, weil Frauen selbst künstliche Elemente in sich und auf sich tragen. Die meisten Frauen schminken sich, überdecken Unreinheiten und Farbveränderungen, entfernen Haare, manche korrigieren scheinbare Mängel und Fehler mit Hilfe von Einspritzungen und Schönheitsoperationen. Tatsächlich sehen manche Frauen, die viel an sich gemacht haben und haben machen lassen, ein wenig aus wie Roboter, und genau das ist günstig für die Hersteller. Das Resultat sind Maschinen wie Sophia und Erica (die von Ishiguro geschaffen wurde). Sie sind künstliche Geschöpfe, gestaltet nach der künstlichen Schönheit der Frau. Dass es auch anders geht, zeigt ein männlicher humanoider Roboter, der Werbung für “Westworld” macht. Mit viel Akribie hat man ihm Haare verpasst, auf den Armen, im Gesicht, kleine Warzen und Male. Gerade dadurch sieht er besonders real (und interessant) aus. Es wäre an der Zeit, einen weiblichen Roboter zu schaffen, der sich an der natürlichen Schönheit der Frau orientiert. Nicht, um das eine oder das andere Verhalten zu kritisieren, sondern um Stereotype aufzubrechen. Künstlerisch und technisch möglich ist das allemal. Ishiguros Geminoid ist übrigens ein eigener Fall. Er orientiert sich an der künstlichen Schönheit des Mannes.

Abb.: Roboter können Stereotype festigen und aufbrechen

Diskussion um die elektronische Person

Haben Roboter Rechte bzw. soll man sie mit Rechten ausstatten? Die eine Frage ist ethisch, die andere rechtlich deutbar. Oliver Bendel hält als Ethiker nichts von Rechten für Roboter. Dies können weder empfinden noch leiden, sie haben kein Bewusstsein, sie sind keine echten Personen, aber auch keine echten Lebewesen. Im Zivilrecht kann man, so seine Meinung, ohne weiteres eine elektronische Person konstruieren, die man verklagen kann und die dann haften muss (etwa über ein Budget, das sie hat, oder einen Fonds, mit dem sie verbunden ist). Einerseits ist das die Lösung für das Problem, dass sich in vielen Fällen kaum mehr eindeutig verantwortliche natürliche oder juristische Personen ausmachen lassen. Andererseits eben nicht, denn woher sollte das Geld kommen – wenn nicht von natürlichen und juristischen Personen, die mit dem Roboter in irgendeiner Verbindung stehen? Und bei selbstlernenden Systemen wie Tay wird es vollends kompliziert, wobei dieser Fall ins Strafrechtliche hineinreicht. Eine Gruppe von KI-Forschern, Philosophen, Theologen und Rechtswissenschaftlern hat sich in einem offenen Brief gegen die Schaffung des Status einer elektronischen Person gewandt, wie eine Arbeitsgruppe des Europäischen Parlaments sie dieses Jahr vorgeschlagen hat. Der Artikel “Streit um Rechte von Robotern” stellt die unterschiedlichen Positionen dar. Er ist am 21. April 2018 in der Aargauer Zeitung erschienen und kann über www.aargauerzeitung.ch/leben/forschung-technik/streit-um-rechte-von-robotern-wer-haftet-wenn-etwas-schief-geht-132457958 aufgerufen werden.

Abb.: Braucht es eine elektronische Person?

Black Ducks

Eine kleine schwarze Ente ist seit vielen Jahren das Favicon der Website von Oliver Bendel. Die NZZ schreibt in einem Beitrag vom 20. April 2018: “Als schwarze Enten werden im Arabischen schwarze Schafe, also ausgegrenzte Gruppenmitglieder bezeichnet.” (NZZ, 20. April 2018) In “Jenseits von Himmel und Hölle” von Daniel Steinvorth geht es um eine Sendung auf YouTube, die von den Betreibern wie folgt beschrieben wird: “Black Ducks is a talk show on YouTube that interviews atheists, humanists, and non-religious individuals from the Arab world … to achieve a secular society in the Middle East and North Africa. Another goal is to offer solace and courage to those who are atheists and humanists in secret so they may know they are not alone in the world.” (YouTube-Channel The Black Ducks) Die Betreiber und Mitwirkenden, die sich Vernunft und Aufklärung verschrieben haben, setzen sich Lebensgefahr aus. Der Gründer der Sendung, Ismail Mohamed, wurde in Alexandria fast erschossen und in Kairo vom Mob bedrängt und mit dem Messer bedroht. Im Teaser des NZZ-Beitrags heißt es: “Wer in der arabischen Welt nicht an Gott glaubt, gilt wahlweise als Extremist oder als psychisch gestört. Auch in Ägypten steht Atheismus womöglich bald unter Strafe.” Am Rande sind Begriffe und Methoden von Wirtschafts- und Informationsethik gefragt: “2015 bewirkte eine Beschwerde gegenüber Google …, dass die Sendung zweimal für mehrere Monate eingestellt werden musste. Mohamed verlor auf einen Schlag seine Follower und seine Werbeeinnahmen …” (NZZ, 20. April 2018)

Abb.: Eine kleine gelbe Ente in Sevilla

Pro und Contra zur Robotersteuer

“Wenn immer mehr Roboter statt Menschen arbeiten, wer zahlt dann eigentlich noch Steuern? Die Roboter! Das hat zumindest Bill Gates vorgeschlagen und damit eine interessante Diskussion um die Zukunft der Arbeit angeregt. Neue Technologien verändern unsere Arbeitswelt nachhaltig: Psychologen beraten uns über Skype, Architekten entwickeln Baupläne für Berlin-Mitte in einem Coworking-Space in Thailand und nette Roboterdamen beantworten unsere Fragen am Flughafen. Und das ist nur der Anfang.” (Netzpiloten, 18. April 2018) Mit diesen Worten beginnt ein Artikel von Marinela Potor im Magazin der Netzpiloten vom 18. April 2018. Das Thema ist die Robotersteuer, die von Bill Gates, wie gesagt, befürwortet und von Oliver Bendel, der im Beitrag zu Wort kommt, kritisch gesehen wird. Er ist dafür, alle Konzepte zu diskutieren, die dazu beitragen können, den Lebensunterhalt der Menschen zu sichern. Aber die Robotersteuer, so seine Meinung, könnte technische, wirtschaftliche und gesellschaftliche Entwicklungen behindern und sei praktisch nur schwer umzusetzen, was nicht zuletzt an der Unterschiedlichkeit und der Vernetztheit der Systeme liege. Der Artikel mit dem Titel “Sollten Roboter Steuern zahlen?” kann über www.netzpiloten.de/robotersteuer-arbeitsplaetze-steuereinnahmen/ aufgerufen werden.

Abb.: Nao will keine Steuern zahlen

Der Niedergang der Sexualwissenschaft

Die Deutsche Presse-Agentur (dpa) war vor einiger Zeit im Gespräch mit Oliver Bendel, für den Beitrag “Sexroboter – Hype oder Trend?”. Am Rande erwähnte der Informations- und Maschinenethiker aus Zürich, dass die Sexualwissenschaft in Deutschland kaum noch eine Bedeutung habe. Nach seiner Einschätzung tut man sich an den Hochschulen schwer mit dem Thema. Die dpa ging dem Hinweis nach und verfasste einen Beitrag, der in der ÄrzteZeitung veröffentlicht wurde. Im Teaser heißt es: “Deutschland hat nur zwei große sexualwissenschaftliche Zentren. Der Westen sei geradezu prüde bei dem Thema, bemängeln Forscher – dabei würden sexuelle Krankheiten medizinisch oft auf andere Probleme hindeuten.” (ÄrzteZeitung, 12. Februar 2018) “Die aktuelle Situation in Deutschland ist ein Armutszeugnis”, wird Heinz-Jürgen Voß von der Gesellschaft für Sexualwissenschaft zitiert. “Überall dort, wo Menschen mit Menschen zu tun haben, in Kitas, Schulen, Einrichtungen der Sozialen Arbeit sowie Bildungseinrichtungen für Erwachsene, spielten Fragen zu Körper, Geschlecht und Sexualität eine Rolle.” Das bedeutet, so Voß, “dass Fachkräfte ausgebildet sein sollten, professionell mit den entsprechenden Fragen umzugehen” (ÄrzteZeitung, 12. Februar 2018). Der Artikel “Sex auf dem Abstellgleis” ist über www.aerztezeitung.de/panorama/article/957332/50-jahre-nach-1968-sex-abstellgleis.html abrufbar.

Abb.: Der Niedergang der Sexualwissenschaft

Die Rechte von Sophia

Haben Roboter Rechte? Dieser Frage geht Oliver Bendel in der Zeitschrift Edison nach, in der Ausgabe 2/2018. Die zuständige Disziplin ist die Roboterethik (bzw. die Roboterphilosophie). Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Er erwähnt in “Haben Roboter Rechte?” auch Sophia, den humanoiden Roboter, dem in Saudi-Arabien die Staatsbürgerschaft verliehen wurde. Ihr wird in Edison auch ein eigener Beitrag gewidmet. Das Magazin kann über edison-magazin.handelsblatt.com/epaper/13.04.2018 bestellt werden.

Abb.: Haben Roboter Rechte?

Warhol in der Wüste

Im Palm Springs Art Museum findet derzeit die Ausstellung “Andy Warhol: Prints from the Collections of Jordan D. Schnitzer and His Family Foundation” statt. Auf der Website des Museums ist zu lesen: “This retrospective encompasses over 250 works on loan from Schnitzer’s comprehensive collection, and establishes Warhol’s graphic production as it evolved over four decades.” In seiner Autobiografie “POPism” erinnert sich Andy Warhol, so die ZEIT am 6. August 2008, an die 60er-Jahre. “Er hat das Buch 1980 seiner Assistentin Pat Hackett diktiert, daher rührt der plaudernde Tonfall dieser Memoiren. ‘Ich möchte eine Maschine sein’, lautete Warhols Credo, mit dem er Jackson Pollocks berühmten Satz ‘Ich möchte Natur sein’ zurückwies. Es galt, die Kunst von der Abstraktion und ‘dem Innerlichkeitskram’ zu befreien.” (ZEIT, 6. August 2008) Das ist ihm, wie die Ausstellung in der Wüstenstadt zeigt, hervorragend gelungen. Er führt Kunst, Kitsch, Kommerz und Kommunikation zusammen und bietet damit auch Material für Informations- und Medienethik. Die Ausstellung läuft noch bis zum 28. Mai 2018. Weitere Informationen über www.psmuseum.org.

Abb.: Bei Palm Springs

Netzkommunikation in Krisensituationen

Die Friedrich-Ebert-Stiftung lädt in der Reihe denkraum_medien wieder zu einer Diskussionsrunde ein, dieses Mal unter dem Titel “Ausfall im Störfall? Netzkommunikation in Krisensituationen”. Den Impulsvortrag hält die Autorin und IT-Compliance-Managerin Dr. Aleksandra Sowa. Aus der Medienmitteilung: “Das Internet ist global zum primären und alternativlosen Kommunikationsnetz geworden. Aber das Medium erweist sich als störanfällig und öffnet Tür und Tor für verschiedene Formen des Missbrauchs. Ob eine an alle Bewohner Hawaiis abgeschickte SMS, die vor einem Raketenangriff warnt, oder eine automatische Ansage in der Berliner U-Bahn, die dazu auffordert, geschlossene Räume nicht zu verlassen: Für die Menschen ist kaum zu unterscheiden, ob eine echte Gefahr droht oder ob es sich um einen Fehlalarm oder eine Notfallübung handelt. Sind Hacker in die Frühwarnsysteme eingedrungen und testen ihr Können? Sind ausländische Cyberkrieger im Netz unterwegs, um für Massenpanik zu sorgen? Was kann, muss oder darf der Staat tun, um seine Bürger angesichts einer – wahren oder fiktiven – Krise verlässlich zu informieren, aufzuklären und zu schützen? Wieweit steht die Privatwirtschaft, in deren Händen sich fast vollständig die kritischen Infrastrukturen befinden, in der Verantwortung?” Weitere Informationen über www.fes.de.

Abb.: Auch auf Kauai herrschte Entsetzen

Videos zur Handelsblatt-Jahrestagung

Am Rande der Handelsblatt-Jahrestagung “Strategisches IT-Management” (15. bis 17. Januar 2018 in München) wurden Interviews mit den Vortragenden geführt und aufgezeichnet. Am zweiten Tag hatte zuerst Prof. Dr.-Ing. habil. Alois C. Knoll (Lehrstuhlinhaber für Echtzeitsysteme und Robotik, Technische Universität München) zum Human-Brain-Projekt der EU referiert, danach Dr. Martin Hofmann, Group CIO, Volkswagen AG über “Augmented Intelligence: AI in enterprise context”. Prof. Dr. oec. HSG Oliver Bendel (Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik, Hochschule für Wirtschaft FHNW) war auf “Die Ethik als Partnerin von Robotik und KI” eingegangen. Im Video erläutert er, was Maschinenethik ist. Auf dem Panel hatten er, Prof. Dr.-Ing. habil. Alois C. Knoll, Prof. Dr. Dr. Eric Hilgendorf (Leiter der Forschungsstelle RobotRecht, Julius-Maximilians-Universität Würzburg) und Dr. Ole Wintermann (Senior-Projektleiter, Co-Founder, Blogger, Bertelsmann Stiftung) zum Thema “Sind intelligente Maschinen und Roboter die besseren Menschen?” diskutiert. Auch dazu steht ein Video zur Verfügung. Alle Videos finden sich über veranstaltungen.handelsblatt.com/it-jahrestagung/videos-2018/.

Abb.: Oliver Bendel bei seinem Vortrag (Foto: Handelsblatt)

Cloud Computing aus Sicht der Ethik

Im Frühjahr 2018 erscheint “Cloud Computing: Die Infrastruktur der Digitalisierung” bei Springer Vieweg, herausgegeben von Stefan Reinheimer. Das Buch thematisiert Chancen und Risiken des Cloud Computing, “bringt Lesern das Thema durch anschauliche Beispiele aus Forschung und Praxis näher und zeigt die Implikationen auf, die aus dieser neuen Infrastruktur resultieren”. “Die Beitragsautoren präsentieren technische Lösungen, Geschäftsmodelle und Visionen, die einerseits die Herausforderungen und Hürden des Cloud Computing aufgreifen – technisch, rechtlich, prozessbezogen – und andererseits die Chancen und Nutzen dieses Architekturansatzes in den Mittelpunkt stellen.” (Website Springer) Der Beitrag von Oliver Bendel behandelt “Cloud Computing aus Sicht der Ethik”. “Zahlreiche Unternehmen transferieren Daten ihrer Kunden in die Cloud, oder diese werden selbst aktiv, nutzen spezielle Dienste und soziale Medien. Es stellen sich viele Fragen: Wird der Benutzer genügend informiert? Sind ihm alle Konsequenzen des Vorgangs klar? Was ist, wenn Inhalte als verdächtig angesehen und Informationen an Behörden weitergereicht werden? Wie können lebenswichtige und personenbezogene Daten geschützt werden? Der Beitrag stellt Probleme rund um Cloud Computing für Privatkunden aus Sicht des Verbraucherschutzes und der Informationsethik systematisch dar, mit Fokus auf Bild und Text. Aus der Unternehmensethik heraus werden Vorschläge für Anbieter unterbreitet.” (Abstract) Weitere Informationen und Bestellung über www.springer.com/de/book/9783658209667.

Abb.: Das Cover des Herausgeberbands (Foto: Springer)

KI ist hier, um zu bleiben

In der Automation & Robotics vom März 2018, einer Beilage im Manager Magazin, findet sich ein Beitrag von Jan Philipp Albrecht (innen- und justizpolitischer Sprecher der Grünen-Fraktion im Europäischen Parlament). Er schreibt: “Wir stehen an der Schwelle zu einer Ära, in der immer höher entwickelte Technologien eine neue industrielle Revolution entfesseln können. Künstliche Intelligenz ist allgegenwärtig, und sie ist hier, um zu bleiben.” Unter dem Stichwort “Simplexity” führt Prof. Dr. Andreas Dengel (DFKI) aus: “KI definiert die neue Arbeitsteilung von Mensch und Maschine”. Im Interview erklärt Oliver Bendel, was Maschinenethik ist und wie sie mit KI und Robotik zusammenhängt. Er ist gegen eine vorschnelle Regulierung in der Entwicklung. Wenn Regulierung stattfinden soll, dann in den Anwendungsgebieten. An anderer Stelle hatte der Informations- und Maschinenethiker eine Roboterquote für öffentliche Räume gefordert, zum einen wegen der Kollisionsgefahr (bei Transport- und Sicherheitsrobotern), zum anderen wegen der Gefahr der Überwachung (bei Servicerobotern aller Art). Das Interview kann hier heruntergeladen werden.

Abb.: KI ist hier, um zu bleiben

Cult of the Machine

An extraordinary exhibition is currently taking place at the de Young Museum in San Francisco. The title “Cult of the Machine” indicates what it is all about: “Characterized by highly structured, geometric compositions with smooth surfaces, linear qualities, and lucid forms, Precisionism – a style that emerged in America in the teens and flourished during the 1920s and 1930s – reconciled realism with abstraction, and wed European art movements, such as Purism, Cubism, and Futurism, to American subject matter to create a streamlined, ‘machined’ aesthetic with themes ranging from the urban and industrial to the pastoral. The tensions and ambivalences about industrialization expressed in works by the Precisionists are particularly fascinating and relevant to a contemporary audience in the midst of a Fourth Industrial Revolution, in which robots are replacing human labor for various functions, underscoring many of the same excitements and concerns about modernization that existed nearly one hundred years ago.” (Website de Young Museum) The exhibition will run from 24 March to 12 August 2018. Further information is available via deyoung.famsf.org/exhibitions/cult-machine.

Fig.: The exhibition sign

AI and Society IV

Nach dem Mittagessen spannte Oliver Bendel beim Symposium “AI and Society” den Bogen “From GOODBOT to BESTBOT”. Sein BESTBOT-Projekt, das GOODBOT und LIEBOT zusammenführt, startete eine Woche vorher an der School of Business FHNW (der mit der Implementierung beauftragte Student ist David Studer). Der BESTBOT, ein Artefakt der Maschinenethik, soll Probleme des Benutzers auch über Gesichtserkennung identifizieren, was wiederum Probleme für den Benutzer schafft, die ebenfalls diskutiert werden sollen, und zwar aus Sicht der Informationsethik. “Toward Beneficial Human-Level AI … and Beyond” thematisierte maschinelles Bewusstsein und “superintelligence” und das TalaMind-Projekt. Philip Jackson betonte, dieses “will help to achieve beneficial human-level AI and superintelligence” schneller und besser als andere Methoden. Andrew Williams sprach über “The Potential Social Impact of the Artificial Intelligence Divide”. Er fragte nach den Vorurteilen und Verzerrungen, die über KI verstärkt werden. Bei der abschließenden Diskussionsrunde war ein Thema der Zusammenhang zwischen natürlicher Sprache und menschlicher und maschineller Moral, ein anderes die Entwicklung des Arbeitsmarkts angesichts der Übernahme von Arbeit durch KI-Systeme und Roboter.

Abb.: Palmen an der Stanford University

AI and Society III

Das “AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” an der Stanford University ging am 27. März 2018 um 9.15 Uhr in die zweite Runde (oder in die dritte, wenn man die Halbtage zählt). Den Invited Talk hielt Emma Brunskill, Stanford University, zum Thema “Beyond Expected Reward: Considerations for Reinforcement Learning in High Stakes Domains”. Sie stellte die Frage, wie ein Agent aus Erfahrung lernen kann, gute Entscheidungen zu treffen, wenn die Erfahrung kostspielig oder risikobehaftet ist. Die Session “Applications and Interactive Agents” startete mit “Interactive Agent that Understands the User”. Piotr Gmytrasiewicz präsentierte ein assistierendes KI-System namens MARTHA. Emanuelle Burton stieß in “The Heart of the Matter” vor und fragte nach der “Patient Autonomy as a Model for the Wellbeing of Technology Users” (so der Untertitel). Sie stellte eine Case Study mit dem Titel “Joe the heart patient” vor. In “The Uncanny Return of Physiognomy” kritisierte Oliver Bendel neuere Verfahren der Gesichtserkennung, mit denen z.B. sexuelle Orientierungen und kriminelle Tendenzen festgestellt werden sollen, und ordnete sie Physiognomik, der Pseudowissenschaft von Lavater und Co. sowie Biometrik in ihrer unseriösen Form (in der Tradition von Peter Camper) zu.

Abb.: Auch am zweiten Tag war bestes Wetter in Stanford

AI and Society II

Nach dem Lunch ging es beim Symposium “AI and Society” am 26. März 2017 um 14.00 Uhr weiter mit der Session “Ethics and Moral Agents”. Umang Bhatt trug vor zum Thema “Maintaining The Humanity of Our Models”. Er ging auf eine Krankheitsdiagnose durch ein KI-System und später auf Obdachlose in L.A. ein und setzte dies in Beziehung zur Bias-Problematik. In “Ethics as Aesthetic for Artificial General Intelligence” stellte Dan Ventura die Frage: “How can we ensure an AI agent behaves ethically?” Er schlug den Schönheitssinn als Bestandteil der Metaethik vor. Rafal Rzepka betonte in “Importance of Contextual Knowledge in Artificial Moral Agents Development”, dass Fühlen, Beobachten und Zählen wichtig für moralisches Verhalten seien, wobei das Fühlen nicht die Domäne von Computern sei. Er setzt auf Geschichten als Grundlage für die Entscheidungen der Systeme. Abschließend fand die Discussion Session statt, moderiert von Venerable Tenzin Priyadashi und Judy Wajcman.

Abb.: Unter den Blüten an der Stanford University