„Forscher mehrerer US-Universitäten haben ein System entwickelt, mit dem sich der Bestand von Wildtieren einfach, schnell und zuverlässig überwachen lässt, ohne diese in ihrer natürlichen Umgebung zu stören. Hierfür verknüpfen die Experten Künstliche Intelligenz (KI) mit Ansätzen des maschinellen Lernens, um Löwen, Elefanten und Co in der Serengeti ohne menschliches Zutun über Fotos und Videos identifizieren, zählen und beschreiben zu können. Die Methode erreichte eine Genauigkeit von 96,6 Prozent und konnte 99,3 Prozent der Bilder auswerten.“ (ICTkommunikation, 7. Juni 2018) Es gab in den letzten Jahren immer wieder Bestrebungen, eine Disziplin der Tier-Computer-Interaktion bzw. der Tier-Maschine-Interaktion zu begründen, um das Verhältnis zwischen Tier und Maschine so zu erforschen und zu gestalten, dass diese in autonomer Weise betrieben und jenem in der Wildnis (oder in anderer Umgebung) – ohne Störung oder Verletzung – geholfen werden kann. Das genannte Projekt kann in diesem Kontext gesehen werden. Der Artikel in der ICTkommunikation kann hier aufgerufen werden.
In der Netzwoche 10/2018 findet sich ein ganzseitiges Interview mit Oliver Bendel zu Kooperations- und Kollaborationsrobotern, auch Co-Robots oder Cobots genannt. Der Informations- und Maschinenethiker hält die Teams oder Tandems aus Mensch und Maschine für nützlich und hilfreich. Mensch und Maschine spielen jeweils ihre Stärken aus. Der Mensch wird entlastet. Ein Problem könnte in Zukunft allerdings die Überwachung sein. Die Maschine kommt uns sehr nahe, und mit Hilfe ihrer Sensoren und ihrer Software könnte sie uns ausspionieren. Dies hat Oliver Bendel in einem anderen Interview, mit der SonntagsZeitung, betont. Im Moment überwiegen für ihn klar die Vorteile. Interessant findet er zudem, dass Kooperations- und Kollaborationsroboter nicht nur in Produktion und Logistik, sondern auch in Pflege und Therapie eingesetzt werden. Damit schlagen sie eine Brücke zwischen Industrie- und Servicerobotern. Das Interview kann mit freundlicher Genehmigung der Zeitschrift als PDF hier heruntergeladen oder auch online gelesen werden.
In der Titelgeschichte der Netzwoche 10/2018 geht es um Kooperations- und Kollaborationsroboter, auch Co-Robots oder Cobots genannt. Zu Wort kommen Steven Wyatt, Head of Marketing & Sales bei ABB Robotics, und Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW. Kooperations- und Kollaborationsroboter sind moderne Industrieroboter, die mit uns Schritt für Schritt an einem gemeinsamen Ziel (Kooperationsroboter) bzw. Hand in Hand an einer gemeinsamen Aufgabe arbeiten, wobei wiederum ein bestimmtes Ziel gegeben ist (Kollaborationsroboter). Sie nutzen dabei ihre mechanischen und sensorischen Fähigkeiten und treffen Entscheidungen mit Blick auf Produkte und Prozesse im Unternehmen bzw. in der Einrichtung. Mensch und Maschine kommen sich in der Produktion und in der Logistik inzwischen also unter Umständen sehr nahe. Sie sind dabei in der Lage, ihre jeweiligen Stärken auszuspielen. Zudem entlastet der Co-Robot den Menschen. Der Artikel mit dem Titel „Cobots: Roboter und Menschen arbeiten Hand in Hand“ kann mit freundlicher Genehmigung der Netzwoche als PDF hier heruntergeladen oder auch online gelesen werden.
Abb.: Auch hier kommen sich Mensch und Maschine nahe
„Sex robots are coming, but the argument that they could bring health benefits, including offering paedophiles a ’safe‘ outlet for their sexual desires, is not based on evidence, say researchers. The market for anthropomorphic dolls with a range of orifices for sexual pleasure – the majority of which are female in form, and often boast large breasts, tiny waists and sultry looks – is on the rise, with such dummies selling for thousands of pounds a piece.“ (Guardian, 5 June 2018) These are the initial words of an article in the well-known British daily newspaper Guardian, published on 5 June 2018. It quotes Susan Bewley, professor of women’s health at Kings College London, and Oliver Bendel, professor at the School of Business FHNW. Oliver Bendel is not in favor of a ban on the development of sex robots and love dolls. However, he can imagine that the area of application could be limited. He calls for empirical research in the field. The article can be accessed via www.theguardian.com/science/2018/jun/04/claims-about-social-benefits-of-sex-robots-greatly-overstated-say-experts.
Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an Beiträgen für das „Handbuch Maschinenethik“ von Springer. Ende 2019 soll das gedruckte Werk erscheinen. Herausgeber ist der Informations- und Maschinenethiker und Roboterphilosoph Oliver Bendel. Die ersten Beiträge wurden im Frühjahr 2018 in elektronischer Form publiziert. Mit dabei sind etwa Luís Moniz Pereira, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag der Stuttgarter Philosophin Catrin Misselhorn, die ebenfalls einen hervorragenden Ruf in der Disziplin hat, kommt in wenigen Tagen heraus. In ein paar Monaten folgen Julian Nida-Rümelin und Eric Hilgendorf, um nur zwei weitere Namen zu nennen. Der Philosoph war einst Kulturstaatsminister, und der Roboterrechtler fehlt bei kaum einer Debatte über autonome Autos und künstliche Intelligenz. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 … Oliver Bendel wird selbst mit sechs Beiträgen vertreten sein, vor allem zu Artefakten der Maschinenethik, also zu konkreten Umsetzungen. Er hat sich in mehreren Büchern und in über 100 Artikeln und Buchbeiträgen der Maschinenethik und den moralischen Maschinen gewidmet.
Wie Golem und Gizmodo melden, hat Google im Frühjahr 2018 den Satz „Don’t be evil“ aus seinem Verhaltenskodex entfernt. Das Motto war von Anfang an umstritten. Es klingt zunächst einmal pathetisch und naiv. Zudem kollidiert es mit der gelebten Praxis. Google hat immer wieder systematisch Recht gebrochen und moralische Standards nicht eingehalten, etwa im Zusammenhang mit seiner Suchmaschine, mit seinem E-Mail-Dienst, mit Google Street View und Google Books. Das Unternehmen hat Persönlichkeits- und Grundrechte missachtet und ist mit einer gut gefüllten Kriegskasse gegen Gegner vorgegangen. Zugleich wurden wertvolle Projekte wie Google Arts & Culture (vormals Google Art Project) lanciert, die Menschen auf der ganzen Welt den virtuellen Zugang zu Museen und zur Kunst ermöglichen. Anfang April 2018 protestierten Mitarbeiter gegen das Militärprojekt Maven. Die Streitfrage ist, ob die im Unternehmen entwickelte künstliche Intelligenz für militärische Zwecke verwendet werden soll. In ihrem offenen Brief beziehen sich die Verfasser auch auf das Motto „Don’t be evil“. Also auf ein Motto, das es nun nicht mehr gibt.
Die Konferenz „Smarte Maschinen im Einsatz – Künstliche Intelligenz in der Produktion“ fand am 15. Mai 2018 am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart statt. Schirmherrin war Dr. Nicole Hoffmeister-Kraut MdL (Ministerin für Wirtschaft, Arbeit und Wohnungsbau des Landes Baden-Württemberg). Prof. Dr. Oliver Bendel bildete mit seinem Vortrag über „Co-Robots aus Sicht von Informations- und Maschinenethik“ den Schlusspunkt der Veranstaltung. Der schweizerischen SonntagsZeitung, deren Wissenschaftsredakteur angereist war, stand er Rede und Antwort. Das Interview wurde am 20. Mai 2018 als zentraler Bestandteil eines Einseiters veröffentlicht, der hier heruntergeladen werden kann. Vor allem geht es um Co-Robots aus Sicht der Ethik. Am Ende wird auch Kapitalismuskritik geäußert. Oliver Bendel ist für eine Reichensteuer und für ein bedingungsloses Grundeinkommen. Die Robotersteuer muss nach seiner Ansicht diskutiert werden, hat aber mehr Nach- als Vorteile.
„Die Mängelmaschine“ ist der Titel eines Beitrags auf Ö1, ausgestrahlt am 14. Mai 2018. Zu Wort kommen Hiroshi Ishiguro, Mark Coeckelbergh, Janina Loh und Oliver Bendel. Aus der Beschreibung: Der japanische Robotiker hat einen Doppelgänger geschaffen: „Der Roboter Geminoid sieht genauso aus wie sein Schöpfer – und vertritt ihn bisweilen sogar bei Vorlesungen. Für Ishiguro ist sein künstlicher Klon eine Person, eine nicht ganz perfekte und liebenswerte Kopie seiner selbst. Aber die Frage ist für ihn nicht besonders wichtig.“ Denn, so wird Ishiguro zitiert: „Warum müssen wir zwischen Menschen und Maschinen unterscheiden? Der Mensch ist ein Tier, das sich der Technologie bedient. Ohne Maschinen wären wir bloß Affen – und unfähig in dieser Welt zu überleben.“ (Website Ö1) Es gibt viele Gründe, zwischen Menschen und Maschinen zu unterscheiden. Einer davon: Während wir empfinden und leiden und glücklich sind, tun die Maschinen dies nicht. Und das ist eine gewaltige Differenz mit gewaltigen Implikationen: Wir müssen Menschen und Maschinen völlig unterschiedlich behandeln. Man kann von einem Mangel sprechen, den auch der Zwilling von Ishiguro aufweist: „Forscher/innen aus dem Westen … halten Geminoid für nicht mehr als eine aufwändig gestaltete Puppe.“ (Website Ö1)
„Ein virtueller Assistent ist ein Dialogsystem, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Smartphone ebenso zu finden wie in Unterhaltungsgeräten und in Fahrzeugen.“ Mit diesen Worten beginnt ein am 15. Mai 2018 erschienener Beitrag von Oliver Bendel im Wirtschaftslexikon von Gabler Springer. Erwähnt werden virtuelle Assistenten bzw. Sprachassistenten wie Siri, Cortana, Google Assistant (auch im Zusammenhang mit Google Duplex) und Alexa. Am Ende heißt es: „Mit Systemen wie Google Duplex kehren sich die Verhältnisse in gewisser Hinsicht um. Man nimmt einen Anruf entgegen, kommuniziert wie gewohnt, hat aber vielleicht, ohne es zu wissen, einen Computer am Apparat, keinen Menschen. Für Chatbots wurde bereits früh vorgeschlagen, dass diese klarmachen sollen, dass sie keine Menschen sind. Möglich ist es zudem, die Stimme roboterhaft klingen zu lassen, sodass kaum Verwechslungsgefahr besteht. Dies sind Themen für Informationsethik, Roboterethik und Maschinenethik und allgemein Roboterphilosophie.“ (Gabler Wirtschaftslexikon) Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/virtueller-assistent-99509 aufgerufen werden.
Zur Bundestagswahl in Deutschland baten Zeitungen und Zeitschriften zur Online-Abstimmung. „Die Problematik der Online-Abstimmung ist insgesamt zur Zeit technisch nicht befriedigend gelöst, obgleich einige Anbieter wie der Kölner Stadtanzeiger doch einiges dazu investiert haben … Wie grotesk das werden kann, wenn unkontrollierte Abstimmungen durch Roboter, also durch Software-Mechanismen, unterlaufen werden … Wahlen.de hat es zum Glück natürlich nicht gelassen. Der Kontrollmechanismus zur Abstimmung wurde, nachdem die Attacke durch den automatisch wählenden Software-Roboter zunächst drei Tage unbemerkt blieb, verändert. Man konnte danach, wie schon erwähnt, bei wahlen.de nur noch einmal am Tag abstimmen (Meldung: „doppelte Stimmabgabe ist am selben Tag nicht möglich“). Am nächsten Tag konnte man neues Wahlschicksal spielen.“ Das Zitat stammt aus dem Buch „Die Mondlandung des Internet“ (UVK), das Rainer Kuhlen unter der Mitarbeit von Oliver Bendel geschrieben hat. Es ist vor 20 Jahren zur Bundestagswahl 1998 erschienen, was deutlich macht, dass die Probleme von damals mehr oder weniger die Probleme von heute sind.
Face recognition is the automated recognition of a face or the automated identification, measuring and description of features of a face. In the 21st century, it is increasingly attempted to connect to the pseudoscience of physiognomy, which has its origins in ancient times. From the appearance of persons, a conclusion is drawn to their inner self, and attempts are made to identify character traits, personality traits and temperament, or political and sexual orientation. Biometrics plays a role in this concept. It was founded in the eighteenth century, when physiognomy under the lead of Johann Caspar Lavater had its dubious climax. In the paper „The Uncanny Return of Physiognomy“, the basic principles of this topic are elaborated; selected projects from research and practice are presented and, from an ethical perspective, the possibilities of face recognition are subjected to fundamental critique in this context, including the above examples. Oliver Bendel presented his paper on 27 March 2018 at Stanford University („AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“, AAAI 2018 Spring Symposium Series). The entire volume can be downloaded via AAAI.
„Mit Privacy by Default soll durch entsprechende Voreinstellungen bei Diensten, Geräten und Systemen die Privatsphäre bewahrt und der Datenschutz sichergestellt werden. ‚Privacy‘ ist das englische Wort für Privatsphäre und Privatheit. Es wird auch mit Blick auf den Datenschutz verwendet. Der Besitzer bzw. Benutzer kann die Einstellungen in der Regel verändern und dadurch z.B. zusätzliche Funktionen freischalten, mit dem Risiko der Beeinträchtigung der Privatsphäre und der Preisgabe und Verarbeitung personenbezogener Daten.“ So beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler von Oliver Bendel, erschienen am 8. Mai 2018. Es wird der Bezug zu Privacy by Design und zur Datenschutz-Grundverordnung (DSGVO) ebenso hergestellt wie zur Informationsethik. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/privacy-default-99475 aufgerufen werden.
Abb.: Bei Überwachungskameras gibt es kein Privacy by Default
Im Wirtschaftslexikon von Springer Gabler ist am 8. Mai 2018 ein Beitrag zur Datenschutz-Grundverordnung (DSGVO) erschienen. Er beginnt mit folgenden Worten: „Die Datenschutz-Grundverordnung (DSGVO) vereinheitlicht die Regeln zur Verarbeitung personenbezogener Daten durch Unternehmen, Behörden und Vereine, die innerhalb der Europäischen Union einen Sitz haben. Die englische Entsprechung ist ‚General Data Protection Regulation (GDPR)‘, die offizielle Bezeichnung ‚Verordnung des Europäischen Parlaments und des Rates zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG‘. Der Umgang mit Kunden- und Mitarbeiterdaten, Daten von Bürgern etc. wird im Zusammenhang mit dem Datenschutz in elf Kapiteln mit insgesamt 99 Artikeln geklärt.“ (Gabler Wirtschaftslexikon) Eingenommen wird auch die Perspektive der Informationsethik. Diese ist mit der Datenschutz-Grundverordnung über Begriffe wie „Recht auf Vergessenwerden“, „Informationsfreiheit“ und „informationelle Selbstbestimmung“ bzw. „informationelle Autonomie“ verbunden. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/datenschutz-grundverordnung-99476 aufgerufen werden.
Abb.: Die DSGVO hat Konsequenzen weit über die EU hinaus
Das Gabler Wirtschaftslexikon gilt laut Springer seit Jahrzehnten als Klassiker der Wirtschaftsliteratur. „Seit 2009 gibt es das Werk als frei zugängliches Online-Angebot mit erweitertem Nutzungsangebot. Mit mehr als 25.000 Stichworten steht mit dem Gabler Wirtschaftslexikon die größte deutschsprachige Auswahl an betriebswirtschaftlich-lexikalischem Know-how im Internet zur Verfügung – von über 200 ausgewiesenen Fachexperten geschrieben und kontinuierlich redaktionell geprüft. Springer Gabler stellt damit Expertenwissen online, das wissenschaftlich zitierfähig ist und sich vom wachsenden Angebot ungesicherten Wissens in Form von freien nicht weiter geprüften Inhalten im Internet unterscheidet.“ (Website Gabler Wirtschaftslexikon) Im Frühjahr 2018 erfolgte der visuelle und strukturelle Relaunch. Das Online-Nachschlagewerk wirkt nun aufgeräumter und moderner. Der derzeit am häufigsten aufgerufene Begriff ist „Digitalisierung“ von Prof. Dr. Oliver Bendel (in diesem Beitrag wird auch auf Informationsethik eingegangen), gefolgt von „Benchmarking“ (Prof. Dr. Klaus Wübbenhorst).
Abb.: Hitliste des Wirtschaftslexikons (Quelle: Springer)
Im Salzburger Nachtstudio auf Ö1 wird am 16. Mai 2018 die Sendung „Alexa lacht“ mit dem Untertitel „Maschinen und andere Gespenster der künstlichen Intelligenz“ ausgestrahlt. Aus der Beschreibung: „Die Differenz zwischen Mensch und Maschine ist längst kleiner geworden in unserem smarten Alltag. Maschinen, die immer selbständiger handeln und entscheiden, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder Sexroboter, als Überwachungs- und Kampfroboter in die menschliche Lebenswelt ein. Das erfordert Regeln im Umgang zwischen Mensch und Maschine sowie eine ethische Reflexion der Programmierung. Der Maschinenethiker Oliver Bendel, die Philosophin Janina Loh und die Informatikerin Joanna Bryson reflektieren diese Problematik in ihrer Forschungsarbeit. Was ist menschliche Projektion im Umgang mit Technologien, und wie ‚verhält‘ sich die Maschine dazu? Der Spuk von Sprachassistentin Alexa, die zuweilen gestört lacht, lässt sich beheben, aber Alexa wertet längst menschliche Gewohnheiten aus und steuert uns.“ (Website Ö1) Weitere Informationen über oe1.orf.at/programm/20180516/513712.
Das Gutachten „Ethische Standards für Big Data und deren Begründung“ (Prof. Dr. Stefan Selke zusammen mit Dr. Peter Biniok, Dr. Johannes Achatz und Elisabeth Späth) ist „der Versuch, eine vorläufige Antwort auf die Frage zu geben, in welchem Umfang die gegenwärtige Debatte über Big Data von Bezügen auf ethische Standards geprägt ist“. „Damit wird zugleich die Frage gestellt, wie ethische Standards in Zukunft zur fairen Ausbalancierung zwischen starrer Regulation einerseits und totale Flexibilisierung andererseits von Nutzen sein könnten. Ethische Standards werden dabei in einer wissenssoziologischen Perspektive sowohl als implizite Begründungsmuster als auch als explizite kommunikative Gattung aufgefasst, deren Funktion sich u. a. darin begründet, Anschlussfähigkeit zwischen unterschiedlichen gesellschaftlichen Teilsystemen herzustellen und dauerhaft zu erhalten.“ (Gutachten Big Data) Als Expertinnen und Experten standen u.a. Prof. Dr. Oliver Bendel, Prof. Dr. Dirk Helbing, Prof. Dr. Petra Grimm, Yvonne Hofstetter, Prof. Dr. Viktor Mayer-Schönberger und Prof. Dr. Oliver Zöllner zur Verfügung. Das Gutachten wurde im Rahmen des ABIDA-Projekts mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) erstellt und kann hier heruntergeladen werden.
Abb.: Oliver Bendel bei einer Veranstaltung in Hamburg
Im Sommer 2012 erschien der Artikel „Siri ist hier.“, mit dem Untertitel „Der Sprachassistent von Apple in der Schweiz aus linguistischer und ethischer Sicht“. Mit Schweizerdeutsch kam Siri damals nicht zurecht. Oliver Bendel erklärte: „Es wäre sicherlich nicht ganz einfach, dem Sprachassistenten auf der Ebene der Aussprache und Betonung die schweizerischen Gepflogenheiten nahezubringen. Er könnte dazulernen; aber dazu müsste er in der Lage sein, semantische Beziehungen zu knüpfen (und damit zu realisieren, dass das Chuchichäschtli ein kleiner Küchenschrank ist). Wenn der Benutzer in der Schweiz nicht weiß, dass man ‚Serie‘ auch anders aussprechen kann, kann Siri allenfalls eine Menge von mehr oder weniger sinnvollen Alternativen – oder kluge Rückfragen – unterbreiten. Ob man mit diesen immer etwas anfangen kann, sei dahingestellt. Auch auf der lexikalischen Ebene weiß nicht jeder Benutzer, dass Alternativen existieren. Nicht in allen Fällen werden Helvetismen – dies haben mir viele Gespräche gezeigt – als solche erkannt.“ Inzwischen ist man weiter: „Zwei Start-ups aus dem Wallis, Keylemon und recapp, haben zur Entwicklung der neuen Swisscom TV-Box beigetragen, die erstmalig Spracherkennung auch für Deutschschweizer Dialekte bietet.“ (Website recapp) Siri aber beherrscht nach wie vor keine Mundart. Dies hat erst kürzlich die Handelszeitung thematisiert, wobei sie auch erwähnt, dass man das Problem heute mit Lösungen von Firmen wie recapp angehen könnte.
Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. To achieve this, it will use approaches of face recognition. The paper „From GOODBOT to BESTBOT“ describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel presented his paper on 27 March 2018 at Stanford University („AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“, AAAI 2018 Spring Symposium Series). The entire volume can be downloaded via AAAI.
In der Neuen Osnabrücker Zeitung ist am 25. April 2018 der Artikel „Robotersteuer: Ökonomen sind skeptisch“ erschienen. Im Teaser heißt es: „DHL-Chef Frank Appel und Microsoft-Gründer Bill Gates zählen zu den Befürwortern dieser Idee. Doch Ökonomen sind skeptisch.“ Thomas Straubhaar von der Universität Hamburg wird mit den Worten zitiert: „Der Roboter ist nicht der Feind des Menschen, sondern sein Freund.“ „Die Maschine helfe den Arbeitnehmern, produktiver zu werden.» (NOZ, 25. April 2018) Der Wirtschaftsinformatiker Oliver Bendel von der Fachhochschule Nordwestschweiz gibt laut NOZ zu bedenken, dass bei einer Robotersteuer schwierige Unterscheidungen zu treffen sein werden: „Sprechen wir nur von Hardware- oder auch von Softwarerobotern? Reden wir nur über Fabrikarbeit?“ „Problematisch sei außerdem, dass moderne Roboter oft vernetzte Systeme seien.“ Und: „Sogenannte Kooperations- und Kollaborationsroboter arbeiteten ganz eng mit Menschen zusammen. Das sei ein Problem für die Berechnung einer Steuer: Wo fängt die Arbeit des Roboters an, wo hört sie auf?“ (NOZ, 25. April 2018) Der Artikel kann über www.noz.de/deutschland-welt/wirtschaft/artikel/1198722/robotersteuer-oekonomen-sind-skeptisch aufgerufen werden.
Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: „Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.“ Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.
Die Technical Reports des AAAI 2018 Spring Symposium „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ sind Ende April 2018 erschienen. Enthalten sind u.a. „From GOODBOT to BESTBOT“ (Oliver Bendel), „The Uncanny Return of Physiognomy“ (Oliver Bendel), „The Heart of the Matter: Patient Autonomy as a Model for the Wellbeing of Technology Users“ (Emanuelle Burton et al.), „Trustworthiness and Safety for Intelligent Ethical Logical Agents via Interval Temporal Logic and Runtime Self-Checking“ (Stefania Costantin et al.), „Ethical Considerations for AI Researchers“ (Kyle Dent), „Interactive Agent that Understands the User“ (Piotr Gmytrasiewicz et al.), „Toward Beneficial Human-Level AI … and Beyond“ (Philip C. Jackson Jr.), „Towards Provably Moral AI Agents in Bottom-Up Learning Frameworks“ (Nolan P. Shaw et al.), „An Architecture for a Military AI System with Ethical Rules“ (Yetian Wang et al.) und „Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety“ (Mark R. Waser et al.). Das Symposium fand vom 26. bis zum 28. März 2018 an der Stanford University statt. Für die Maschinenethik wie auch für Informationsethik und Roboterethik ist die Konferenzreihe seit Jahren eine der wichtigsten Plattformen weltweit.
Haben Roboter Rechte bzw. soll man sie mit Rechten ausstatten? Die eine Frage ist ethisch, die andere rechtlich deutbar. Oliver Bendel hält als Ethiker nichts von Rechten für Roboter. Dies können weder empfinden noch leiden, sie haben kein Bewusstsein, sie sind keine echten Personen, aber auch keine echten Lebewesen. Im Zivilrecht kann man, so seine Meinung, ohne weiteres eine elektronische Person konstruieren, die man verklagen kann und die dann haften muss (etwa über ein Budget, das sie hat, oder einen Fonds, mit dem sie verbunden ist). Einerseits ist das die Lösung für das Problem, dass sich in vielen Fällen kaum mehr eindeutig verantwortliche natürliche oder juristische Personen ausmachen lassen. Andererseits eben nicht, denn woher sollte das Geld kommen – wenn nicht von natürlichen und juristischen Personen, die mit dem Roboter in irgendeiner Verbindung stehen? Und bei selbstlernenden Systemen wie Tay wird es vollends kompliziert, wobei dieser Fall ins Strafrechtliche hineinreicht. Eine Gruppe von KI-Forschern, Philosophen, Theologen und Rechtswissenschaftlern hat sich in einem offenen Brief gegen die Schaffung des Status einer elektronischen Person gewandt, wie eine Arbeitsgruppe des Europäischen Parlaments sie dieses Jahr vorgeschlagen hat. Der Artikel „Streit um Rechte von Robotern“ stellt die unterschiedlichen Positionen dar. Er ist am 21. April 2018 in der Aargauer Zeitung erschienen und kann über www.aargauerzeitung.ch/leben/forschung-technik/streit-um-rechte-von-robotern-wer-haftet-wenn-etwas-schief-geht-132457958 aufgerufen werden.