Im Wirtschaftslexikon von Springer Gabler ist am 8. Mai 2018 ein Beitrag zur Datenschutz-Grundverordnung (DSGVO) erschienen. Er beginnt mit folgenden Worten: „Die Datenschutz-Grundverordnung (DSGVO) vereinheitlicht die Regeln zur Verarbeitung personenbezogener Daten durch Unternehmen, Behörden und Vereine, die innerhalb der Europäischen Union einen Sitz haben. Die englische Entsprechung ist ‚General Data Protection Regulation (GDPR)‘, die offizielle Bezeichnung ‚Verordnung des Europäischen Parlaments und des Rates zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG‘. Der Umgang mit Kunden- und Mitarbeiterdaten, Daten von Bürgern etc. wird im Zusammenhang mit dem Datenschutz in elf Kapiteln mit insgesamt 99 Artikeln geklärt.“ (Gabler Wirtschaftslexikon) Eingenommen wird auch die Perspektive der Informationsethik. Diese ist mit der Datenschutz-Grundverordnung über Begriffe wie „Recht auf Vergessenwerden“, „Informationsfreiheit“ und „informationelle Selbstbestimmung“ bzw. „informationelle Autonomie“ verbunden. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/datenschutz-grundverordnung-99476 aufgerufen werden.
Abb.: Die DSGVO hat Konsequenzen weit über die EU hinaus
Das Gabler Wirtschaftslexikon gilt laut Springer seit Jahrzehnten als Klassiker der Wirtschaftsliteratur. „Seit 2009 gibt es das Werk als frei zugängliches Online-Angebot mit erweitertem Nutzungsangebot. Mit mehr als 25.000 Stichworten steht mit dem Gabler Wirtschaftslexikon die größte deutschsprachige Auswahl an betriebswirtschaftlich-lexikalischem Know-how im Internet zur Verfügung – von über 200 ausgewiesenen Fachexperten geschrieben und kontinuierlich redaktionell geprüft. Springer Gabler stellt damit Expertenwissen online, das wissenschaftlich zitierfähig ist und sich vom wachsenden Angebot ungesicherten Wissens in Form von freien nicht weiter geprüften Inhalten im Internet unterscheidet.“ (Website Gabler Wirtschaftslexikon) Im Frühjahr 2018 erfolgte der visuelle und strukturelle Relaunch. Das Online-Nachschlagewerk wirkt nun aufgeräumter und moderner. Der derzeit am häufigsten aufgerufene Begriff ist „Digitalisierung“ von Prof. Dr. Oliver Bendel (in diesem Beitrag wird auch auf Informationsethik eingegangen), gefolgt von „Benchmarking“ (Prof. Dr. Klaus Wübbenhorst).
Abb.: Hitliste des Wirtschaftslexikons (Quelle: Springer)
Im Salzburger Nachtstudio auf Ö1 wird am 16. Mai 2018 die Sendung „Alexa lacht“ mit dem Untertitel „Maschinen und andere Gespenster der künstlichen Intelligenz“ ausgestrahlt. Aus der Beschreibung: „Die Differenz zwischen Mensch und Maschine ist längst kleiner geworden in unserem smarten Alltag. Maschinen, die immer selbständiger handeln und entscheiden, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder Sexroboter, als Überwachungs- und Kampfroboter in die menschliche Lebenswelt ein. Das erfordert Regeln im Umgang zwischen Mensch und Maschine sowie eine ethische Reflexion der Programmierung. Der Maschinenethiker Oliver Bendel, die Philosophin Janina Loh und die Informatikerin Joanna Bryson reflektieren diese Problematik in ihrer Forschungsarbeit. Was ist menschliche Projektion im Umgang mit Technologien, und wie ‚verhält‘ sich die Maschine dazu? Der Spuk von Sprachassistentin Alexa, die zuweilen gestört lacht, lässt sich beheben, aber Alexa wertet längst menschliche Gewohnheiten aus und steuert uns.“ (Website Ö1) Weitere Informationen über oe1.orf.at/programm/20180516/513712.
According to the website, the Health Ethics and Policy Lab is a multidisciplinary research group established in 2017 at the Department of Health Sciences and Technology at ETH Zurich. The work focuses on the ethical, legal, societal, and policy implications of artificial intelligence, precision medicine, biotechnology, and digital health. The Health Ethics and Policy Lab is now looking for a postdoctoral researcher to work with Prof. Prof. Dr. Effy Vayena and her team „on a research project examining the legal and ethical challenges related to data sharing in digital health“ (Website). „In particular, the project will explore the applicability of blockchain technology to medical data sharing and its impact on privacy and security. The research project is funded within the Personalized Health and Related Technologies (PHRT) scheme, a strategic focus area of the ETH Domain.“ (Website) More information and application via apply.refline.ch/845721/6202/pub/2/index.html.
„Die ersten Lieferroboter sind seit einiger Zeit im Einsatz, unter anderem auch hierzulande: Einige rollen …, andere fliegen … Sie haben aber gemeinsam, dass sie nicht in ein oberes Stockwerk liefern können. Das will das US-Unternehmen Agility Robotics ändern.“ Dies schreibt Werner Pluta am 3. Mai 2018 in Golem. Und weiter: „Agility Robotics hat einen Laufroboter entwickelt, der künftig wie ein menschlicher Bote die Pizza oder den Einkauf auch bis in eines der oberen Stockwerke bringen kann. Allerdings muss sich der Belieferte auf einen etwas merkwürdigen Anblick gefasst machen: Cassie, benannt nach dem Laufvogel Kasuar, … besteht nur aus Beinen – und erinnert so an die merkwürdigen Schilderungen aus dem Mittelalter von Acephalen, Menschen, die keinen Kopf haben und stattdessen das Gesicht auf dem Bauch tragen. Ein Lieferroboter ohne Arme macht sich jedoch nicht so gut. Die nächste Version … wird deshalb nicht nur Beine, sondern auch Arme haben.“ (Golem, 3. Mai 2018) Cassie löst ein Problem, das die kleinen, rollenden Paket- und Transportroboter von Starship Technologies haben: Er ist keine Stolperfalle. Dafür kann man mit ihm zusammenprallen wie mit dem K5 von Knightscope, wobei die Verletzungsgefahr, wenn Arme vorhanden sind, noch größer sein könnte. Wie bei jedem Serviceroboter dieser Art wird die Komplexität im öffentlichen Raum erhöht. Einen vielversprechenden Ansatz verfolgt man mit Transportdrohnen, die die Ware auf dem Dach eines Gebäudes ablegen. Dort kann der Empfänger sie abholen, ganz egal, in welchem Stockwerk er wohnt.
Das Gutachten „Ethische Standards für Big Data und deren Begründung“ (Prof. Dr. Stefan Selke zusammen mit Dr. Peter Biniok, Dr. Johannes Achatz und Elisabeth Späth) ist „der Versuch, eine vorläufige Antwort auf die Frage zu geben, in welchem Umfang die gegenwärtige Debatte über Big Data von Bezügen auf ethische Standards geprägt ist“. „Damit wird zugleich die Frage gestellt, wie ethische Standards in Zukunft zur fairen Ausbalancierung zwischen starrer Regulation einerseits und totale Flexibilisierung andererseits von Nutzen sein könnten. Ethische Standards werden dabei in einer wissenssoziologischen Perspektive sowohl als implizite Begründungsmuster als auch als explizite kommunikative Gattung aufgefasst, deren Funktion sich u. a. darin begründet, Anschlussfähigkeit zwischen unterschiedlichen gesellschaftlichen Teilsystemen herzustellen und dauerhaft zu erhalten.“ (Gutachten Big Data) Als Expertinnen und Experten standen u.a. Prof. Dr. Oliver Bendel, Prof. Dr. Dirk Helbing, Prof. Dr. Petra Grimm, Yvonne Hofstetter, Prof. Dr. Viktor Mayer-Schönberger und Prof. Dr. Oliver Zöllner zur Verfügung. Das Gutachten wurde im Rahmen des ABIDA-Projekts mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) erstellt und kann hier heruntergeladen werden.
Abb.: Oliver Bendel bei einer Veranstaltung in Hamburg
Im Sommer 2012 erschien der Artikel „Siri ist hier.“, mit dem Untertitel „Der Sprachassistent von Apple in der Schweiz aus linguistischer und ethischer Sicht“. Mit Schweizerdeutsch kam Siri damals nicht zurecht. Oliver Bendel erklärte: „Es wäre sicherlich nicht ganz einfach, dem Sprachassistenten auf der Ebene der Aussprache und Betonung die schweizerischen Gepflogenheiten nahezubringen. Er könnte dazulernen; aber dazu müsste er in der Lage sein, semantische Beziehungen zu knüpfen (und damit zu realisieren, dass das Chuchichäschtli ein kleiner Küchenschrank ist). Wenn der Benutzer in der Schweiz nicht weiß, dass man ‚Serie‘ auch anders aussprechen kann, kann Siri allenfalls eine Menge von mehr oder weniger sinnvollen Alternativen – oder kluge Rückfragen – unterbreiten. Ob man mit diesen immer etwas anfangen kann, sei dahingestellt. Auch auf der lexikalischen Ebene weiß nicht jeder Benutzer, dass Alternativen existieren. Nicht in allen Fällen werden Helvetismen – dies haben mir viele Gespräche gezeigt – als solche erkannt.“ Inzwischen ist man weiter: „Zwei Start-ups aus dem Wallis, Keylemon und recapp, haben zur Entwicklung der neuen Swisscom TV-Box beigetragen, die erstmalig Spracherkennung auch für Deutschschweizer Dialekte bietet.“ (Website recapp) Siri aber beherrscht nach wie vor keine Mundart. Dies hat erst kürzlich die Handelszeitung thematisiert, wobei sie auch erwähnt, dass man das Problem heute mit Lösungen von Firmen wie recapp angehen könnte.
Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. To achieve this, it will use approaches of face recognition. The paper „From GOODBOT to BESTBOT“ describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel presented his paper on 27 March 2018 at Stanford University („AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“, AAAI 2018 Spring Symposium Series). The entire volume can be downloaded via AAAI.
Der „11. Ulmer Robotertag“ beleuchtet „Roboter in der digitalen Transformation“. „Als digitale Transformation oder digitaler Wandel wird ein auf digitalen Technologien basierender Veränderungsprozess der Gesellschaft bezeichnet, welcher starken Einfluss auf die industrielle Produktion nimmt.“ (Flyer 11. Ulmer Robotertag) Verbunden mit dem digitalen Wandel seien große Chancen wie zum Beispiel effizientere Produktionsprozesse und Abläufe, aber auch neue Herausforderungen, beispielsweise durch den notwendigen radikalen Strukturwandel. „Als eine Schlüsseltechnologie für die digitale Produktionstransformation werden hierbei Industrie- und Serviceroboter verstanden. Um das Verständnis wie auch den Transfer in der Region zu stärken, widmet sich der diesjährige 11. Ulmer Robotertag diesem Thema. Die Veranstaltung wird in bewährter Weise in Zusammenarbeit von Hochschule Ulm und Mitsubishi Electric Europe durchgeführt.“ (Flyer 11. Ulmer Robotertag) Dr. Alexander Hildebrandt (Festo AG & Co. KG) widmet sich der „Druckluft als Antriebsmedium für die Robotik“, Prof. Dr. Christian Schlegel (Hochschule Ulm) der „Servicerobotik in der Intralogistik“, um nur zwei Vorträge herauszugreifen. Im vergangenen Jahr hatte Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) bei der Jubiläumsveranstaltung zum Thema „Kollege und Kollegin Roboter – schöne neue Welt!“ vorgetragen. Weitere Informationen über de3a.mitsubishielectric.com/UlmerRobotertag.
In der Neuen Osnabrücker Zeitung ist am 25. April 2018 der Artikel „Robotersteuer: Ökonomen sind skeptisch“ erschienen. Im Teaser heißt es: „DHL-Chef Frank Appel und Microsoft-Gründer Bill Gates zählen zu den Befürwortern dieser Idee. Doch Ökonomen sind skeptisch.“ Thomas Straubhaar von der Universität Hamburg wird mit den Worten zitiert: „Der Roboter ist nicht der Feind des Menschen, sondern sein Freund.“ „Die Maschine helfe den Arbeitnehmern, produktiver zu werden.» (NOZ, 25. April 2018) Der Wirtschaftsinformatiker Oliver Bendel von der Fachhochschule Nordwestschweiz gibt laut NOZ zu bedenken, dass bei einer Robotersteuer schwierige Unterscheidungen zu treffen sein werden: „Sprechen wir nur von Hardware- oder auch von Softwarerobotern? Reden wir nur über Fabrikarbeit?“ „Problematisch sei außerdem, dass moderne Roboter oft vernetzte Systeme seien.“ Und: „Sogenannte Kooperations- und Kollaborationsroboter arbeiteten ganz eng mit Menschen zusammen. Das sei ein Problem für die Berechnung einer Steuer: Wo fängt die Arbeit des Roboters an, wo hört sie auf?“ (NOZ, 25. April 2018) Der Artikel kann über www.noz.de/deutschland-welt/wirtschaft/artikel/1198722/robotersteuer-oekonomen-sind-skeptisch aufgerufen werden.
Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: „Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.“ Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.
Die Technical Reports des AAAI 2018 Spring Symposium „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ sind Ende April 2018 erschienen. Enthalten sind u.a. „From GOODBOT to BESTBOT“ (Oliver Bendel), „The Uncanny Return of Physiognomy“ (Oliver Bendel), „The Heart of the Matter: Patient Autonomy as a Model for the Wellbeing of Technology Users“ (Emanuelle Burton et al.), „Trustworthiness and Safety for Intelligent Ethical Logical Agents via Interval Temporal Logic and Runtime Self-Checking“ (Stefania Costantin et al.), „Ethical Considerations for AI Researchers“ (Kyle Dent), „Interactive Agent that Understands the User“ (Piotr Gmytrasiewicz et al.), „Toward Beneficial Human-Level AI … and Beyond“ (Philip C. Jackson Jr.), „Towards Provably Moral AI Agents in Bottom-Up Learning Frameworks“ (Nolan P. Shaw et al.), „An Architecture for a Military AI System with Ethical Rules“ (Yetian Wang et al.) und „Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety“ (Mark R. Waser et al.). Das Symposium fand vom 26. bis zum 28. März 2018 an der Stanford University statt. Für die Maschinenethik wie auch für Informationsethik und Roboterethik ist die Konferenzreihe seit Jahren eine der wichtigsten Plattformen weltweit.
In seiner Keynote auf der „Minds Mastering Machines“ in Köln am 25. April 2018 hat Oliver Bendel die Teilnehmerinnen und Teilnehmer auf eine Reise mitgenommen, u.a. nach Prag, Krakau, Stanford, Fort Lauderdale und Wien. Auf Konferenzen, die dort stattfanden, präsentierte er in den letzten Jahren Konzepte und Artefakte der Maschinenethik. In Prag waren es das Roboterauto-Problem und die dazugehörige quantifizierende und qualifizierende Formel, die 2012 entwickelt wurden, in Stanford ab 2016 ein tierfreundliches Auto, ein tierfreundlicher Staubsaugerroboter und gute und böse Chatbots. In Krakau diskutierte er mit Ron Arkin vom Georgia Tech auf dem Podium, ob man betrügerische Roboter bauen darf. Eine Teilnehmerin der Konferenz, Shirin Glander, protokollierte in Köln mit und twitterte das Ergebnis über @ShirinGlander … Sie hat in ihrer Zeichnung sozusagen den Blick der Schweiz auf die Maschinenethik eingefangen. „Die Minds Mastering Machines wendet sich mit ihrem technischen Fokus an Softwareentwickler und -architekten, Data Scientists, Projekt- und Teamleiter sowie Forscher.“ (Website MMM)
Die Hersteller humanoider Roboter ahmen gerne Frauen nach. Es gibt mehrere Gründe dafür, und manche hat auch Hiroshi Ishiguro genannt, der in Wien bei der Konferenz „Robophilosophy“ neben Joanna Bryson und Oliver Bendel eine Keynote gegeben hat. Frauen wirken, so eine Annahme, vertrauenswürdiger und anziehender auf uns als Männer. Gerade Kinder erschrecken nicht vor ihnen, selbst wenn es gar keine Menschen sind. Eine andere Annahme ist, dass Frauen und ihre künstlichen Ebenbilder vieles gemeinsam haben, weil Frauen selbst künstliche Elemente in sich und auf sich tragen. Die meisten Frauen schminken sich, überdecken Unreinheiten und Farbveränderungen, entfernen Haare, manche korrigieren scheinbare Mängel und Fehler mit Hilfe von Einspritzungen und Schönheitsoperationen. Tatsächlich sehen manche Frauen, die viel an sich gemacht haben und haben machen lassen, ein wenig aus wie Roboter, und genau das ist günstig für die Hersteller. Das Resultat sind Maschinen wie Sophia und Erica (die von Ishiguro geschaffen wurde). Sie sind künstliche Geschöpfe, gestaltet nach der künstlichen Schönheit der Frau. Dass es auch anders geht, zeigt ein männlicher humanoider Roboter, der Werbung für „Westworld“ macht. Mit viel Akribie hat man ihm Haare verpasst, auf den Armen, im Gesicht, kleine Warzen und Male. Gerade dadurch sieht er besonders real (und interessant) aus. Es wäre an der Zeit, einen weiblichen Roboter zu schaffen, der sich an der natürlichen Schönheit der Frau orientiert. Nicht, um das eine oder das andere Verhalten zu kritisieren, sondern um Stereotype aufzubrechen. Künstlerisch und technisch möglich ist das allemal. Ishiguros Geminoid ist übrigens ein eigener Fall. Er orientiert sich an der künstlichen Schönheit des Mannes.
Abb.: Roboter können Stereotype festigen und aufbrechen
Haben Roboter Rechte bzw. soll man sie mit Rechten ausstatten? Die eine Frage ist ethisch, die andere rechtlich deutbar. Oliver Bendel hält als Ethiker nichts von Rechten für Roboter. Dies können weder empfinden noch leiden, sie haben kein Bewusstsein, sie sind keine echten Personen, aber auch keine echten Lebewesen. Im Zivilrecht kann man, so seine Meinung, ohne weiteres eine elektronische Person konstruieren, die man verklagen kann und die dann haften muss (etwa über ein Budget, das sie hat, oder einen Fonds, mit dem sie verbunden ist). Einerseits ist das die Lösung für das Problem, dass sich in vielen Fällen kaum mehr eindeutig verantwortliche natürliche oder juristische Personen ausmachen lassen. Andererseits eben nicht, denn woher sollte das Geld kommen – wenn nicht von natürlichen und juristischen Personen, die mit dem Roboter in irgendeiner Verbindung stehen? Und bei selbstlernenden Systemen wie Tay wird es vollends kompliziert, wobei dieser Fall ins Strafrechtliche hineinreicht. Eine Gruppe von KI-Forschern, Philosophen, Theologen und Rechtswissenschaftlern hat sich in einem offenen Brief gegen die Schaffung des Status einer elektronischen Person gewandt, wie eine Arbeitsgruppe des Europäischen Parlaments sie dieses Jahr vorgeschlagen hat. Der Artikel „Streit um Rechte von Robotern“ stellt die unterschiedlichen Positionen dar. Er ist am 21. April 2018 in der Aargauer Zeitung erschienen und kann über www.aargauerzeitung.ch/leben/forschung-technik/streit-um-rechte-von-robotern-wer-haftet-wenn-etwas-schief-geht-132457958 aufgerufen werden.
Eine kleine schwarze Ente ist seit vielen Jahren das Favicon der Website von Oliver Bendel. Die NZZ schreibt in einem Beitrag vom 20. April 2018: „Als schwarze Enten werden im Arabischen schwarze Schafe, also ausgegrenzte Gruppenmitglieder bezeichnet.“ (NZZ, 20. April 2018) In „Jenseits von Himmel und Hölle“ von Daniel Steinvorth geht es um eine Sendung auf YouTube, die von den Betreibern wie folgt beschrieben wird: „Black Ducks is a talk show on YouTube that interviews atheists, humanists, and non-religious individuals from the Arab world … to achieve a secular society in the Middle East and North Africa. Another goal is to offer solace and courage to those who are atheists and humanists in secret so they may know they are not alone in the world.“ (YouTube-Channel The Black Ducks) Die Betreiber und Mitwirkenden, die sich Vernunft und Aufklärung verschrieben haben, setzen sich Lebensgefahr aus. Der Gründer der Sendung, Ismail Mohamed, wurde in Alexandria fast erschossen und in Kairo vom Mob bedrängt und mit dem Messer bedroht. Im Teaser des NZZ-Beitrags heißt es: „Wer in der arabischen Welt nicht an Gott glaubt, gilt wahlweise als Extremist oder als psychisch gestört. Auch in Ägypten steht Atheismus womöglich bald unter Strafe.“ Am Rande sind Begriffe und Methoden von Wirtschafts- und Informationsethik gefragt: „2015 bewirkte eine Beschwerde gegenüber Google …, dass die Sendung zweimal für mehrere Monate eingestellt werden musste. Mohamed verlor auf einen Schlag seine Follower und seine Werbeeinnahmen …“ (NZZ, 20. April 2018)
„Wenn immer mehr Roboter statt Menschen arbeiten, wer zahlt dann eigentlich noch Steuern? Die Roboter! Das hat zumindest Bill Gates vorgeschlagen und damit eine interessante Diskussion um die Zukunft der Arbeit angeregt. Neue Technologien verändern unsere Arbeitswelt nachhaltig: Psychologen beraten uns über Skype, Architekten entwickeln Baupläne für Berlin-Mitte in einem Coworking-Space in Thailand und nette Roboterdamen beantworten unsere Fragen am Flughafen. Und das ist nur der Anfang.“ (Netzpiloten, 18. April 2018) Mit diesen Worten beginnt ein Artikel von Marinela Potor im Magazin der Netzpiloten vom 18. April 2018. Das Thema ist die Robotersteuer, die von Bill Gates, wie gesagt, befürwortet und von Oliver Bendel, der im Beitrag zu Wort kommt, kritisch gesehen wird. Er ist dafür, alle Konzepte zu diskutieren, die dazu beitragen können, den Lebensunterhalt der Menschen zu sichern. Aber die Robotersteuer, so seine Meinung, könnte technische, wirtschaftliche und gesellschaftliche Entwicklungen behindern und sei praktisch nur schwer umzusetzen, was nicht zuletzt an der Unterschiedlichkeit und der Vernetztheit der Systeme liege. Der Artikel mit dem Titel „Sollten Roboter Steuern zahlen?“ kann über www.netzpiloten.de/robotersteuer-arbeitsplaetze-steuereinnahmen/ aufgerufen werden.
Die Deutsche Presse-Agentur (dpa) war vor einiger Zeit im Gespräch mit Oliver Bendel, für den Beitrag „Sexroboter – Hype oder Trend?“. Am Rande erwähnte der Informations- und Maschinenethiker aus Zürich, dass die Sexualwissenschaft in Deutschland kaum noch eine Bedeutung habe. Nach seiner Einschätzung tut man sich an den Hochschulen schwer mit dem Thema. Die dpa ging dem Hinweis nach und verfasste einen Beitrag, der in der ÄrzteZeitung veröffentlicht wurde. Im Teaser heißt es: „Deutschland hat nur zwei große sexualwissenschaftliche Zentren. Der Westen sei geradezu prüde bei dem Thema, bemängeln Forscher – dabei würden sexuelle Krankheiten medizinisch oft auf andere Probleme hindeuten.“ (ÄrzteZeitung, 12. Februar 2018) „Die aktuelle Situation in Deutschland ist ein Armutszeugnis“, wird Heinz-Jürgen Voß von der Gesellschaft für Sexualwissenschaft zitiert. „Überall dort, wo Menschen mit Menschen zu tun haben, in Kitas, Schulen, Einrichtungen der Sozialen Arbeit sowie Bildungseinrichtungen für Erwachsene, spielten Fragen zu Körper, Geschlecht und Sexualität eine Rolle.“ Das bedeutet, so Voß, „dass Fachkräfte ausgebildet sein sollten, professionell mit den entsprechenden Fragen umzugehen“ (ÄrzteZeitung, 12. Februar 2018). Der Artikel „Sex auf dem Abstellgleis“ ist über www.aerztezeitung.de/panorama/article/957332/50-jahre-nach-1968-sex-abstellgleis.html abrufbar.
Haben Roboter Rechte? Dieser Frage geht Oliver Bendel in der Zeitschrift Edison nach, in der Ausgabe 2/2018. Die zuständige Disziplin ist die Roboterethik (bzw. die Roboterphilosophie). Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Er erwähnt in „Haben Roboter Rechte?“ auch Sophia, den humanoiden Roboter, dem in Saudi-Arabien die Staatsbürgerschaft verliehen wurde. Ihr wird in Edison auch ein eigener Beitrag gewidmet. Das Magazin kann über edison-magazin.handelsblatt.com/epaper/13.04.2018 bestellt werden.
Im Palm Springs Art Museum findet derzeit die Ausstellung „Andy Warhol: Prints from the Collections of Jordan D. Schnitzer and His Family Foundation“ statt. Auf der Website des Museums ist zu lesen: „This retrospective encompasses over 250 works on loan from Schnitzer’s comprehensive collection, and establishes Warhol’s graphic production as it evolved over four decades.“ In seiner Autobiografie „POPism“ erinnert sich Andy Warhol, so die ZEIT am 6. August 2008, an die 60er-Jahre. „Er hat das Buch 1980 seiner Assistentin Pat Hackett diktiert, daher rührt der plaudernde Tonfall dieser Memoiren. ‚Ich möchte eine Maschine sein‘, lautete Warhols Credo, mit dem er Jackson Pollocks berühmten Satz ‚Ich möchte Natur sein‘ zurückwies. Es galt, die Kunst von der Abstraktion und ‚dem Innerlichkeitskram‘ zu befreien.“ (ZEIT, 6. August 2008) Das ist ihm, wie die Ausstellung in der Wüstenstadt zeigt, hervorragend gelungen. Er führt Kunst, Kitsch, Kommerz und Kommunikation zusammen und bietet damit auch Material für Informations- und Medienethik. Die Ausstellung läuft noch bis zum 28. Mai 2018. Weitere Informationen über www.psmuseum.org.
Die Friedrich-Ebert-Stiftung lädt in der Reihe denkraum_medien wieder zu einer Diskussionsrunde ein, dieses Mal unter dem Titel „Ausfall im Störfall? Netzkommunikation in Krisensituationen“. Den Impulsvortrag hält die Autorin und IT-Compliance-Managerin Dr. Aleksandra Sowa. Aus der Medienmitteilung: „Das Internet ist global zum primären und alternativlosen Kommunikationsnetz geworden. Aber das Medium erweist sich als störanfällig und öffnet Tür und Tor für verschiedene Formen des Missbrauchs. Ob eine an alle Bewohner Hawaiis abgeschickte SMS, die vor einem Raketenangriff warnt, oder eine automatische Ansage in der Berliner U-Bahn, die dazu auffordert, geschlossene Räume nicht zu verlassen: Für die Menschen ist kaum zu unterscheiden, ob eine echte Gefahr droht oder ob es sich um einen Fehlalarm oder eine Notfallübung handelt. Sind Hacker in die Frühwarnsysteme eingedrungen und testen ihr Können? Sind ausländische Cyberkrieger im Netz unterwegs, um für Massenpanik zu sorgen? Was kann, muss oder darf der Staat tun, um seine Bürger angesichts einer – wahren oder fiktiven – Krise verlässlich zu informieren, aufzuklären und zu schützen? Wieweit steht die Privatwirtschaft, in deren Händen sich fast vollständig die kritischen Infrastrukturen befinden, in der Verantwortung?“ Weitere Informationen über www.fes.de.
Am Rande der Handelsblatt-Jahrestagung „Strategisches IT-Management“ (15. bis 17. Januar 2018 in München) wurden Interviews mit den Vortragenden geführt und aufgezeichnet. Am zweiten Tag hatte zuerst Prof. Dr.-Ing. habil. Alois C. Knoll (Lehrstuhlinhaber für Echtzeitsysteme und Robotik, Technische Universität München) zum Human-Brain-Projekt der EU referiert, danach Dr. Martin Hofmann, Group CIO, Volkswagen AG über „Augmented Intelligence: AI in enterprise context“. Prof. Dr. oec. HSG Oliver Bendel (Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik, Hochschule für Wirtschaft FHNW) war auf „Die Ethik als Partnerin von Robotik und KI“ eingegangen. Im Video erläutert er, was Maschinenethik ist. Auf dem Panel hatten er, Prof. Dr.-Ing. habil. Alois C. Knoll, Prof. Dr. Dr. Eric Hilgendorf (Leiter der Forschungsstelle RobotRecht, Julius-Maximilians-Universität Würzburg) und Dr. Ole Wintermann (Senior-Projektleiter, Co-Founder, Blogger, Bertelsmann Stiftung) zum Thema „Sind intelligente Maschinen und Roboter die besseren Menschen?“ diskutiert. Auch dazu steht ein Video zur Verfügung. Alle Videos finden sich über veranstaltungen.handelsblatt.com.
Abb.: Oliver Bendel bei seinem Vortrag (Foto: Handelsblatt)