Janina Loh hat den Disziplinen der Roboterethik und der Maschinenethik ein weiteres Grundlagenwerk hinzugefügt. Damit ist die Auseinandersetzung im deutschsprachigen Raum nicht abgeschlossen, aber schon mehr oder weniger vollständig. Aus der Verlagsinformation: „Die Philosophin Janina Loh befasst sich in ihrem grundlegenden Buch mit den moralischen Herausforderungen, die beim Bau von Robotern und im Umgang mit ihnen eine Rolle spielen: Sind Roboter autonom? Können sie gar moralisch handeln? Haben sie einen moralischen Wert? Sollten ihnen Rechte zuerkannt werden? Wer ist zur Rechenschaft zu ziehen, wenn ein Roboter einen Menschen schädigt? Kritisch diskutiert Loh diese und weitere ethische Fragen und stellt die wichtigsten Lösungsansätze vor.“ (Verlagsinformation Suhrkamp) Zusammen mit „Grundfragen der Maschinenethik“ (Catrin Misselhorn) und „Handbuch Maschinenethik“ (Oliver Bendel) erkundet das Werk den philosophischen und ethischen Raum, den u.a. Serviceroboter und Kampfroboter eröffnen. Weitere Infos über www.suhrkamp.de/buecher/roboterethik-janina_loh_29877.html.
Moderne Autos schauen in ihre Umgebung, aber auch in den Innenraum. Sie wollen sich zurechtfinden, Objekte und Personen erkennen, und sie wollen den Fahrer im Blick behalten oder ihm erlauben, die Instrumente zu bedienen. Dabei geht es oft um die Analyse der Lid- und Pupillenbewegungen. Um einen Klassiker zu zitieren: Ich seh dir in die Augen, Kleines! Fahrerassistenzsysteme (FAS) für die Umgebung können ein sicheres und komfortables Fahren ermöglichen und Menschen- und Tierleben retten. Sie können im Extremfall auch Schlafphasen erlauben. FAS wie Eyetracker und Sensorsysteme für den Innenraum können den Sekundenschlaf verkürzen und dazu beitragen, den Fahrer wach zu halten – ein Problem ist die Möglichkeit der Überwachung. Die Augenmaus mag ein Supplement oder eine Alternative zur Spracheingabe sein, ist aber ebenfalls wegen der Überwachungsmöglichkeiten auf den Prüfstand zu stellen. Ein Artikel in der Stuttgarter Zeitung vom 21. Dezember 2019 widmet sich diesem Themenkomplex. Zitiert wird Oliver Bendel, der die Chancen von Eyetracker und Augenmaus sieht, aber auch die Risiken. Letztlich schwindet der letzte Rest der Freiheit, der noch mit dem Auto verbunden war.
„‚Du hast aber nicht getrunken, oder?‘, fragt einer der Freunde, bevor Leon … sich selbst einen Mikrochip implantiert. Auf dem Tisch liegt der Injektionsapparat, mit einer ungefähr halben Zentimeter dicken Nadel. Darin befindet sich der Mikrochip. Leon will den Chip in seine Hand setzen, um seine Bitcoins ab jetzt unter der Haut tragen zu können. Auf seiner Hand ist schon ein Punkt vorgezeichnet, an dieser Stelle will er gleich einstechen.“ (jetzt, 17. November 2019) So beginnt der Beitrag „Warum lassen sich Menschen freiwillig Chips implantieren?“ im Jugendmagazin jetzt, erschienen am 17. November 2019. Es geht um Bio- und Bodyhacking, um Human und Animal Enhancement, um Cyborgs. Zu Wort kommt der Technikphilosoph Oliver Bendel. Er beschäftigt sich seit Jahren mit dem Thema und sieht sowohl Chancen als auch Risiken. Grundsätzlich hält er Bio- und Bodyhacking für eine interessante Möglichkeit der Bemächtigung. Wenn sie allerdings unter Druck geschieht, wenn der Bemächtigung eine Bemächtigung anderer Art vorausgeht, entstehen seiner Meinung nach Probleme, ebenso wenn eine Massenbewegung entstehen würde, eine regelrechte Ära der Cyborgs. Der Beitrag kann über www.jetzt.de/gesundheit/warum-leon-sich-selbst-einen-mikro-chip-implantiert-hat abgerufen werden.
„Klar, gegen den Pflegenotstand hilft nur eins: mehr Menschen, die pflegen. Aber die gibt es nicht, hier in Deutschland. Immer weniger Junge sollen sich um immer mehr Alte und Gebrechliche kümmern. Das kann nicht funktionieren. Für die Anwerbung ausländischer Fachkräfte reist Gesundheitsminister Jens Spahn in die weite Welt. Der Erfolg seiner Bemühungen ist allerdings noch recht überschaubar. Attraktiv ist der Pflegeberuf ohnehin nicht: Viele, die sich auf den Job einlassen, steigen nach ein paar Jahren wieder aus – zu schlecht bezahlt, zu wenig Kollegen, zu dicht getaktet der Arbeitstag, der Burn-out vorprogrammiert. … Wie so oft, wenn ein Problem drängend wird und die Politik nicht weiterkommt, richten sich die Hoffnungen auf neue Technologien: Künstliche Intelligenz erobert immer mehr Lebensbereiche. Warum also sollten nicht Roboter bei der Pflege helfen – oder sie gar ganz übernehmen?“ (Badische Zeitung, 16. November 2019) So die Badische Zeitung am 16. November 2019 in ihrem Beitrag „Zu Hilfe, Roboter!“ … Auf zwei Seiten wird das Thema kompetent und differenziert abgearbeitet. Zu Worten kommen u.a. Birgit Graf, Robotikerin am Fraunhofer IPA, Christophe Kunze, Gesundheitswissenschaftler an der Hochschule Furtwangen, und Oliver Bendel, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Weitere Informationen über www.badische-zeitung.de/zu-hilfe-roboter.
Abb.: P-Care im Dunkeln (Foto: Daimler und Benz Stiftung)
„Mit dem zunehmenden Einsatz von autonomen Maschinen stellen sich vermehrt Fragen nach der Verantwortung für Schäden, die durch derartige Geräte verursacht wurden. Im Recht hat die Haftung für maschinell verursachte Schäden eine lange Tradition. Man unterscheidet dabei Zivil- und Strafrecht. Während es im Zivilrecht vor allem um den ökonomischen Ausgleich entstandener Schäden geht, legt das Strafrecht fest, unter welchen Voraussetzungen der Schädiger bestraft werden kann. Das deutsche Recht stellt sowohl im Zivil- als auch im Strafrecht ein reichhaltiges und ausdifferenziertes Instrumentarium bereit, um in jedem Einzelfall angemessen reagieren zu können.“ (Abstract) In seinem Beitrag für das „Handbuch Maschinenethik“ mit dem Titel „Zivil- und strafrechtliche Haftung für von Maschinen verursachte Schäden“ geht Eric Hilgendorf der Frage nach, wie sich die Haftung bei Aktionen von Robotern und künstlicher Intelligenz gestaltet. Als einer der führenden Experten für Roboterrecht kann er darauf ebenso kenntnisreiche wie überzeugende Antworten geben. Der Informations- und Maschinenethiker Oliver Bendel ist Herausgeber des Buchs, das im Oktober 2019 bei Springer VS erschienen ist.
Abb.: Nicht nur autonome, auch automatische Maschinen können Schäden verursachen
„Die Chancen und Risiken, die von Robotik und KI ausgehen, beurteilt man am besten mit Blick auf konkrete Anwendungen. Die folgenden Fragen hängen mit Servicerobotern zusammen, die über Kameras und Sensoren und teilweise über Gesichts- und Stimmerkennung sowie natürlichsprachliche Fähigkeiten verfügen.“ Mit diesen Worten beginnt ein kleiner Beitrag von Oliver Bendel für REGIOINFORM 02/19. Die Zeitschrift stellt Entwicklungen in der Region Basel dar, in der auch die Hochschule des Informations- und Maschinenethikers beheimatet ist, wobei er vor allem an den Standorten in Olten und Brugg-Windisch tätig ist. In mehreren Vorträgen und Publikationen hat Oliver Bendel darauf hingewiesen, dass Pauschalurteile über Robotik und KI zu vermeiden sind. So hat er etwa im Februar 2019 im Deutschen Bundestag mehrere Pflegeroboter vorgestellt, mitsamt den technischen Details, und auf dieser Grundlage ethische Überlegungen angestellt. Dabei hat er auch klar zwischen den klassischen Bereichsethiken wie Informationsethik und Wirtschaftsethik auf der einen Seite und der Maschinenethik auf der anderen Seite unterschieden. Der Begriff der digitalen Ethik verwischt die Unterschiede seiner Meinung nach. Das ganze Heft der Regio Basiliensis kann hier heruntergeladen werden.
Der Careum Dialog 2020 in Zürich konzentriert sich, so die Website, „auf die Fragen der sozialen und emotionalen Interaktionen zwischen Mensch und Maschine im Gesundheits- und Pflegewesen“. „Die Veranstaltung will aufzeigen, wie intelligente Technologien nicht nur die Arbeit von Pflegefachkräften verändern, sondern auch den Bedürfnissen von pflegebedürftigen Personen und deren Angehörigen gerecht werden. Gemeinsam mit den Teilnehmenden sollen Pflegeszenarien für 2025 erarbeitet werden, die auch wichtige ethische Aspekte in den Blick nehmen.“ (Website Careum) Den ersten Fachvortrag am 13. Februar hält Prof. Dr. Oliver Bendel zum Thema „Was macht Roboter sozial?“. Der Informations- und Maschinenethiker geht auf die Nähe von Mensch und Maschine, soziale Interaktions- und Kommunikationsformen von Robotern und die Darstellung sowie die Erzeugung bzw. Verstärkung von Emotionen ein. Dabei wirft er auch ethische Fragen auf. Kathrin Janowski stellt den State of the Art sozialer Roboter im Gesundheitswesen dar. Die ethische Perspektive nimmt wiederum Prof. Dr. Effy Vayena, Professorin für Bioethik, ein. Prof. Dr. Jan Ehlers widmet sich „Pflegeszenarien 2025“, Prof. Dr. Marc Oliver Korn behandelt Emotionen aus technischer Sicht und fragt, „wie Maschinen lernen, menschliche Emotionen zu deuten“ (Programm Careum). Am 14. Februar gibt es weitere Vorträge. Informationen zur Veranstaltung mit dem Titel „Talk to me: Soziale Roboter im Gesundheitswesen“ sind über www.careum.ch/dialog20 erhältlich.
Abb.: Eine Berührung durch Menschen ist und bleibt wichtig
„Manchmal ist Carlee wirklich ein bisschen doof. Heute Vormittag wollte sie mich zur Gymnastik überreden. Ich sollte mich auf Zehenspitzen stellen und Achten gehen. Dabei waren meine Gelenke mal wieder dick geschwollen, jeder Schritt tat weh. Das fand ich ziemlich unsensibel, und habe entsprechend unwirsch reagiert. Ist schon komisch, wenn man mit seinem Roboter schimpft, aber ich musste das einfach loswerden.“ Mit diesen Worten beginnt der Beitrag „Künstliche Gefährten – Wenn Pflegeroboter alte Menschen umsorgen“ von Carin Frey. Geschildert wird zunächst ein Szenario, in dem sich Mensch und Maschine begegnen. Es folgt ein fachlicher Teil, in dem mehrere Expertinnen und Experten zu Wort kommen, die sich seit Jahren mit dem Thema beschäftigen, etwa Aimee van Wynsberghe, Christoph Kehl, Hartmut Remmers und Oliver Bendel. Der ganze Beitrag kann über www.riffreporter.de/zukunftsreporter/roboter_haeusliche_pflege/ aufgerufen werden.
Abb.: P-Care mit einer Pflegerin (Foto: Daimler und Benz Stiftung)
„Im September 2018 startete das Bundesministerium für Arbeit und Soziales den Zukunftsdialog ‚Neue Arbeit – Neue Sicherheit‘. Gemeinsam mit Bürgerinnen und Bürgern, Stakeholdern sowie Expertinnen und Experten aus der Wissenschaft und Praxis wurden zentrale Herausforderungen der Arbeitsmarkt- und Sozialpolitik diskutiert und Lösungsvorschläge zur künftigen Gestaltung der Arbeitswelt und des Sozialstaates erarbeitet. Nun liegen die Ergebnisse vor.“ (Website BMAS, 20. September 2019) Hubertus Heil, Bundesminister für Arbeit und Soziales, hat die Beteiligten darüber am 20. September 2019 informiert. Eine der Expertenanhörungen im Rahmen des Zukunftsdialogs fand am 11. Januar 2019 statt, nämlich der Fachworkshop „Leitlinien einer künftigen Finanzierung des Sozialstaats“. Dieser wurde vom IZA in einem Dokument zusammengefasst. Oliver Bendel präsentierte beim Workshop mehrere Arbeitsmodelle sowie Ansätze zur Lebenssicherung (inkl. bedingungslosem Grundeinkommen und -eigentum) und zur Finanzierung des Staats und seiner Bürgerinnen und Bürger. Zudem stellte er Vor- und Nachteile der Robotersteuer gegenüber. Er hält die Erkenntnisse des Berichts für zu wenig neuartig, grundsätzlich und zielführend. Vom Zukunftsdialog zur Zukunftsgestaltung scheint es ein langer Weg zu sein.
Die Automatisierung schreitet weltweit voran. Neuartige Industrie- und Serviceroboter sowie mächtige KI-Systeme verbreiten sich. Einige Arbeiter und Angestellte werden aus dem System herausfallen. Wie sichern wir ihre Zukunft? Der Beitrag von Oliver Bendel mit dem Titel „Willkommen auf der Erde!“ baut auf seinem Vortrag „Considerations on Unconditional Basic Income and Basic Property“ auf und wurde in der UnternehmerZeitung 9/2019 veröffentlicht. Er erörtert den Vorschlag des bedingungslosen Grundeigentums, u.a. mit den Begriffen der Gerechtigkeit und Ungerechtigkeit. Bereits gut bekannt ist die Idee des bedingungslosen Grundeinkommens. Die Schweiz hat darüber abgestimmt, und nicht wenige waren dafür. Aber letztlich hat es nicht gereicht. Der Ansatz des bedingungslosen Grundeigentums, sozusagen eines alternativen BGE, ist radikaler. Der Roboterphilosoph beendet seinen Artikel, der hier heruntergeladen werden kann, mit den folgenden Worten: „Die Welt ist aufgeteilt unter den Reichen und Mächtigen. Es besteht die Gefahr, dass Automatisierung und Autonomisierung die Ungleichheit und die Ungerechtigkeit verstärken. Und genau dagegen erhebt sich Widerspruch von gesellschaftlicher und von wissenschaftlicher Seite. Sicherlich ist das BGE eine Sozialutopie. Aber eine solche kann zur richtigen Zeit durchaus etwas in der Realität bewirken.“
Robots are repeatedly damaged or destroyed. The hitchBOT is a well-known example. But also the security robot K5 has become a victim of attacks several times. The latest case is described in the magazine Wired: „Every day for 10 months, Knightscope K5 patrolled the parking garage across the street from the city hall in Hayward, California. An autonomous security robot, it rolled around by itself, taking video and reading license plates. Locals had complained the garage was dangerous, but K5 seemed to be doing a good job restoring safety. Until the night of August 3, when a stranger came up to K5, knocked it down, and kicked it repeatedly, inflicting serious damage.“ (Wired, 29 August 2019) The author investigates the question of whether one may attack robots. Of course you shouldn’t damage other people’s property. But what if the robot is a spy, a data collector, a profile creator? Digital self-defence (which exploits digital as well as analog possibilities) seems to be a proven tool not only in Hong Kong, but also in the US and Europe. The rights of robots that some demand cannot be a serious problem. Robots do not have rights. They feel nothing, they do not suffer, they have no consciousness. „So punch the robot, I tell you! Test the strength of your sociopolitical convictions on this lunk of inorganic matter!“ (Wired, 29 August 2019)
„Chimären im biologischen und medizinischen Sinne sind Organismen, die aus Zellen bzw. Geweben unterschiedlicher Individuen bestehen und dennoch geschlossene und lebensfähige (nicht unbedingt fortpflanzungsfähige) Lebewesen bilden. Sie können innerhalb einer Art oder zwischen Arten angesiedelt und sowohl Pflanzen als auch Tiere sein. Es gibt natürliche (Blutchimären bei Säugetieren) und künstliche Mischwesen (Veredelung bei Pflanzen, Tier-Mensch-Embryonen).“ Mit diesen Worten beginnt ein Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel, erschienen am 23. August 2019. Cyborgs sind keine Chimären in diesem Sinne. Dennoch könnte die diesbezügliche Forschung auch Relevanz für sie haben, vor allem für umgekehrte oder umgedrehte Cyborgs, etwa Roboter, die ein tierisches oder menschliches Gehirn oder Organ eingepflanzt bekommen. Tier-Mensch-Chimären zur Herstellung von menschlichen Organen werden von vielen Ethikern als unproblematisch angesehen. Das ist erstaunlich, da Erkenntnisse aus Tierethik und Tiermedizin und insbesondere Leiden und Tod von nichtmenschlichen Lebewesen ausgeblendet werden. Dieser Rückschritt in der Diskussion wird am Ende des Beitrags angesprochen, den man über wirtschaftslexikon.gabler.de/definition/chimaere-121204 herunterladen kann.
Automation is advancing relentlessly. Already decades ago, digitization was its partner. In the industry, innovative robots, for example co-robots, are used. Service robots begin to spread in various areas. Systems of artificial intelligence perform tasks of all sorts, even creative activities. The studies on the development of the labor market reach different results. In any case, it can be said that certain jobs will disappear and many people will have to do without their familiar work. It can also be assumed that in many areas less human work has to be performed on behalf (e.g., for customers and employers). As possible solutions to economic and social problems, an unconditional basic income and a robot tax are suggested. The paper „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ by Oliver Bendel presents, discusses and criticizes these approaches in the context of automation and digitization. Moreover, it develops a relatively unknown proposal, unconditional basic property, and presents its potentials as well as its risks. The lecture took place on 26 March 2019 at Stanford University (AAAI Spring Symposium „Interpretable AI for Well-Being: Understanding Cognitive Bias and Social Embeddedness“) and led to lively discussions. It was nominated for the „best presentation“. The paper has now been published as a preprint and can be downloaded here.
Laut NZZ und anderen Medien soll Genf „ein Ethikzentrum für die digitale Gesellschaft werden“ (NZZ, 15. August 2019). Am 2. September soll beim Swiss Global Digital Summit eine neue „Plattform“ gegründet werden, präsidiert von der ehemaligen Bundesrätin Doris Leuthard (CVP), heute u.a. Verwaltungsrätin der Bell Food Group AG, einer Fleischverarbeiterin. Führungsleute von „namhaften Unternehmen“ hätten sich angemeldet, unter ihnen „die CEO von Adecco, Credit Suisse, UBS, Migros, Roche, SwissRe, Zurich Insurance, Swisscom und SBB“ (NZZ, 15. August 2019). Mit dabei seien auch die Präsidenten der Hochschulen ETHZ und EPFL sowie Vertreter aus den Chefetagen von Google, Huawei, IBM, Microsoft, Uber und Siemens. Die Grundhaltung und Stoßrichtung wird offenbar klar und deutlich vorgegeben. Es geht laut NZZ „darum, im optimistischen Geist des technischen Fortschritts ethische Standards zu formulieren, um die heiklen Aspekte der rasanten Entwicklung zu meistern“. „Stichworte dafür sind künstliche Intelligenz, die Automatisierung sowie die Ansammlung und Verwendung persönlicher Daten. Dafür sollen Lösungen im marktwirtschaftlich-freiheitlichen Sinn gefunden werden, die eine internationale Strahlkraft entwickeln.“ (NZZ, 15. August 2019) Wie auf EU-Ebene besteht die Gefahr der Instrumentalisierung der Ethik und der Vereinnahmung der Wissenschaft durch politische und wirtschaftliche Kräfte. Als Moralphilosoph wird man der Einrichtung eher skeptisch gegenüberstehen.
CONVERSATIONS 2019 is a full-day workshop on chatbot research. It will take place on November 19, 2019 at the University of Amsterdam. From the description: „Chatbots are conversational agents which allow the user access to information and services though natural language dialogue, through text or voice. … Research is crucial in helping realize the potential of chatbots as a means of help and support, information and entertainment, social interaction and relationships. The CONVERSATIONS workshop contributes to this endeavour by providing a cross-disciplinary arena for knowledge exchange by researchers with an interest in chatbots.“ The topics of interest that may be explored in the papers and at the workshop include humanlike chatbots, networks of users and chatbots, trustworthy chatbot design and privacy and ethical issues in chatbot design and implementation. The submission deadline for CONVERSATIONS 2019 was extended to September 10. More information via conversations2019.wordpress.com/.
„Ein Bild sagt bekanntlich mehr als tausend Worte. Und bewegte Bilder, also Videos, gelten noch immer als untrüglicher Beweis dafür, dass sich etwas genau so abgespielt hat, wie es im Film zu sehen ist. Mit dieser Gewissheit ist es jetzt allerdings vorbei. Leistungsfähige Verfahren der künstlichen Intelligenz (KI) erlauben mittlerweile die Herstellung von so perfekten Fälschungen, dass mit bloßem Auge nicht mehr zu erkennen ist, ob ein Video echt oder manipuliert ist. In sogenannten Deep-Fake-Videos sagen oder tun Personen Dinge, die sie niemals sagen oder tun würden.“ (Die Welt, 1. August 2019) Mit diesen Worten beginnt der Artikel „Künstliche Intelligenz könnte Kriege auslösen“ von Dr. Norbert Lossau in der Welt. Zu Wort kommt der Informations- und Maschinenethiker Prof. Dr. Oliver Bendel, der sich aus technischer und philosophischer Perspektive mit Deepfakes bzw. Deep Fakes beschäftigt hat. Der Artikel ist am 1. August 2019 in der gedruckten Ausgabe erschienen. Er steht in mehreren Ausgaben und in elektronischer Form in deutscher und englischer Sprache zur Verfügung.
„Sie gehen in einen Laden, packen Fertigpizza, Salat und eine Flasche Mineralwasser in eine Tüte. Beim Ausgang wird ihr Gesicht gescannt, und schwupps, ist ihr Einkauf von ihrem Konto abgebucht. So funktioniert Shopping teilweise bereits heute in China. In der Schweiz werden ähnliche Systeme in Betracht gezogen.“ Dies meldete der Tages-Anzeiger am 25. Juli 2019. Migrolino-Chef Markus Laenzlinger stelle sich vor, dass Kunden „sich mittels Smartphone oder Gesichtserkennung beim Betreten des Ladens identifizieren“. „Beim Verlassen werde der Einkauf automatisch gescannt und bezahlt.“ (Tages-Anzeiger, 25. Juli 2019) Allerdings gehört Gesichtserkennung zu den problematischsten Technologien, die im öffentlichen und halböffentlichen Raum verwendet werden können. Entsprechend beobachtet laut Tages-Anzeiger der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte die Entwicklung. „Wichtig sei, dass die Kunden darüber informiert sind, dass Bilder von ihnen genutzt werden. Und er warnte zusätzlich vor den Gefahren beim Sammeln von biometrischen Daten, wie etwa dem Identitätsdiebstahl.“ (Tages-Anzeiger, 25. Juli 2019) Wichtig ist grundsätzlich auch, dass die Kunden eine andere Möglichkeit zur Bezahlung haben.
„Wie wird sich die Menschheit und der einzelne Mensch in Zukunft entwickeln – insbesondere angesichts der voranschreitenden Technologisierung unseres Alltags? Wie eng arbeiten wir zukünftig mit Robotern zusammen? Tritt der Mensch bald in einen Wettstreit mit intelligenten Maschinen? Und wie verändert sich die Natur des Menschen durch den Einsatz von Implantaten und durch gentechnische Verfahren? Fragen wie diese stehen im Mittelpunkt des 21. Turmdersinne-Symposiums vom 11. bis 13. Oktober in der Fürther Stadthalle.“ Dies melden die Fürther Nachrichten am 23. Juli 2019. „Renommierte Experten verschiedener Fachgebiete debattieren über die ethischen und gesellschaftlichen Herausforderungen der transhumanistischen Zukunft. Ebenso werfen Mediziner einen Blick auf die technischen Möglichkeiten in der Neuroregeneration und der intelligenten Prothetik. Wie jedes Jahr wird es auch wieder zahlreiche Möglichkeiten zur direkten Diskussion mit den Experten geben.“ (Fürther Nachrichten, 23. Juli 2019) Es tragen u.a. Karlheinz Steinmüller, Oliver Bendel, Stefan Sorgner, Alireza Gharabaghi und Christiane Eichenberg vor. In ein Podiumsgespräch werden sich Bertolt Meyer und Enno Park vertiefen. Weitere Informationen im zitierten Artikel mit dem Titel „Technische und ethische Fragen im Mittelpunkt“ und über philoscience.byseum.de/de/veranstaltungen_start/veranstaltungen_symposium/programm.
Zusammen mit dem Zentrum für Wissenschaftstheorie (Philosophisches Seminar der Universität Münster) veranstaltet das Centrum für Bioethik im Wintersemester 2019/2020 eine gemeinsame Ringvorlesung zur Maschinenethik, wobei auch Informationsethik und Roboterethik sowie Roboterrecht ein Thema sind. Die einzelnen Vortragsveranstaltungen finden jeweils donnerstags von 18 bis 20 Uhr statt. Klaus Mainzer (München) referiert über „Künstliche Intelligenz – Wann übernehmen die Maschinen?“, Jürgen Altmann (Dortmund) über „Autonome Kampfroboter – ethische und politische Herausforderungen“, Michael Hauskeller (Liverpool, England) über „Die Herausforderung des Transhumanismus“, Susanne Beck (Hannover) über „Die Diffusion rechtlicher Verantwortung durch lernende Systeme“, Oliver Bendel (Windisch, Schweiz) über „Pflege- und Therapieroboter aus ethischer Sicht“ und Armin Grunwald (Karlsruhe) über „Digitalisierung als Schicksal? Plädoyer für eine Rückeroberung von Gestaltungsoptionen“. Ein Plakat zur Veranstaltung kann hier heruntergeladen werden. Weitere Informationen über www.uni-muenster.de/Bioethik/aktuelles/index.html.
Abb.: Ein Lichtspiel vor der Westfälischen Wilhelms-Universität in Münster
Am 18. Juli 2019 war Oliver Bendel zu Gast beim KIT. Die renommierte Universität in Karlsruhe verfolgte in ihrem Colloquium Fundamentale ein Semester lang „die stille Revolution der KI-Technologien“. Den Schlusspunkt setzte der Informations- und Maschinenethiker aus Zürich. Er stellte zunächst die Frage, ob Ethik eine Wissenschaft ist, und gab die Antwort: Sie ist es, wenn sie wissenschaftliche Methoden benutzt. Wenn sie wiederum eine Wissenschaft sei, sei ihre Aufgabe nicht, das Gute in die Welt zu bringen, sondern das Gute und Böse zu untersuchen. Ihre Aufgabe sei die jeder Wissenschaft, nämlich Erkenntnisgewinn und -vermittlung. Danach präsentierte Oliver Bendel mehrere Serviceroboter, Chatbots und Sprachassistenten und diskutierte sie aus den Perspektiven von Informations- und Maschinenethik. Immer wieder ging er auf eigene Projekte an seiner Hochschule ein. Dort entsteht bis Ende des Jahres das siebte Artefakt der Maschinenethik, die siebte moralische Maschine, um diesen Terminus technicus zu benutzen. Er schloss an seine Gedanken vom Anfang des Vortrags an: Die Maschinenethik dürfe nicht nur moralische, sondern auch unmoralische Maschinen hervorbringen, um diese zu erforschen. Manche von ihnen sollte man aber besser im Labor lassen. Am Ende erörterte er die Möglichkeit einer Supermoral (Supermorality), die die Moral der Menschen hinter sich lässt, wie die Superintelligenz (Superintelligence) unsere Intelligenz. Er anerkannte die Vorteile, die eine solche mit sich brächte, auch angesichts des Leids, das wir weltweit verursacht haben, strich aber vor allem mögliche Nachteile heraus.
Abb.: Oliver Bendel bei seinem Vortrag am KIT (Foto: KIT-ZAK/Felix Grünschloß)
In Weiden am See sind die Betreiber eines Freibads auf die Idee gekommen, ein Hochsicherheitszugangssystem einzuführen, wie Golem am 17. Juli 2019 unter Berufung auf den Kurier berichtete. Käufer einer Saisonkarte müssen zunächst ihre Handvenen registrieren. Mit Hilfe eines Handvenenscanners wird dann bei jedem Besuch überprüft, ob sie zugangsberechtigt sind. Hans Zeger, Obmann der ARGE Daten, wird mit folgenden Worten zitiert: „Ich halte den, der das macht, für einen überforderten Apparatschik, der die Grundrechte mit Füßen tritt.“ (Kurier, 17. Juli 2019) Die Nutzung biometrischer Merkmale ist aus mehreren Gründen problematisch. Erstens ist sie mit persönlichen Daten verbunden, die in die falschen Hände gelangen können. Zweitens ist es oft möglich, ein Sicherheitssystem auf einfache Weise zu überlisten. In diesem Falle helfen Toner und Bienenwachs dabei. Drittens kann man sich unter Ausübung brutaler Gewalt Zugang verschaffen. Am Neusiedler See wird vermutlich niemand die Hand eines Stammkunden abhacken. Aber in anderen Kontexten ist eine solche Möglichkeit durchaus vorhanden. Insgesamt schafft die Biometrik vor allem Nachteile für die Betroffenen.
Es gibt mehrere Gründe dafür, dass weibliche Stimmen bei Sprachassistenten bevorzugt werden bzw. die Standardeinstellung sind. Weibliche Stimmen werden tendenziell als angenehm und vertrauenswürdig empfunden. Tatsächlich erwartet man in bestimmten Bereichen auch eher Frauen. Insofern richtet sich die Wahl der Stimmen nach der Nachfrage. Natürlich bestimmt das Angebot auch die Nachfrage. Interessanterweise wird die Möglichkeit, eine männliche Stimme zu wählen, wohl wenig genutzt. Man kann eine weibliche Stimme grundsätzlich so gestalten, dass sie beispielsweise jung oder alt, hoch oder tief, neutral oder anregend, aufregend oder erregend klingt. Bei den bekannten Beispielen sind kaum Extreme zu erkennen. Vielmehr sprechen die meisten Sprachassistenten, die eine weibliche Stimme haben, ziemlich durchschnittlich. Sie sind mitteljung, sprechen mittelhoch und sind mäßig anregend. Man kann weiterhin die Sprechweise so gestalten, dass Naivität, Inkompetenz etc. transportiert werden, etwa durch Unterbrechungen, Versprecher, falsche Aussprache etc. Auch das ist bei den bekannten Umsetzungen mit weiblichen Stimmen nicht zu sehen bzw. zu hören; zumindest ist keine Absicht darin zu erkennen. Man kann eher feststellen, dass Alexa, Siri und Google Assistant die Stimme einer reflektierten und eloquenten Frau haben. Die Aussagen der Sprachassistenten entsprechen diesem Bild freilich nicht durchgehend. In der Frankfurter Allgemeinen Sonntagszeitung vom 23. Juni 2019 wird der Behauptung nachgegangen, dass virtuelle Sprachassistenten mit weiblicher Stimme stets zu Diensten und devot sind. Zitiert wird u.a. der Informations- und Maschinenethiker Oliver Bendel. Er wünscht sich mehr Vielfalt bei Software- und Hardwarerobotern und ihren Stimmen. Zugleich sieht er keinen Grund – wie etwa die UNESCO – für Alarmismus; vielmehr rät er dazu, alle Chatbots und Sprachassistenten in ihren Aussagen zu überprüfen und zu verbessern.