Fernzugriff auf Medizingeräte

„Über das Krankenhausnetzwerk lassen sich Befehle an Anästhesie- und Beatmungsgeräte des Herstellers GE senden. Eine Sicherheitslücke ermöglicht unter anderem, Dosierung und Typ des Narkosemittels zu ändern.“ (Golem, 10. Juli 2019) Zudem können Angreifer per Fernzugriff die Alarme abändern respektive abschalten oder die Gaszusammensetzung bei der Beatmung beeinflussen. Dies meldete Golem am 10. Juli 2019. Anästhesie- und Beatmungsgeräte sind nicht die einzigen Geräte, die sich im medizinischen Kontext hacken bzw. manipulieren lassen. Immer mehr werden Tablets und Smartphones eingesetzt, um Bilder von Symptomen zu machen und an Spezialisten weiterzuschicken. Nicht immer sind sie genügend gegen Attacken geschützt. Auch Operations-, Therapie- und Pflegeroboter sind gefährdet. Man kann im Prinzip einen physischen Eingriff oder eine psychische Behandlung beeinflussen – oder persönliche Daten abziehen. Wie der aktuelle Fall weitergeht, ist unklar. „Das Department of Homeland Security (DHS) warnt vor der Sicherheitslücke, der Hersteller GE sieht hingegen keine Gefahr für die Patienten.“ (Golem, 10. Juli 2019)

Abb.: Viele Medizingeräte können gehackt werden

Chancen und Risiken des autonomen Fahrens

„Chancen und Risiken: KI & Autonomes Fahren“ – so der Titel eines Beitrags im Spektrum der Wissenschaft. In einem fast zwanzigminütigen Video wird der Vortrag von Oliver Bendel gezeigt, den er bei der Veranstaltung „KI & Autonomes Fahren“ am 13. Mai 2019 im Max-Planck-Institut für intelligente Systeme gehalten hat. Die Reihe „Gehirn der Zukunft“, die den Rahmen bildete, wird von der Gemeinnützigen Hertie-Stiftung getragen. Zunächst sprachen Dr. Emanuela Bernsmann von der Gemeinnützigen Hertie-Stiftung und Dr. Katherine J. Kuchenbecker vom Max-Planck-Institut für intelligente Systeme ein Grußwort. Dann trugen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) vor. Oliver Bendel stellte in seinem Vortrag zehn Thesen auf und führte passende Beispiele an. Sein Fazit lautete: „Die Informationsethik kann Chancen und Risiken des automatisierten und autonomen Fahrens herausarbeiten, und sie kann Konflikte erkennen und angehen, etwa indem sie einen Diskurs zwischen Interessengruppen begleitet. Mit Hilfe der Maschinenethik wäre es möglich, automatisierte und autonome Autos in moralische Maschinen zu verwandeln. Diese könnten bei Tieren qualifizieren und quantifizieren, was sie bei Menschen nicht tun sollten.“

Abb.: Chancen und Risiken des autonomen Fahrens

Drohne täuscht Auto

Dudi Nassi, Raz Ben-Netanel, Yuval Elovici und Ben Nassi von der Ben-Gurion University of the Negev (BGU) haben ein Fahrerassistenzsystem getäuscht, indem sie mit Hilfe einer Drohne – ausgerüstet mit einem Projektor – ein falsches Verkehrszeichen an eine Hauswand projiziert haben. Dies beschreiben sie in ihrem Paper „MobilBye: Attacking ADAS with Camera Spoofing“ – ein Video zum Vorgang ist hier verfügbar. „Das vorbeifahrende Auto … ist mit dem Assistenzsystem Mobileye 630 Pro ausgerüstet. Es nimmt mit Kameras die Umgebung auf und versucht, Geschwindigkeitsbegrenzungen anhand von Verkehrsschildern zu erkennen und im Display die erlaubte Höchstgeschwindigkeit einzublenden. Auf dem Gelände der Uni, an der der Test durchgeführt wurde, gilt Tempo 30. Das Fake-Verkehrsschild erlaubt Tempo 90, was auch prompt auf dem Display angezeigt wurde, als die Projektion vom Auto erkannt wurde.“ (Golem, 1. Juli 2019) Da es sich lediglich um eine Warnfunktion des Fahrzeugs handele, sei nichts passiert. Der Fahrer müsse das Auto selbstständig lenken. „Die Forscher stellen aber die Frage, was passieren würde, wenn [ein] Angreifer dieses Verfahren bei einem autonom fahrenden Auto ausprobieren würde.“ (Golem, 1. Juli 2019) Tatsächlich sind zahlreiche Attacken denkbar, die mit Hacken im herkömmlichen Sinne nichts zu tun haben. Eine Übersicht findet sich in dem Artikel „Scheitert autonomes Fahren an manipulierten Sensoren?“ von Oliver Bendel, der hier abrufbar ist.

Abb.: Drohne täuscht Auto (Ausschnitt aus dem Video)

Das Ende von DeepNude

Mit der KI-basierten App DeepNude konnten Bilder von angezogenen Frauen in Bilder von nackten Frauen umgewandelt werden. Die Methode erinnert laut Golem an Deepfakes, bei denen man Gesichter auf andere Körper setzt. Bei DeepNude „sind es allerdings Körperteile wie nackte Haut, Brüste und Vagina, die über die Kleidung gelegt werden“ (Golem, 28. Juni 2019). Auch das kann freilich als Deepfake bezeichnet werden. Die App nutzt laut dem Magazin sogenannte Generative Adversial Networks (GANs), die mithilfe „vieler verschiedener Bilder aus größtenteils pornografischen Inhalten aus dem Internet trainiert wurden“. „Die fertige Applikation funktioniert nur bei weiblichen Körpern, da es … einfach ist, diese in Menge zu finden.“ (Golem, 28. Juni 2019) „Die Beliebtheit der Software hat die Erwartungen der Entwickler nach eigener Aussage drastisch überstiegen. So sollen etwa 500.000 Menschen die Software vom Server geladen haben.“ (Golem, 28. Juni 2019) Nun wurde das Projekt eingestellt. Interessant ist die Aussage der Entwickler hierzu: „Wenn 500.000 Leute es benutzen, ist die Chance hoch, dass sie es falsch benutzen“ – zudem sei der Server „unter der Last der Anfragen zusammengebrochen, was zum Ausfall des Downloaddienstes geführt habe“ (Golem, 28. Juni 2019).

Abb.: Fassade in Porto

Game of Drones

Vom 18. bis zum 20. Juli 2019 findet die Fachtagung „Game of Drones“ statt. Sie wird vom Zeppelin Museum Friedrichshafen in Kooperation mit der Universität Konstanz und der Zeppelin Universität Friedrichshafen organisiert. Es geht, wie der Titel verrät, um die Technologie der Drohnen, um die Spiele und Kriegsspiele damit. „Die wissenschaftliche Fachtagung beleuchtet in drei Panels kritisch das Spannungsfeld dieser Technologie, die absolute Gegensätze in sich vereint. VertreterInnen aus Wirtschaft, Politik und Wissenschaft reflektieren gesellschaftlich relevante Aspekte des militärisch-wirtschaftlichen Sektors sowie der Aneignung durch zeitgenössische KünstlerInnen und Start-Ups. Der Schnittstelle von Drohnen und Künstlicher Intelligenz widmet sich ein Panel aus ethischer und medientheoretischer Perspektive.“ (Website ZM) Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) – Informations- und Maschinenethiker und Verfasser des Drohnenromans „Verlorene Schwestern“ (2009) – spricht am 20. Juli zu „Die Drohne und die Moral“, Philip Hauser (Universität Konstanz) zu „Mobilität und Macht – Drohnen und künstliche Intelligenz aus medienwissenschaftlicher Perspektive“ und Dr. Goetz Herrmann (Universität Paderborn) zu „Game of Swarms: Adaptabilität“. Das Programm kann hier heruntergeladen werden. Weitere Informationen über www.zeppelin-museum.de.

Abb.: Game of Drones

Mit Astronauten und Ethikern im Gespräch

Der Next-Frontiers-Kongress in Stuttgart bringt „Wissenschaftler und Experten aus der Wirtschaft mit Science-Fiction-Autoren ins Gespräch“. „Wenn nicht nur die unterschiedlichsten wissenschaftlichen Disziplinen aufeinandertreffen, sondern die Ideen von Autoren das Denken in ganz neue Richtungen lenken, es mitunter gar auf den Kopf stellen, können gemeinsame Visionen entstehen. Dafür gibt der Kongress Impulse für eine Ideenentwicklung jenseits eingeschliffener Denkmuster. Im Mittelpunkt steht das große realitätsverändernde Potential von Literatur, Film und anderen Künsten – die Transferleistung zwischen fiktionalen Welten und realen Entwicklungslabors, die in der Technikgeschichte oft genutzt wird.“ (Website Next Frontiers) Den Eröffnungsvortrag am 27. Juni 2019 hält der Informations- und Maschinenethiker Prof. Dr. Oliver Bendel zur Frage, ob maschinelle Moral in Zukunft die bessere Moral ist. Den Vortrag im Anschluss bestreitet der Schriftsteller Andreas Brandhorst. Zusammen diskutieren sie auf dem Podium mit dem Journalisten Constantin Schnell und dem Publikum. Referenten an den darauffolgenden Tagen sind u.a. der Technikphilosoph Prof. Dr. Armin Grunwald und der Physiker und Astronaut Prof. Dr. Reinhold Ewald. Weitere Informationen über www.next-frontiers.de.

Abb.: Auch Reinhold Ewald ist mit dabei

Zur Zukunft des autonomen Fahrens

„Unter der Fahrzeughaube menschelt es nur marginal“ – so ein Titel in der Frankfurter Allgemeinen vom 5. Juni 2019. Der Untertitel lautet: „Öffentliche Veranstaltung zum autonomen Fahren: Warum die Visionen von Straßen voller selbständig fahrender Autos in Frage gestellt werden“. Bei der Veranstaltung „KI & Autonomes Fahren“ am 13. Mai 2019 im Max-Planck-Institut für intelligente Systeme, um die es in dem Artikel geht, war der Hörsaal mit seinen 400 Plätzen gut gefüllt. Vier Experten für Künstliche Intelligenz, Robotik, Neurowissenschaft bzw. Moralphilosophie referierten und diskutierten. Die Reihe „Gehirn der Zukunft“, die den Rahmen bildete, wird von der Gemeinnützigen Hertie-Stiftung getragen. Zunächst sprachen Dr. Emanuela Bernsmann von der Gemeinnützigen Hertie-Stiftung und Dr. Katherine J. Kuchenbecker vom Max-Planck-Institut für intelligente Systeme ein Grußwort. Dann trugen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) vor. Oliver Bendel sieht autonomes Fahren vor allem auf Autobahnen, zumindest im Falle von PKW (bei Bussen und Shuttles kann man Tricks anwenden, die das weitgehend unfallfreie Fahren im Stadtverkehr erlauben). Er hält es für möglich, dass es im von manchen Seiten propagierten Maße gar nicht kommt, dass es sich um eine Blase handelt, die irgendwann platzt – in diesem Sinne wird der Informations- und Maschinenethiker auch von der FAZ wiedergegeben. Übrig bleiben vielleicht am Ende weiterentwickelte oder neuartige Fahrerassistenzsysteme. Und das ist immerhin etwas.

Abb.: Im Inneren eines SmartShuttle der Schweizerischen Post

Damit Menschen nicht zu Nummern werden

„San Francisco, am nördlichen Ende des Silicon Valley, ist das technologische Herz Amerikas. Apple, Google und Facebook haben ihre Büros nur wenige Kilometer entfernt von der Metropole. Hier wird entwickelt, was die Welt verändert. Hier wird die Zukunft zur Gegenwart. Und hier wurde soeben ein Gesetz beschlossen, das genauso prägend sein könnte wie all die technologischen Errungenschaften der letzten Dekade: San Francisco verbietet Technologie zur Gesichtserkennung für Polizei und Behörden. Überwachungskameras sind zwar erlaubt, aber Software, die Gesichter erkennt und mit Datenbanken abgleicht, ist nicht zugelassen.“ (SaW, 25. Mai 2019) So beginnt ein Artikel von Raffael Schuppisser mit dem Titel „Damit Menschen nicht zu Nummern werden“, der am 25. Mai 2019 in der Schweiz am Wochenende erschienen ist. Zu Wort kommt Oliver Bendel, der die Chancen und Risiken der Gesichtserkennung erforscht und vor Anwendungen im privaten und öffentlichen Raum warnt. Das Verbot in San Francisco, von dem „der Flughafen und der Hafen“ (SaW, 25. Mai 2019) ausgenommen sind, begrüßt er ausdrücklich. Der Artikel kann hier als PDF heruntergeladen werden.

Abb.: Damit Menschen nicht zu Nummern werden

San Francisco verbietet Gesichtserkennung

„Als erste Stadt in den USA hat San Francisco den Einsatz von Gesichtserkennung durch Behörden verboten.“ (SPON, 15. Mai 2019) Dies meldet SPIEGEL ONLINE am 15. Mai 2019. „Die Gefahr, dass solche Technologien die Bürgerrechte verletzen können, überwiege die behaupteten Vorteile bei Weitem, entschied der Stadtrat der kalifornischen Metropole …“ (SPON, 15. Mai 2019) Der Einsatz von Gesichtserkennung drohe rassistische Ungerechtigkeit zu verschärfen und bedrohe „unsere Möglichkeit, frei von ständiger Beobachtung durch die Regierung zu leben“, heißt es laut SPON in dem Beschluss. „Die städtische Polizei und andere städtische Behörden dürfen gemäß der Entscheidung keinerlei Gesichtserkennungstechnologie erwerben, besitzen oder nutzen. Flughäfen oder andere von den Bundesbehörden betriebene Einrichtungen sind von dem Verbot ausgenommen. Kritiker argumentieren, Systeme zur Gesichtserkennung bedeuteten einen starken Eingriff in die Privatsphäre. Zudem drohe die Gefahr, dass Unschuldige fälschlich als Straftäter identifiziert werden könnten. Die US-Bürgerrechtsorganisation ACLU warnt, mit der Technologie könne die Öffentlichkeit wahllos und ohne konkreten Verdacht oder Anhaltspunkt flächendeckend überwacht werden.“ (SPON, 15. Mai 2019) Bei den AAAI Spring Symposia an der Stanford University war Gesichtserkennung immer wieder ein Thema gewesen.

Abb.: In einem Museum in San Francisco

Müssen Porsche-Fahrer künftig ins Reservat?

Vier Experten für Künstliche Intelligenz, Robotik, Neurowissenschaft bzw. Moralphilosophie referierten und diskutierten am 13. Mai 2019 im Max-Planck-Institut für intelligente Systeme. Die Reihe „Gehirn der Zukunft“, die den Rahmen bildete, wird von der Gemeinnützigen Hertie-Stiftung getragen. Bei der Veranstaltung „KI & Autonomes Fahren“ war der Hörsaal mit seinen 400 Plätzen gut gefüllt. Zunächst sprachen Dr. Emanuela Bernsmann von der Gemeinnützigen Hertie-Stiftung und Dr. Katherine J. Kuchenbecker vom Max-Planck-Institut für intelligente Systeme ein Grußwort. Dann trugen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) vor. Die Podiumsdiskussion moderierte Dr. Marco Dettweiler von der Frankfurter Allgemeinen Zeitung. Über die Veranstaltung berichteten mehrere Zeitungen, etwa die Stuttgarter Zeitung („Müssen Porsche-Fahrer künftig ins Reservat?“) und der General-Anzeiger Reutlingen („Autonomes Fahren: Im Stau Zeit für sich gewinnen“). Weitere Informationen über www.ghst.de/ki-autonomesfahren/.

Abb.: Abgesperrte Strecken für Porsche-Fahrer?

„Handbuch Maschinenethik“ erscheint in gedruckter Form

Die Maschinenethik arbeitet mit Künstlicher Intelligenz und Robotik zusammen. Sie bringt maschinelle Moral hervor und untersucht sie. Ausgangspunkt sind teilautonome und autonome Systeme, etwa selbstständig fahrende Autos, Serviceroboter, Kampfroboter und Chatbots. Das „Handbuch Maschinenethik“, herausgegeben von Prof. Dr. Oliver Bendel, liefert Grundlagen zur Maschinenethik, erkundet Anwendungsgebiete der Disziplin und stellt Prototypen moralischer Maschinen vor. Neben der Maschinenethik kommen Roboterethik und Rechtswissenschaft zu Wort. Die Beiträge des Handbuchs erscheinen seit 2017 und werden laufend über link.springer.com/referencework/10.1007/978-3-658-17484-2 veröffentlicht. Die Autorinnen und Autoren gehören zu den bekanntesten Wissenschaftlerinnen und Wissenschaftlern in Europa auf den Gebieten der Maschinenethik, der Roboterethik und des Roboterrechts. In gedruckter Form kommt das Buch mit allen 22 Beiträgen im Sommer oder Herbst 2019 heraus. Weitere Informationen über www.springer.com/gp/book/9783658174828.

Abb.: Das Cover des Handbuchs

Die Debatte zu KI und Pflege

Mit dem Projekt Die Debatte wollen die Macher nach eigenen Angaben wissenschaftliche Fakten und Perspektiven in gesellschaftliche Debatten einbringen und Diskussionen anstoßen – sie „wollen zeigen, dass die Wissenschaft zu vielen Themen etwas beizutragen hat“ (Website Die Debatte). Themen sind Künstliche Intelligenz, Feinstaub, Organspende, Geoengineering, Intelligenz, Plastikmüll, Wohnungsmarkt, Digitalisierte Kindheit, Frieden, Genchirurgie, Alzheimer, Meinungsforschung, Bienensterben, E-Zigarette, Social Bots, Autonomes Fahren sowie Flucht und Migration. In einer aktuellen Serie geht es um KI und Medizin. Mit Prof. Dr. Oliver Bendel und Prof. Dr. Karsten Weber haben die Betreiber – so ein Tweet vom 14. März 2019 – „über Aufgabenteilung und Verantwortung von Mensch und Maschine und die ethischen Fragen in der Diskussion gesprochen“. Dieser Beitrag ist einsehbar über www.die-debatte.org/kuenstliche-intelligenz-ethik/.

Abb.: Wie wird in der Zukunft betreut und gepflegt?

Solutions to the Social Problems of Automation

Automation is advancing relentlessly. Already decades ago, digitization was its partner. In the industry, innovative robots, for example co-robots, are used. Service robots begin to spread in various areas. Systems of artificial intelligence perform tasks of all sorts, even creative activities. The studies on the development of the labor market reach different results. In any case, it can be said that certain jobs will disappear and many people will have to do without their familiar work. It can also be assumed that in many areas less human work has to be performed on behalf (e.g., for customers and employers). As possible solutions to economic and social problems, an unconditional basic income and a robot tax are suggested. The paper „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ by Oliver Bendel presents, discusses and criticizes these approaches in the context of automation and digitization. Moreover, it develops a relatively unknown proposal, unconditional basic property, and presents its potentials as well as its risks. Oliver Bendel will introduce his ideas at the AAAI spring symposium „Interpretable AI for Well-Being: Understanding Cognitive Bias and Social Embeddedness“ at Stanford University in late March 2019. More information via aaai.org/Symposia/Spring/sss19.php.

Fig.: At Stanford University

Das Gehirn der Zukunft

„Die Digitalisierung hat längst alle Bereiche unseres Lebens durchdrungen und macht auch vor dem menschlichen Gehirn nicht Halt. Die neuen Möglichkeiten bringen Visionen von großen Entwicklungen in Wirtschaft, Forschung und natürlich auch der Hirnforschung mit sich, gleichzeitig gibt es weitreichende Diskussionen, ob alle möglich erscheinenden Entwicklungen ethisch vertretbar sind. Neuronale Netze, künstliche Intelligenz (KI), autonome Systeme – die Digitalisierung ist angewiesen auf neurowissenschaftliche Erkenntnisse. Neurowissenschaftler wiederum versprechen sich neue Wege für Forschung und Behandlung durch die rasanten Fortschritte der Digitalisierung.“ (Website GHS) Gemeinsam mit der Frankfurter Allgemeinen Zeitung veranstaltet die Gemeinnützige Hertie-Stiftung diese Reihe, die laut Eigenaussage in Übersichtsvorträgen, Podiumsdiskussionen und Gesprächen in hochkarätiger Besetzung das „Gehirn der Zukunft“ umkreist. Bei der Veranstaltung „KI & Autonomes Fahren“ am 13. Mai 2019 tragen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) über automatisches und autonomes Fahren vor und diskutieren auf dem Podium miteinander. Weitere Informationen über www.ghst.de/gehirn/erforschen/veranstaltungen/#c11097.

Abb.: Wie sieht das Gehirn der Zukunft aus?

Roboter in der Gesellschaft

Im Februar 2019 ist „Roboter in der Gesellschaft: Technische Möglichkeiten und menschliche Verantwortung“ bei Springer erschienen, herausgegeben von Christiane Woopen und Marc Jannes. Die Beiträge stammen von Alin Albu-Schäffer („Von drehmomentgeregelten Roboterarmen zum intrinsisch nachgiebigen humanoiden Roboter“), Jochen J. Steil („Roboterlernen ohne Grenzen? Lernende Roboter und ethische Fragen“), Oliver Bendel („Die programmierte Moral“), Catrin Misselhorn („Moralische Maschinen in der Pflege? Grundlagen und eine Roadmap für ein moralisch lernfähiges Altenpflegesystem“), Hartmut Hirsch-Kreinsen („Autonome Systeme in der industriellen Arbeitswelt“) und Johannes Weyer („Autonome Technik außer Kontrolle? Möglichkeiten und Grenzen der Steuerung komplexer Systeme in der Echtzeitgesellschaft“). Norbert Lammert, ehemaliger Präsident des Deutschen Bundestags, schreibt zu „Roboterethik. Zur Rolle der Politik“. Das Buch geht zurück auf die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von ceres und Daimler und Benz Stiftung am 24. November 2015 in Berlin. Weitere Informationen über www.springer.com/gp/book/9783662577646#.

Abb.: Ein Roboter unter Menschen

Fachgespräch zur Robotik in der Pflege

Das öffentliche Fachgespräch zu Pflegerobotern am 20. Februar 2019 im Deutschen Bundestag zog zahlreiche Besucher an. Auch Politiker von SPD, Bündnis 90/Die Grünen und FDP waren durchgehend anwesend, zudem bekannte Technikethiker wie Prof. Dr. Armin Grunwald. Robotikerin Dr. Birgit Graf sprach über „Potenziale und Grenzen der Robotik für die Pflege – Stand der Technik und Anwendung, Herausforderungen für Forschung und Entwicklung“, Pflegewissenschaftler Prof. Dr. Manfred Hülsken-Giesler nahm eine „Einordnung und Bewertung aus Sicht der Pflegewissenschaft“ vor. „Ethisch-normative Herausforderungen der Pflegerobotik“ war der Titel des Vortrags von Prof. Dr. Oliver Bendel. Der Informations- und Maschinenethiker stellte Prototypen und Produkte vor und vor diesem Hintergrund ethische Überlegungen an. Auch auf den moralisierten Nao von Michael Anderson, Susan L. Anderson und Vincent Berenz ging er ein. Das Programm kann hier nachgelesen, ein Bericht hier abgerufen werden. Das Parlamentsfernsehen strahlt die Aufzeichnung des Fachgesprächs am 22. Februar 2019 ab 9 Uhr aus.

Abb.: Oliver Bendel bei seinem Vortrag (Quelle: TAB)

Pflegeroboter aus ethischer Sicht

„Die Blätter der Wohlfahrtspflege berichten knapp und dennoch umfassend über wichtige gesellschaftliche, soziale und rechtliche Entwicklungen sowie über fachliche Standards im Sozial- und Gesundheitswesen. Neben grundlegenden Beiträgen stehen Modellbeschreibungen und Arbeitshilfen. Die umfangreichen Fachinformationen bieten Orientierung in allen Tätigkeitsfeldern Sozialer Arbeit sowie in sozialen Diensten und Einrichtungen.“ (Website BdW) Im aktuellen Heft 1/2019 finden sich u.a. Beiträge von Gerd Stüwe und Nicole Ermel („Digitalisierung in der Sozialen Arbeit“), Lulzim Dragidella („Allein in der Fremde. Die Folgen der Flucht und deren Implikationen für die Soziale Arbeit“), Christian Müller („Digitalisierung und Datenschutz in der Sozialen Arbeit“), Christian Dopheide („Grenzerfahrungen. Über Orientierung in einer digitalisierten Welt und den Wert der Sozialen Arbeit“) und Oliver Bendel („Pflegeroboter aus ethischer Sicht“). Weitere Informationen über www.nomos-elibrary.de/10.5771/0340-8574-2019-1/bdw-blaetter-der-wohlfahrtspflege-jahrgang-166-2019-heft-1.

Abb.: Auch Nao-Roboter werden in Pflege und Betreuung eingesetzt

Überlegungen zur Stellvertretermoral

Die Maschinenethik bringt moralische und unmoralische Maschinen hervor. Die maschinelle Moral ist in der Regel festgelegt; es sind bestimmte Aktionen möglich, andere nicht. Ein alternativer Ansatz ist das Moralmenü. Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde. Die Vorteile und Nachteile werden in dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Oliver Bendel diskutiert. Die Maschinen, um die es geht, sind LADYBIRD, der tierfreundliche Saugroboter, und Google Duplex. Telepolis, gegründet 1996, widmet sich seit Jahren immer wieder Roboterethik und Maschinenethik. Bei Heise Medien ist 2016 auch „Die Moral in der Maschine: Beiträge zu Roboter- und Maschinenethik“ von Oliver Bendel erschienen. Der Beitrag wurde am 27. Januar 2019 veröffentlicht und kann über www.heise.de/tp/features/Das-Moralmenue-4285297.html abgerufen werden.

Abb.: Die Marienkäfer dürfen leben

Maschinelle Moral bei den Freidenkern

„Die Freidenker-Vereinigung der Schweiz setzt sich für die Anliegen der Konfessionsfreien ein. Sie tritt ein für die Trennung von Staat und Kirche und für eine weltlich-humanistische Ethik, in der die Menschenrechte eine zentrale Rolle einnehmen. Und sie vertritt ein wissenschaftlich plausibles Weltbild.“ (Website Freidenker Schweiz) Eingeladen haben die Freidenkenden Mittelland den Roboterphilosophen und Freidenker Oliver Bendel aus Zürich. Er spricht am 11. Februar 2019 im Jugendstilsaal des Atrium-Hotels Blume in Baden zum Thema „Der Roboter entdeckt die Philosophie“. Er wird die Zuhörer laut Programm auf eine Reise mitnehmen. „Bei einer Station geht er der Frage nach, ob Roboter Rechte haben oder haben werden.“ Einer solchen Frage widmet sich traditionell die Roboterethik. Bendel ist der Meinung, dass Roboter und KI-Systeme bis auf weiteres keine Rechte haben und haben sollten. Bei einer nächsten – nun geht es um Maschinenethik – „wird er darstellen, wie man Entwickler und ihre Geschöpfe für die Philosophie gewinnt und wie man Roboterautos, Serviceroboter und Chatbots zu moralischen und unmoralischen Maschinen machen kann“ (Programm). Der Flyer zur Veranstaltung kann hier heruntergeladen werden.

Abb.: Pepper in Japan

Transportdrohne stürzt in den Zürichsee

Am 28. Juni 2018 wurde an dieser Stelle auf Transportdrohnen der Schweizerischen Post eingegangen. Das Projekt – es werden Laborproben befördert – wurde mit Interesse aufgenommen. Eine kleine Warnung war auch enthalten: „Es kann allerdings Kollisionen mit anderen Drohnen und mit Vögeln geben, und ein Absturz kann für Fußgänger, Fahrradfahrer und Autofahrer gefährlich sein.“ Die Strecke über den Zürichsee thematisierte Oliver Bendel beim BMAS-Workshop „Leitlinien einer künftigen Finanzierung des Sozialstaats“ am 11. Januar 2019 in Berlin, und er wies auf Chancen und Risiken hin. Der Tages-Anzeiger schrieb am 25. Januar 2019: „Kurz nach 10.20 Uhr stürzte im unteren Seebecken eine Postdrohne ab. Das meldete die Stadtpolizei … Fest steht inzwischen, dass das Fluggerät rund 200 Meter vom Ufer entfernt im Bereich des Bads Mythenquai ins Wasser gefallen und vermutlich versunken ist.“ (Tages-Anzeiger, 25. Januar 2019) Man muss sich der Gefahr von Kollisionen und Abstürzen intensiv widmen und sowohl den Streckenverlauf als auch die technischen Mittel überprüfen. Grundsätzlich ist der Drohneneinsatz in diesem Kontext zu begrüßen, und die Schweizerische Post fällt hier wie andernorts – beim SmartShuttle – durch Innovationen auf.

Abb.: Eine Drohne über dem Wasser

George Soros zum Sozialkreditsystem

George Soros hielt am 24. Januar 2019 eine Rede beim WEF. Der Tages-Anzeiger berichtete unter der Überschrift „Xi Jinping ist der gefährlichste Gegner offener Gesellschaften“ darüber (Link nicht mehr gültig). Der US-Milliardär ging auf das Sozialkreditsystem in China ein. „Es wird das Schicksal des Einzelnen den Interessen des Einparteienstaates in einer in der Geschichte beispiellosen Weise unterordnen.“ (Tages-Anzeiger, 25. Januar 2019) Soros beunruhigen vor allem mit künstlicher Intelligenz ausgestattete Kontrollinstrumente. Diese seien „nützliche Werkzeuge für autoritäre Regime, stellten aber eine fatale Bedrohung für offene Gesellschaften dar“. Offene Gesellschaften hätten weitere Feinde, etwa „Putins Russland“. „Und das gefährlichste Szenario liege gerade darin, dass sich diese Feinde miteinander verschwörten und voneinander lernten, wie sie ihr Volk besser unterdrücken können.“ (Tages-Anzeiger, 25. Januar 2019) Auf die Frage, auf welcher Seite die IT- und Internetkonzerne im Kampf für eine freie Gesellschaft stehen, sagte Soros: „Google und Facebook sind auf der Seite ihrer eigenen Portemonnaies.“ (Tages-Anzeiger, 25. Januar 2019)

Abb.: In Shenyang im Nordosten der Volksrepublik

The Moral Rights of Reverse Cyborgs

Robots have no rights from a philosophical and ethical point of view and cannot currently get any rights. You only have such rights if you can feel or suffer, if you have a consciousness or a will to live. Accordingly, animals can have certain rights, stones cannot. Only human beings have human rights. Certain animals can be granted basic rights, such as chimpanzees or gorillas. But to grant these animals human rights makes no sense. They are not human beings. If one day robots can feel or suffer, if they have a consciousness or a will to live, they must be granted rights. However, Oliver Bendel does not see any way to get there at the moment. According to him, one could at best develop „reverse cyborgs“, i.e. let brain and nerve cells grow on technical structures (or in a robot). Such reverse or inverted cyborgs might at some point feel something. The newspaper Daily Star dealt with this topic on 28 December 2018. The article can be accessed via www.dailystar.co.uk/news/latest-news/748890/robots-ai-human-rights-legal-status-eu-proposal.

Fig.: Who gets the brain implanted?