Markt und Moral

„Seit jeher werden moralische Kategorien und die Regelwerke der Marktwirtschaft in einem Zug erwähnt und immer wieder in ihrem explosiven Konfliktfeld diskutiert. Die Moral liegt in den Spiel-Regeln, und der Wettbewerb findet in den Spiel-Zügen statt, würde man sagen. Doch welche Moral? Und wer oder was setzt diese Regeln in einer inzwischen digitalen Welt, in der Menschen und Produkte der künstlichen Intelligenz mehr und mehr miteinander verknüpft sind?“ (Website Ö1) Mit diesen Worten beginnt die Beschreibung eines Radiobeitrags von Katrin Mackowski, dessen vier Teile an vier aufeinanderfolgenden Tagen (16. bis 19. Dezember 2019) im Radiokolleg von Ö1 unter dem Titel „Markt und Moral“ gesendet werden. Zu Wort kommen u.a. Dr. Margit Schratzenstaller-Altzinger, Prof. Dr. Wilfried Altzinger, Prof. Dr. Mathias Binswanger und – vor allem in der dritten Folge – Prof. Dr. Oliver Bendel. Weitere Infos über oe1.orf.at/programm/20191216#582319.

Abb.: Wie verändert sich die Moral in einer digitalen Welt? (Foto: Stefanie Hauske)

Praktische Nutzung von KI in Versicherungen

Die Euroforum-Konferenz „Automatisation & Data Analytics: Praktische Nutzung von KI in Versicherungen“ findet am 12. und 13. März 2020 in München statt. „Robotics und KI gesteuerte Prozessautomatisierung bieten der Assekuranz sowohl im Antrags- als auch Schadenmanagement die Chance zur Erhöhung von Qualität, Effizienz und Kundenzufriedenheit. Am ersten Konferenztag stellen Experten der Versicherer Allianz, VKB, Cosmos, Gothaer und das Start-up Joonko erfolgreiche Automatisierungsprojekte vor, berichten über ihre Umsetzungserfahrungen und geben Tipps und Tricks.“ (Website Konferenz) „Zukünftig wird ein Versicherer, der es schafft, eine gute Datenaufbereitung, -Qualität und -Sicherheit herzustellen, entscheidende Wettbewerbsvorteile haben. Doch bisher hängen die Daten der Versicherer unstrukturiert in Silos fest und können nicht für KI-Systeme genutzt werden. Am zweiten Konferenztag zeigen Experten von Google, Allianz, Markel, Coya und getsafe auf, wie Versicherer ihre Datensilos aufbrechen und aktivieren können.“ (Website Konferenz) Auch Wissenschaftlerinnen und Wissenschaftler geben Input. Dr. Andrea Cornelius spricht über die „Einführung von KI-Projekten“, Prof. Dr. Oliver Bendel über „KI und Big Data in der Versicherung aus ethischer Sicht“. Der Flyer kann hier heruntergeladen werden.

Abb.: Die Veranstaltung findet in München statt

Eine Ära der Cyborgs

„‚Du hast aber nicht getrunken, oder?‘, fragt einer der Freunde, bevor Leon … sich selbst einen Mikrochip implantiert. Auf dem Tisch liegt der Injektionsapparat, mit einer ungefähr halben Zentimeter dicken Nadel. Darin befindet sich der Mikrochip. Leon will den Chip in seine Hand setzen, um seine Bitcoins ab jetzt unter der Haut tragen zu können. Auf seiner Hand ist schon ein Punkt vorgezeichnet, an dieser Stelle will er gleich einstechen.“ (jetzt, 17. November 2019) So beginnt der Beitrag „Warum lassen sich Menschen freiwillig Chips implantieren?“ im Jugendmagazin jetzt, erschienen am 17. November 2019. Es geht um Bio- und Bodyhacking, um Human und Animal Enhancement, um Cyborgs. Zu Wort kommt der Technikphilosoph Oliver Bendel. Er beschäftigt sich seit Jahren mit dem Thema und sieht sowohl Chancen als auch Risiken. Grundsätzlich hält er Bio- und Bodyhacking für eine interessante Möglichkeit der Bemächtigung. Wenn sie allerdings unter Druck geschieht, wenn der Bemächtigung eine Bemächtigung anderer Art vorausgeht, entstehen seiner Meinung nach Probleme, ebenso wenn eine Massenbewegung entstehen würde, eine regelrechte Ära der Cyborgs. Der Beitrag kann über www.jetzt.de/gesundheit/warum-leon-sich-selbst-einen-mikro-chip-implantiert-hat abgerufen werden.

Abb.: Eine Ära der Cyborgs

Robotik und KI in der Regio Basiliensis

„Die Chancen und Risiken, die von Robotik und KI ausgehen, beurteilt man am besten mit Blick auf konkrete Anwendungen. Die folgenden Fragen hängen mit Servicerobotern zusammen, die über Kameras und Sensoren und teilweise über Gesichts- und Stimmerkennung sowie natürlichsprachliche Fähigkeiten verfügen.“ Mit diesen Worten beginnt ein kleiner Beitrag von Oliver Bendel für REGIOINFORM 02/19. Die Zeitschrift stellt Entwicklungen in der Region Basel dar, in der auch die Hochschule des Informations- und Maschinenethikers beheimatet ist, wobei er vor allem an den Standorten in Olten und Brugg-Windisch tätig ist. In mehreren Vorträgen und Publikationen hat Oliver Bendel darauf hingewiesen,  dass Pauschalurteile über Robotik und KI zu vermeiden sind. So hat er etwa im Februar 2019 im Deutschen Bundestag mehrere Pflegeroboter vorgestellt, mitsamt den technischen Details, und auf dieser Grundlage ethische Überlegungen angestellt. Dabei hat er auch klar zwischen den klassischen Bereichsethiken wie Informationsethik und Wirtschaftsethik auf der einen Seite und der Maschinenethik auf der anderen Seite unterschieden. Der Begriff der digitalen Ethik verwischt die Unterschiede seiner Meinung nach. Das ganze Heft der Regio Basiliensis kann hier heruntergeladen werden.

Abb.: Die Messe in Basel

„Pflegeroboter“ wird „Bestseller“

Das Springer-Buch „Pflegeroboter“, herausgegeben von Oliver Bendel, hat zwischen November 2018 und September 2019 über 100.000 Downloads erreicht. Gezählt werden Downloads des gesamten Werks sowie einzelner Kapitel. Es ist ein „Bestseller“ – in Anführungszeichen, weil es sich um ein Open-Access-Buch handelt. „Pflegeroboter, im Moment noch mehrheitlich Prototypen, unterstützen oder ersetzen menschliche Pflegekräfte bzw. Betreuer. Sie bringen Kranken und Alten die benötigten Medikamente und Nahrungsmittel, helfen beim Hinlegen und Aufrichten oder alarmieren den Notdienst. Vorteile von Pflegerobotern sind durchgehende Verwendbarkeit und gleichbleibende Qualität der Dienstleistung. Nachteile sind Kostenintensität (bei möglicher Amortisation) und Komplexität der Anforderungen. Unter der wissenschaftlichen Leitung von Prof. Dr. Oliver Bendel trafen sich im September 2017 Vertreter verschiedener wissenschaftlicher Disziplinen im Rahmen eines Ladenburger Diskurses der Daimler und Benz Stiftung, um über den aktuellen und künftigen Einsatz von Pflegerobotern zu sprechen und Forschungspotenziale zu identifizieren. Die Autoren gehen in ihren Beiträgen auch Fragen aus Wirtschafts-, Medizin- und Informationsethik nach: Wer trägt die Verantwortung bei einer fehlerhaften Betreuung und Versorgung durch die Maschine? Inwieweit kann diese die persönliche und informationelle Autonomie des Patienten unterstützen oder gefährden? Ist der Roboter eine Entlastung oder ein Konkurrent für Pflegekräfte? Antworten müssen von Wissenschaft und Gesellschaft gefunden werden.“ (Information Springer)

Abb.: P-Care in Aktion (Foto: Daimler und Benz Stiftung)

Chimären und Cyborgs

„Chimären im biologischen und medizinischen Sinne sind Organismen, die aus Zellen bzw. Geweben unterschiedlicher Individuen bestehen und dennoch geschlossene und lebensfähige (nicht unbedingt fortpflanzungsfähige) Lebewesen bilden. Sie können innerhalb einer Art oder zwischen Arten angesiedelt und sowohl Pflanzen als auch Tiere sein. Es gibt natürliche (Blutchimären bei Säugetieren) und künstliche Mischwesen (Veredelung bei Pflanzen, Tier-Mensch-Embryonen).“ Mit diesen Worten beginnt ein Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel, erschienen am 23. August 2019. Cyborgs sind keine Chimären in diesem Sinne. Dennoch könnte die diesbezügliche Forschung auch Relevanz für sie haben, vor allem für umgekehrte oder umgedrehte Cyborgs, etwa Roboter, die ein tierisches oder menschliches Gehirn oder Organ eingepflanzt bekommen. Tier-Mensch-Chimären zur Herstellung von menschlichen Organen werden von vielen Ethikern als unproblematisch angesehen. Das ist erstaunlich, da Erkenntnisse aus Tierethik und Tiermedizin und insbesondere Leiden und Tod von nichtmenschlichen Lebewesen ausgeblendet werden. Dieser Rückschritt in der Diskussion wird am Ende des Beitrags angesprochen, den man über wirtschaftslexikon.gabler.de/definition/chimaere-121204 herunterladen kann.

Abb.: Die Idee einer Speule

Considerations on Unconditional Basic Income and Basic Property

Automation is advancing relentlessly. Already decades ago, digitization was its partner. In the industry, innovative robots, for example co-robots, are used. Service robots begin to spread in various areas. Systems of artificial intelligence perform tasks of all sorts, even creative activities. The studies on the development of the labor market reach different results. In any case, it can be said that certain jobs will disappear and many people will have to do without their familiar work. It can also be assumed that in many areas less human work has to be performed on behalf (e.g., for customers and employers). As possible solutions to economic and social problems, an unconditional basic income and a robot tax are suggested. The paper „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ by Oliver Bendel presents, discusses and criticizes these approaches in the context of automation and digitization. Moreover, it develops a relatively unknown proposal, unconditional basic property, and presents its potentials as well as its risks. The lecture took place on 26 March 2019 at Stanford University (AAAI Spring Symposium „Interpretable AI for Well-Being: Understanding Cognitive Bias and Social Embeddedness“) and led to lively discussions. It was nominated for the „best presentation“. The paper has now been published as a preprint and can be downloaded here.

Fig.: A house in the Atlas Mountains

Ein Ethikzentrum für die digitale Gesellschaft?

Laut NZZ und anderen Medien soll Genf „ein Ethikzentrum für die digitale Gesellschaft werden“ (NZZ, 15. August 2019). Am 2. September soll beim Swiss Global Digital Summit eine neue „Plattform“ gegründet werden, präsidiert von der ehemaligen Bundesrätin Doris Leuthard (CVP), heute u.a. Verwaltungsrätin der Bell Food Group AG, einer Fleischverarbeiterin. Führungsleute von „namhaften Unternehmen“ hätten sich angemeldet, unter ihnen „die CEO von Adecco, Credit Suisse, UBS, Migros, Roche, SwissRe, Zurich Insurance, Swisscom und SBB“ (NZZ, 15. August 2019). Mit dabei seien auch die Präsidenten der Hochschulen ETHZ und EPFL sowie Vertreter aus den Chefetagen von Google, Huawei, IBM, Microsoft, Uber und Siemens. Die Grundhaltung und Stoßrichtung wird offenbar klar und deutlich vorgegeben. Es geht laut NZZ „darum, im optimistischen Geist des technischen Fortschritts ethische Standards zu formulieren, um die heiklen Aspekte der rasanten Entwicklung zu meistern“. „Stichworte dafür sind künstliche Intelligenz, die Automatisierung sowie die Ansammlung und Verwendung persönlicher Daten. Dafür sollen Lösungen im marktwirtschaftlich-freiheitlichen Sinn gefunden werden, die eine internationale Strahlkraft entwickeln.“ (NZZ, 15. August 2019) Wie auf EU-Ebene besteht die Gefahr der Instrumentalisierung der Ethik und der Vereinnahmung der Wissenschaft durch politische und wirtschaftliche Kräfte. Als Moralphilosoph wird man der Einrichtung eher skeptisch gegenüberstehen.

Abb.: Genf soll ein Ethikzentrum werden

Was ist ein Deepfake?

„Ein Deepfake oder Deep Fake ist ein mit Hilfe künstlicher Intelligenz erstelltes Bild oder Video, das authentisch wirkt, es aber nicht ist. Auch die Methoden und Techniken in diesem Zusammenhang werden mit dem Begriff bezeichnet. Verwendet werden Machine Learning und speziell Deep Learning. Mit Deepfakes will man Kunst- und Anschauungsobjekte schaffen oder Mittel zur Diskreditierung, Manipulation und Propaganda. Politik und Pornografie sind entsprechend eng mit dem Phänomen verwoben.“ Mit diesen Worten beginnt ein Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon, veröffentlicht am 26. Juli 2019. Am Ende wird auch die Perspektive der Ethik eingenommen: „Deepfakes können Persönlichkeitsrechte verletzen und in Anschuldigungen, Verwicklungen und Auseinandersetzungen münden. Sie gefährden die informationelle Autonomie und sind so ein Thema der Informationsethik. Ferner können, je nach Fall, Medien-, Politik- und Wirtschaftsethik ins Spiel kommen.“ Der ganze Beitrag kann über wirtschaftslexikon.gabler.de/definition/deepfake-120960 aufgerufen werden.

Abb.: Auch von Barack Obama gibt es ein Deepfake

Erst das Gesicht, dann die Ware?

„Sie gehen in einen Laden, packen Fertigpizza, Salat und eine Flasche Mineralwasser in eine Tüte. Beim Ausgang wird ihr Gesicht gescannt, und schwupps, ist ihr Einkauf von ihrem Konto abgebucht. So funktioniert Shopping teilweise bereits heute in China. In der Schweiz werden ähnliche Systeme in Betracht gezogen.“ Dies meldete der Tages-Anzeiger am 25. Juli 2019. Migrolino-Chef Markus Laenzlinger stelle sich vor, dass Kunden „sich mittels Smartphone oder Gesichtserkennung beim Betreten des Ladens identifizieren“. „Beim Verlassen werde der Einkauf automatisch gescannt und bezahlt.“ (Tages-Anzeiger, 25. Juli 2019) Allerdings gehört Gesichtserkennung zu den problematischsten Technologien, die im öffentlichen und halböffentlichen Raum verwendet werden können. Entsprechend beobachtet laut Tages-Anzeiger der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte die Entwicklung. „Wichtig sei, dass die Kunden darüber informiert sind, dass Bilder von ihnen genutzt werden. Und er warnte zusätzlich vor den Gefahren beim Sammeln von biometrischen Daten, wie etwa dem Identitätsdiebstahl.“ (Tages-Anzeiger, 25. Juli 2019) Wichtig ist grundsätzlich auch, dass die Kunden eine andere Möglichkeit zur Bezahlung haben.

Abb.: Erst das Gesicht, dann die Ware?

Zur Zukunft des Menschen

„Wie wird sich die Menschheit und der einzelne Mensch in Zukunft entwickeln – insbesondere angesichts der voranschreitenden Technologisierung unseres Alltags? Wie eng arbeiten wir zukünftig mit Robotern zusammen? Tritt der Mensch bald in einen Wettstreit mit intelligenten Maschinen? Und wie verändert sich die Natur des Menschen durch den Einsatz von Implantaten und durch gentechnische Verfahren? Fragen wie diese stehen im Mittelpunkt des 21. Turmdersinne-Symposiums vom 11. bis 13. Oktober in der Fürther Stadthalle.“ Dies melden die Fürther Nachrichten am 23. Juli 2019. „Renommierte Experten verschiedener Fachgebiete debattieren über die ethischen und gesellschaftlichen Herausforderungen der transhumanistischen Zukunft. Ebenso werfen Mediziner einen Blick auf die technischen Möglichkeiten in der Neuroregeneration und der intelligenten Prothetik. Wie jedes Jahr wird es auch wieder zahlreiche Möglichkeiten zur direkten Diskussion mit den Experten geben.“ (Fürther Nachrichten, 23. Juli 2019) Es tragen u.a. Karlheinz Steinmüller, Oliver Bendel, Stefan Sorgner, Alireza Gharabaghi und Christiane Eichenberg vor. In ein Podiumsgespräch werden sich Bertolt Meyer und Enno Park vertiefen. Weitere Informationen im zitierten Artikel mit dem Titel „Technische und ethische Fragen im Mittelpunkt“ und über philoscience.byseum.de/de/veranstaltungen_start/veranstaltungen_symposium/programm.

Abb.: Ein Jogger mit einer Prothese

Zur Aufgabe der Ethik

Am 18. Juli 2019 war Oliver Bendel zu Gast beim KIT. Die renommierte Universität in Karlsruhe verfolgte in ihrem Colloquium Fundamentale ein Semester lang „die stille Revolution der KI-Technologien“. Den Schlusspunkt setzte der Informations- und Maschinenethiker aus Zürich. Er stellte zunächst die Frage, ob Ethik eine Wissenschaft ist, und gab die Antwort: Sie ist es, wenn sie wissenschaftliche Methoden benutzt. Wenn sie wiederum eine Wissenschaft sei, sei ihre Aufgabe nicht, das Gute in die Welt zu bringen, sondern das Gute und Böse zu untersuchen. Ihre Aufgabe sei die jeder Wissenschaft, nämlich Erkenntnisgewinn und -vermittlung. Danach präsentierte Oliver Bendel mehrere Serviceroboter, Chatbots und Sprachassistenten und diskutierte sie aus den Perspektiven von Informations- und Maschinenethik. Immer wieder ging er auf eigene Projekte an seiner Hochschule ein. Dort entsteht bis Ende des Jahres das siebte Artefakt der Maschinenethik, die siebte moralische Maschine, um diesen Terminus technicus zu benutzen. Er schloss an seine Gedanken vom Anfang des Vortrags an: Die Maschinenethik dürfe nicht nur moralische, sondern auch unmoralische Maschinen hervorbringen, um diese zu erforschen. Manche von ihnen sollte man aber besser im Labor lassen. Am Ende erörterte er die Möglichkeit einer Supermoral (Supermorality), die die Moral der Menschen hinter sich lässt, wie die Superintelligenz (Superintelligence) unsere Intelligenz. Er anerkannte die Vorteile, die eine solche mit sich brächte, auch angesichts des Leids, das wir weltweit verursacht haben, strich aber vor allem mögliche Nachteile heraus.

Abb.: Oliver Bendel bei seinem Vortrag am KIT (Foto: KIT-ZAK/Felix Grünschloß)

Die gute, alte Zeit bei Google Maps

Auf Google Maps trägt Riva del Garda den Namen Reiff. Die Habsburger nannten die Stadt so. Aber ein Reiff am Gartsee kennt heute niemand mehr. Teplice war 1895 bis 1918 und 1918 bis 1945 Teplitz-Schönau. Google Maps benutzt die Bezeichnung immer noch. Die Frage ist, ob damit ein politisches Statement verbunden ist. Am rechten Rand dürfte man sich auf jeden Fall über solche Namen freuen. Diese sind bei dem Kartendienst keineswegs eine Ausnahme. Bei einem virtuellen Spaziergang im Veltlin (Valtellina) stößt man laufend auf sie. Morbegno ist Morbend, Sondrio Sünders. Worms ist immerhin wieder Bormio geworden. Vielleicht hat ein Benutzer protestiert. Auch das Elsass ist natürlich eine Fundgrube. Mulhouse ist Mülhausen – dieser Name ist dort freilich noch allgegenwärtig. Doch zurück nach Tschechien, nach Karlsbad, weiter nach Marienbad, Pilsen und Klattau. Und dann wieder hoch, bis Adolfsgrün. Bei Google ist, warum auch immer, die Zeit stehengeblieben.

Abb.: Teplice heißt wieder Teplitz-Schönau

Stets zu Diensten?

Es gibt mehrere Gründe dafür, dass weibliche Stimmen bei Sprachassistenten bevorzugt werden bzw. die Standardeinstellung sind. Weibliche Stimmen werden tendenziell als angenehm und vertrauenswürdig empfunden. Tatsächlich erwartet man in bestimmten Bereichen auch eher Frauen. Insofern richtet sich die Wahl der Stimmen nach der Nachfrage. Natürlich bestimmt das Angebot auch die Nachfrage. Interessanterweise wird die Möglichkeit, eine männliche Stimme zu wählen, wohl wenig genutzt. Man kann eine weibliche Stimme grundsätzlich so gestalten, dass sie beispielsweise jung oder alt, hoch oder tief, neutral oder anregend, aufregend oder erregend klingt. Bei den bekannten Beispielen sind kaum Extreme zu erkennen. Vielmehr sprechen die meisten Sprachassistenten, die eine weibliche Stimme haben, ziemlich durchschnittlich. Sie sind mitteljung, sprechen mittelhoch und sind mäßig anregend. Man kann weiterhin die Sprechweise so gestalten, dass Naivität, Inkompetenz etc. transportiert werden, etwa durch Unterbrechungen, Versprecher, falsche Aussprache etc. Auch das ist bei den bekannten Umsetzungen mit weiblichen Stimmen nicht zu sehen bzw. zu hören; zumindest ist keine Absicht darin zu erkennen. Man kann eher feststellen, dass Alexa, Siri und Google Assistant die Stimme einer reflektierten und eloquenten Frau haben. Die Aussagen der Sprachassistenten entsprechen diesem Bild freilich nicht durchgehend. In der Frankfurter Allgemeinen Sonntagszeitung vom 23. Juni 2019 wird der Behauptung nachgegangen, dass virtuelle Sprachassistenten mit weiblicher Stimme stets zu Diensten und devot sind. Zitiert wird u.a. der Informations- und Maschinenethiker Oliver Bendel. Er wünscht sich mehr Vielfalt bei Software- und Hardwarerobotern und ihren Stimmen. Zugleich sieht er keinen Grund – wie etwa die UNESCO – für Alarmismus; vielmehr rät er dazu, alle Chatbots und Sprachassistenten in ihren Aussagen zu überprüfen und zu verbessern.

Abb.: Eine weibliche Bedienung

Fernzugriff auf Medizingeräte

„Über das Krankenhausnetzwerk lassen sich Befehle an Anästhesie- und Beatmungsgeräte des Herstellers GE senden. Eine Sicherheitslücke ermöglicht unter anderem, Dosierung und Typ des Narkosemittels zu ändern.“ (Golem, 10. Juli 2019) Zudem können Angreifer per Fernzugriff die Alarme abändern respektive abschalten oder die Gaszusammensetzung bei der Beatmung beeinflussen. Dies meldete Golem am 10. Juli 2019. Anästhesie- und Beatmungsgeräte sind nicht die einzigen Geräte, die sich im medizinischen Kontext hacken bzw. manipulieren lassen. Immer mehr werden Tablets und Smartphones eingesetzt, um Bilder von Symptomen zu machen und an Spezialisten weiterzuschicken. Nicht immer sind sie genügend gegen Attacken geschützt. Auch Operations-, Therapie- und Pflegeroboter sind gefährdet. Man kann im Prinzip einen physischen Eingriff oder eine psychische Behandlung beeinflussen – oder persönliche Daten abziehen. Wie der aktuelle Fall weitergeht, ist unklar. „Das Department of Homeland Security (DHS) warnt vor der Sicherheitslücke, der Hersteller GE sieht hingegen keine Gefahr für die Patienten.“ (Golem, 10. Juli 2019)

Abb.: Viele Medizingeräte können gehackt werden

Chancen und Risiken des autonomen Fahrens

„Chancen und Risiken: KI & Autonomes Fahren“ – so der Titel eines Beitrags im Spektrum der Wissenschaft. In einem fast zwanzigminütigen Video wird der Vortrag von Oliver Bendel gezeigt, den er bei der Veranstaltung „KI & Autonomes Fahren“ am 13. Mai 2019 im Max-Planck-Institut für intelligente Systeme gehalten hat. Die Reihe „Gehirn der Zukunft“, die den Rahmen bildete, wird von der Gemeinnützigen Hertie-Stiftung getragen. Zunächst sprachen Dr. Emanuela Bernsmann von der Gemeinnützigen Hertie-Stiftung und Dr. Katherine J. Kuchenbecker vom Max-Planck-Institut für intelligente Systeme ein Grußwort. Dann trugen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) vor. Oliver Bendel stellte in seinem Vortrag zehn Thesen auf und führte passende Beispiele an. Sein Fazit lautete: „Die Informationsethik kann Chancen und Risiken des automatisierten und autonomen Fahrens herausarbeiten, und sie kann Konflikte erkennen und angehen, etwa indem sie einen Diskurs zwischen Interessengruppen begleitet. Mit Hilfe der Maschinenethik wäre es möglich, automatisierte und autonome Autos in moralische Maschinen zu verwandeln. Diese könnten bei Tieren qualifizieren und quantifizieren, was sie bei Menschen nicht tun sollten.“

Abb.: Chancen und Risiken des autonomen Fahrens

Operation „Honigbiene“

Das Sozialkreditsystem, mit dem die Partei die Bevölkerung von China überwachen und maßregeln will, ist in Europa auf massive Kritik gestoßen. Nun wurde bekannt, dass die chinesische Regierung ausländische Touristen mit einer Anwendung ausforscht, „die bei der Einreise auf dem Handy installiert wird“. Die App greift auf Informationen auf dem Smartphone zu, etwa auf Kontakte, Kalender, SMS, Standort oder Anruflisten, und „überträgt diese an einen Computer der Grenzpolizei“ (SZ, 2. Juli 2019). Außerdem sucht sie laut der Süddeutschen Zeitung auf dem Handy nach Dateien, die aus Sicht der chinesischen Regierung verdächtig sind – dazu gehörten Pamphlete von Islamisten, aber auch harmlose religiöse Inhalte sowie Dateien mit Bezügen zu Taiwan oder Tibet. Betroffen seien Reisende, die im Westen über den Landweg in die chinesischen Provinz Xinjiang einreisen. Über die Überwachung von Touristen berichteten am 2. Juli mehrere Medien. Journalisten der Süddeutschen, des NDR und mehrerer weiterer Medien sowie IT-Experten ist es offenbar gelungen, die Software zu entschlüsseln. Zur Operation „Honigbiene“ und mit Blick auf ihre Story schreibt die SZ: „Die Grenzpolizei fällt über das Smartphone her, eine App saugt dann viele private Informationen ab. Eine Recherche aus einem beispiellosen Überwachungsstaat.“ (SZ, 2. Juli 2019)

Abb.: Eine echte und eine falsche Biene

Drohne täuscht Auto

Dudi Nassi, Raz Ben-Netanel, Yuval Elovici und Ben Nassi von der Ben-Gurion University of the Negev (BGU) haben ein Fahrerassistenzsystem getäuscht, indem sie mit Hilfe einer Drohne – ausgerüstet mit einem Projektor – ein falsches Verkehrszeichen an eine Hauswand projiziert haben. Dies beschreiben sie in ihrem Paper „MobilBye: Attacking ADAS with Camera Spoofing“ – ein Video zum Vorgang ist hier verfügbar. „Das vorbeifahrende Auto … ist mit dem Assistenzsystem Mobileye 630 Pro ausgerüstet. Es nimmt mit Kameras die Umgebung auf und versucht, Geschwindigkeitsbegrenzungen anhand von Verkehrsschildern zu erkennen und im Display die erlaubte Höchstgeschwindigkeit einzublenden. Auf dem Gelände der Uni, an der der Test durchgeführt wurde, gilt Tempo 30. Das Fake-Verkehrsschild erlaubt Tempo 90, was auch prompt auf dem Display angezeigt wurde, als die Projektion vom Auto erkannt wurde.“ (Golem, 1. Juli 2019) Da es sich lediglich um eine Warnfunktion des Fahrzeugs handele, sei nichts passiert. Der Fahrer müsse das Auto selbstständig lenken. „Die Forscher stellen aber die Frage, was passieren würde, wenn [ein] Angreifer dieses Verfahren bei einem autonom fahrenden Auto ausprobieren würde.“ (Golem, 1. Juli 2019) Tatsächlich sind zahlreiche Attacken denkbar, die mit Hacken im herkömmlichen Sinne nichts zu tun haben. Eine Übersicht findet sich in dem Artikel „Scheitert autonomes Fahren an manipulierten Sensoren?“ von Oliver Bendel, der hier abrufbar ist.

Abb.: Drohne täuscht Auto (Ausschnitt aus dem Video)

Roboter, Empathie und Emotionen

„Roboter, Empathie und Emotionen“ – dieses Forschungsprojekt hatte die Einrichtung für Technologiefolgenabschätzung der Schweiz, die TA-SWISS, vor einiger Zeit ausgeschrieben. Den Zuschlag hat ein Konsortium von FHNW, ZHAW und Universität St. Gallen erhalten. Der Antragsteller, Prof. Dr. Hartmut Schulze von der Hochschule für Angewandte Psychologie FHNW, deckt die Psychologie ab. Der Co-Antragsteller, Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW, nimmt die Perspektive von Informations-, Roboter- und Maschinenethik ein, die Co-Antragstellerin, Prof. Dr. Maria Schubert von der ZHAW, die der Pflegewissenschaft. Die TA-SWISS stellte auf ihrer Website fest: „Welchen Einfluss haben Roboter … auf unsere Gesellschaft und auf die Personen, die mit ihnen interagieren? Sind Roboter vielleicht eher Spitzel als Vertraute? … Was erwarten wir von diesen Maschinen beziehungsweise was dürfen wir effektiv von ihnen erwarten? Zahlreiche soziologische, psychologische, wirtschaftliche, philosophische und rechtliche Fragen im Zusammenhang mit dem gegenwärtigen und künftigen Einsatz und Potenzial der Roboter sind noch offen.“ (Website TA-SWISS) Das Kick-off-Meeting mit einer hochkarätig besetzten Begleitgruppe fand am 26. Juni 2019 in Bern statt.

Abb.: Beim Berliner Kolloquium (Foto: Daimler und Benz Stiftung)

400 Keywords Informationsethik

Ende Juni 2019 erschien die zweite Auflage des Lexikons zur Informationsethik von Oliver Bendel im Springer-Verlag. Zunächst kann man es über SpringerLink beziehen. Ende Juli wird es voraussichtlich in den Buchhandlungen verfügbar sein. Auf die „300 Keywords Informationsethik“ von 2016 folgten die „400 Keywords Informationsethik“. In beiden Fällen lautet der Untertitel „Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik“. Sowohl die Bereiche der Informations-, Roboter- und Maschinenethik als auch die der Künstlichen Intelligenz und der Robotik wurden ausgebaut. Es finden sich nun Begriffe wie „Brain-Computer Interface“, „Gesichtserkennung“ und „Echokammer“ darin. 2014 und 2015 war das Projekt noch mit dem Wunsch gestartet, die Informationsethik weiterleben zu lassen und die Maschinenethik einem breiteren Publikum nahezubringen. Das Buch kam 2016 auf den Markt und wurde seitdem etwa 40.000 Mal heruntergeladen (im Gesamten und in Teilen). In der Zwischenzeit explodierten die Themenbereiche förmlich. Eine zweite Auflage war dringend notwendig. Auf über 300 Seiten kann man sich nun einen Überblick über vergangene, gegenwärtige und zukünftige Entwicklungen verschaffen und sich Definitionen bekannter und weniger bekannter Phänomene aneignen. Weitere Informationen über www.springer.com/gp/book/9783658266639.

Abb.: Bendel in der Bibliothek der Hochschule für Wirtschaft FHNW in Windisch (Foto: Kai R. Joachim)

Game of Drones

Vom 18. bis zum 20. Juli 2019 findet die Fachtagung „Game of Drones“ statt. Sie wird vom Zeppelin Museum Friedrichshafen in Kooperation mit der Universität Konstanz und der Zeppelin Universität Friedrichshafen organisiert. Es geht, wie der Titel verrät, um die Technologie der Drohnen, um die Spiele und Kriegsspiele damit. „Die wissenschaftliche Fachtagung beleuchtet in drei Panels kritisch das Spannungsfeld dieser Technologie, die absolute Gegensätze in sich vereint. VertreterInnen aus Wirtschaft, Politik und Wissenschaft reflektieren gesellschaftlich relevante Aspekte des militärisch-wirtschaftlichen Sektors sowie der Aneignung durch zeitgenössische KünstlerInnen und Start-Ups. Der Schnittstelle von Drohnen und Künstlicher Intelligenz widmet sich ein Panel aus ethischer und medientheoretischer Perspektive.“ (Website ZM) Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) – Informations- und Maschinenethiker und Verfasser des Drohnenromans „Verlorene Schwestern“ (2009) – spricht am 20. Juli zu „Die Drohne und die Moral“, Philip Hauser (Universität Konstanz) zu „Mobilität und Macht – Drohnen und künstliche Intelligenz aus medienwissenschaftlicher Perspektive“ und Dr. Goetz Herrmann (Universität Paderborn) zu „Game of Swarms: Adaptabilität“. Das Programm kann hier heruntergeladen werden. Weitere Informationen über www.zeppelin-museum.de.

Abb.: Game of Drones

Buch zur Informationsethik in zweiter Auflage

Im Sommer 2019 erscheint die zweite Auflage des Lexikons zur Informationsethik von Oliver Bendel im Springer-Verlag. Auf die „300 Keywords Informationsethik“ von 2016 folgen die „400 Keywords Informationsethik“. In beiden Fällen lautet der Untertitel „Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik“. Sowohl die Bereiche der Informations-, Roboter- und Maschinenethik als auch die der Künstlichen Intelligenz und der Robotik wurden ausgebaut. Es finden sich nun Begriffe wie „Brain-Computer Interface“, „Gesichtserkennung“ und „Echokammer“ darin. 2014 und 2015 war das Projekt noch mit dem Wunsch gestartet, die Informationsethik weiterleben zu lassen und die Maschinenethik einem breiteren Publikum näherzubringen. Das Buch kam 2016 auf den Markt und wurde seitdem etwa 40.000 Mal heruntergeladen. In der Zwischenzeit explodierten die Themenbereiche förmlich. Eine zweite Auflage war dringend notwendig. Auf über 300 Seiten kann man sich nun einen Überblick über vergangene, gegenwärtige und zukünftige Entwicklungen verschaffen und sich Definitionen bekannter und weniger bekannter Phänomene aneignen. Weitere Informationen über www.springer.com/gp/book/9783658266639.

Abb.: Das Cover des Buchs zur Informationsethik