New Members of Dutch Advisory Board

The Netherlands Organisation for Scientific Research (NWO) supports and finances the thematic research programme Responsible Innovation (NWO-MVI). According to the responsible person, its aim is to carry out early phase research into ethical and societal issues related to innovation so that these can be taken into account during the design process. The input may come from information ethics, technology ethics and machine ethics or from other suitable disciplines. Researchers from the humanities, the technological and medical sciences and the social sciences can submit joint proposals, whereby a collaboration with partners from the private and public sector is possible and desirable. Prof. Dr. Oliver Bendel (University of Applied Sciences and Arts Northwestern Switzerland FHNW) was invited to join the programme’s international advisory board which will be composed of approximately ten members and which plays an important role in assessing the submitted proposals in terms of scientific quality and societal relevance. Prof. Dr. Armin Grunwald (Karlsruhe Institute of Technology) is chairman of the advisory board. More information via www.nwo.nl.

Fig.: The meetings will take place in Amsterdam

Ladenburger Diskurs zu Pflegerobotern

Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW lädt in diesen Tagen renommierte Wissenschaftlerinnen und Wissenschaftler zum Ladenburger Diskurs 2017 über Pflegeroboter ein. Am 12. und 13. September arbeitet man in der Villa der Daimler und Benz Stiftung in Ladenburg zusammen, trägt vor und diskutiert. Pflegeroboter unterstützen oder ersetzen – so die Idee – menschliche Pflegekräfte bzw. Betreuerinnen und Betreuer. Sie bringen und reichen Kranken und Alten die benötigten Medikamente und Nahrungsmittel, helfen ihnen beim Hinlegen und Aufrichten oder alarmieren den Notdienst. Die Daimler und Benz Stiftung engagiert sich immer wieder in Bezug auf Robotik und Künstliche Intelligenz (KI) und mit Blick auf moralische und soziale Themen, wie 2015 mit einer Tagung zur Roboterethik. Der Workshop ermöglicht technische, wirtschaftliche, medizinische und ethische Reflexionen über Pflegeroboter. Die Teilnehmerinnen und Teilnehmer aus der Wissenschaft – die Ethiker werden ausschließlich Vertreter der Moralphilosophie, nicht der Moraltheologie sein – sollen kontrovers und konstruktiv diskutieren und zu neuen Erkenntnissen gelangen. Die Anwesenheit von Entwicklern und Anwendern und mindestens eines Prototyps wird angestrebt. Nach der Veranstaltung erscheint eine gemeinsame Publikation in einem Fachverlag als Sammlung der verschriftlichten Vorträge. Über den Ladenburger Diskurs 2017 wird auf informationsethik.net und maschinenethik.net berichtet.

Abb.: Pflegeroboter und Oberärztin im Gespräch

Comments on Ethical and Legal Issues

Prior to the hearing in the Parliament of the Federal Republic of Germany on 22 June 2016 from 4 – 6 pm, the contracted experts had sent their written comments on ethical and legal issues with respect to the use of robots and artificial intelligence. The video for the hearing can be accessed via www.bundestag.de/dokumente/textarchiv/2016/kw25-pa-digitale-agenda/427996. The documents of Oliver Bendel (School of Business FHNW), Eric Hilgendorf (University of Würzburg), Norbert Elkman (Fraunhofer IPK) and Ryan Calo (University of Washington) were published in July on the website of the German Bundestag. Answering the question “Apart from legal questions, for example concerning responsibility and liability, where will ethical questions, in particular, also arise with regard to the use of artificial intelligence or as a result of the aggregation of information and algorithms?” the US scientist explained: “Robots and artificial intelligence raise just as many ethical questions as legal ones. We might ask, for instance, what sorts of activities we can ethically outsource to machines. Does Germany want to be a society that relegates the use of force, the education of children, or eldercare to robots? There are also serious challenges around the use of artificial intelligence to make material decisions about citizens in terms of minimizing bias and providing for transparency and accountability – issues already recognized to an extent by the EU Data Directive.” (Website German Bundestag) All documents (most of them in German) are available via www.bundestag.de/bundestag/ausschuesse18/a23/anhoerungen/fachgespraech/428268.

Abb.: Es entstehen immer mehr hybride Wesen und Vorgänge

Bevorzugte Lügen

Anfang Juni 2016 führte Hansjörg Schmid von der Zeitschrift Apunto, die sich an die Angestellten in der Schweiz richtet, ein Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel. Dieses ist Anfang August unter dem Titel “Von moralischen und unmoralischen Maschinen” online erschienen. Oliver Bendel skizziert die Aufgaben der Maschinenethik als Gestaltungsdisziplin. Dazu gehören nicht nur Konzepte und Prototypen moralischer, sondern auch unmoralischer Maschinen. Es geht nicht nur darum, Technik zu zähmen, zu dressieren und zu bändigen, nicht nur darum, sie das Gute wählen zu lassen, sondern auch darum, sie zu entfesseln, sie das Böse tun zu lassen, um dieses – als Resultat der Maschine – besser zu verstehen. Denn was bedeutet es, wenn ein neuartiges Subjekt der Moral, ein alleingelassenes, auf sich selbst gestelltes Artefakt, etwas tun kann, das wir als unmoralisch oder moralisch bezeichnen? Was bedeutet es, wenn zwar kein guter oder böser Willen im engeren Sinne vorhanden ist, aber eine Willenssimulation, eine Zielorientiertheit und Absichtserklärung, verbunden etwa mit einer hohen Wahrscheinlichkeit in Bezug auf das Gute oder Böse? Der LÜGENBOT, der im Gespräch erwähnt wird, verfügt nicht nur über ausgefeilte Strategien, die Unwahrheit zu sagen, sondern verbindet diese auch mit stochastischen Verfahren; man kann ihm beibringen, bestimmte Lügen jeweils mit einer mittleren oder einer hohen Wahrscheinlichkeit zu produzieren oder sie auch gegenüber anderen Lügen zu bevorzugen. Das Interview kann über apunto-online.ch/gesellschaft/showData/von-moralischen-und-unmoralischen-maschinen nachgelesen werden.

Abb.: Welche Lügen bevorzugt der Bot?

Robotersteuer im Wirtschaftslexikon

“Die Robotersteuer ist eine Ausprägung der Maschinensteuer, die man wiederum als Wertschöpfungsabgabe begreifen kann. Die Idee ist, den Betrieb respektive die Arbeit von Robotern (allenfalls von Agenten) in der Produktion und in anderen Bereichen zu besteuern und die Gelder entweder dem System der Sozialversicherung oder bspw. dem Bildungswesen zuzuführen. Auch eine Kopplung an das bedingungslose Grundeinkommen wird vorgeschlagen. Zugleich ist die Frage, ob im Gegenzug die Arbeit von Menschen steuerlich entlastet werden soll.” So beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler. Auch Informations- und Technikethik sowie Wirtschaftsethik werden angesprochen: “Die Wirtschaftsethik ist gefragt bei der Beurteilung der Chancen und Risiken für Betriebe, Mitarbeitende und Arbeitslose. Auch Technik- und Informationsethik können einbezogen werden, da es um das Verhältnis von Technik und Mensch und die Nutzung von Informations- und Kommunikationstechnologien und Formen von Robotik und Künstlicher Intelligenz geht.” Der Beitrag von Oliver Bendel ist am 1. August 2016 erschienen und kann über wirtschaftslexikon.gabler.de/Definition/robotersteuer.html abgerufen werden.

Abb.: Auf diesen Roboter wird keine Steuer erhoben

Der Blick der Ethik auf die Wolke

Am 25. Juli 2016 ist in der HMD Praxis der Wirtschaftsinformatik der Artikel “Cloud Computing aus Sicht von Verbraucherschutz und Informationsethik” von Oliver Bendel erschienen. Im Abstract heißt es: “Immer mehr Unternehmen transferieren Daten ihrer Kunden in die Cloud, oder diese werden selbst aktiv, nutzen spezielle Dienste und soziale Medien. Es stellen sich viele Fragen: Wird der Benutzer genügend informiert? Sind ihm alle Konsequenzen des Vorgangs klar? Was ist, wenn Inhalte als verdächtig angesehen und Informationen an Behörden weitergereicht werden? Wie können lebenswichtige und personenbezogene Daten geschützt werden? Der Beitrag stellt Probleme rund um Cloud Computing für Privatkunden aus Sicht des Verbraucherschutzes und der Informationsethik systematisch dar, mit Fokus auf Bild und Text. Aus der Unternehmensethik heraus werden Vorschläge für Anbieter unterbreitet.” Der Beitrag kann über link.springer.com/article/10.1365/s40702-016-0249-2 bezogen werden. Er wird in der Oktober-Ausgabe der gedruckten Zeitschrift mit dem Schwerpunkt Cloud Computing enthalten sein.

Abb.: Fliegerstaffel vor Wolke bei einer Feier in Zürich

Eingeschränkt wahrnehmungsbereit

Im ARD-Mittagsmagazin vom 27. Juli 2016 stand Oliver Bendel als Technikphilosoph und Maschinenethiker der Moderatorin Hannelore Fischer Rede und Antwort. Zuvor war ein Film zum automatisierten Fahren gebracht worden. Der Bundesverkehrsminister Alexander Dobrindt ist sozusagen auf der Überholspur und lässt Bedenken, so ist es manchen der Stimmen zu entnehmen, die zu hören sind, weit hinter sich. Womöglich wird “wahrnehmungsbereit”, enthalten in der aktuellen Gesetzesvorlage, sogar Begriff des Jahres – der Interpretationsspielraum ist auf jeden Fall nicht weniger groß als die Bedenken. Der Fahrer soll wahrnehmungsbereit sein, wenn er sich auf das Autoauto verlässt, und weil er dieses voll nutzen will, wird er es nur eingeschränkt sein. In seinen Antworten versucht Oliver Bendel zu vermitteln. Er hat nichts gegen automatisiertes Fahren, ist aber der Meinung, dass es in erster Linie auf der Autobahn stattfinden soll, in der “natürlichen Umgebung” des Automobils. Städte seien zu komplex; während die Maschine dort in zahlreiche Unfälle verwickelt sein und die eine oder andere falsche (u.U. auch in moralischer Hinsicht schlechte) Entscheidung durch sie getroffen wird, ergeht es ihr auf der Autobahn, wenn es sich nicht gerade um einen amerikanischen Highway mit Wendemöglichkeit handelt, ganz anders, ist sie in ihrem Element, und die seltenen Unfälle – viele kann das Auto vermeiden helfen – wird die Gesellschaft verschmerzen können. Er ist ebenso wie Alexander Dobrindt der Meinung, dass automatische und autonome Autos nicht Menschen qualifizieren sollen, hält aber auch das Quantifizieren für nur bedingt tauglich. Eine befriedigende Lösung, die von der Ethikkommission, die vom Bundesverkehrsminister eingesetzt wird, erarbeitet werden könnte, sieht er im Moment nicht. Weitere Informationen über http://www.daserste.de/information/politik-weltgeschehen/mittagsmagazin/index.html; dort kann auch einige Wochen lang der Podcast aufgerufen werden.

Abb.: Live-Schaltung aus Zürich

Das Auto in der Moral

Beim DVR-Forum “Automatisiertes Fahren und Ethik” wurde ein Film gedreht, der im Juli 2016 zur Verfügung gestellt wurde. Man kann ihn über www.youtube.com/watch?v=SH_9kr6fZK8 aufrufen. Zudem hat der Veranstalter Texte und Fotos über www.dvr.de/presse/informationen/welche-entscheidungen-wollen-wir-maschinen-ueberlassen_id-4479.htm veröffentlicht. Das DVR-Forum fand am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt in Berlin-Mitte statt. Der Untertitel “Welche Entscheidungen wollen wir Maschinen überlassen?” deutete den Schwerpunkt an. An der Podiumsdiskussion nahmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderierte Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.

Abb.: Szene aus dem Film

Sprechende Autos

SoftBank und Honda wollen ein sprechendes Auto bauen – das meldete Golem am 23. Juli 2016. “Mittels Sensoren, Mikrofonen und Kameras sollen anhand von Veränderungen in der Sprache, Gestik und Körpermerkmalen Emotionen des Fahrers gelesen und von der KI des Wagens ausgewertet werden. Bei stressigen Situationen soll die KI dann beispielsweise aufmunternde Worte spenden, oder bei langen Fahrten alleine als Gesprächspartner fungieren.” (Golem, 23. Juli 2016) Oliver Bendel hat in seinem Artikel “Ein Auto mit Charakter” vom 17. November 2015 geschrieben: “Es ist naheliegend, einem Auto, das mit Fahrerassistenzsystemen vollgestopft oder im Gesamten ein Roboter ist, einen Charakter angedeihen zu lassen, und diesen im Wesentlichen mit Hilfe auditiver Schnittstellen und Künstlicher Intelligenz (auf welchem Niveau auch immer) zu realisieren.” (ICTkommunikation, 17. November 2015) An einer Stelle heißt es: “Wenn das Auto schon ein Charakter ist oder einen Charakter hat, kann man auch daran denken, es mit Moral auszustatten.” (ICTkommunikation, 17. November 2015) Diese Idee wird von dem Maschinenethiker kritisch diskutiert. Auch die Idee, dem Auto einen Charakter zu geben, wird von ihm nur als Möglichkeit gesehen, die es zu untersuchen gilt. Man darf gespannt sein, was die Hersteller auf die Straße bringen. Die Plattform des geplanten Fahrzeugs steht bereits fest: Es ist Pepper von SoftBank und Aldebaran Robotics, der zuletzt in die Schlagzeilen kam, weil man mit ihm laut Benutzerhandbuch keinen Sex haben soll; selbst eine Manipulation seiner Stimme zur Erzielung einer erotisierenden Wirkung verbat man sich. Vermutlich wird die Bedienungsanleitung des sprechenden Autos ähnlich ab­tur­nend sein.

Abb.: Werden Autos die richtigen Worte finden?

NWO Responsible Innovation Programme

Prof. Dr. Oliver Bendel from the School of Business FHNW will act as an external reviewer for The Netherlands Organisation for Scientific Research (NWO, the Dutch Research Council) and will assess the merits of a research proposal submitted under the NWO Responsible Innovation programme. The aim of this multidisciplinary programme is to explore the ethical and societal issues surrounding innovations like autonomous cars, electronic patient files and the smart energy meter. The NWO website declares: „Highly promising innovations can fail because ethical and societal questions are not taken into account in good time. … In the case of responsible innovation possible ethical and societal consequences of the innovation are already involved at an early stage. For this NWO has developed the Responsible Innovation research programme.“ (Website NWO) A new registration round started in June 2016. „The programme is for joint projects of researchers engaged in the humanities, science and the social and behavioural sciences. Together with companies and civil society organisations, they identify at the development stage of innovations the potential ethical and societal issues that may arise. Addressing these issues early on will increase support among stakeholders and also the likelihood of successful innovations.“ (Website NWO) More information via www.nwo.nl.

Fig.: At the Universiteit Leiden

13.000 Tweets

“Informationsethik” mit dem Benutzernamen @Infoethik feierte im Sommer 2016 seinen 13.000 Tweet. Der Account wird von Oliver Bendel betrieben, der seit Anfang 2012 zum Thema twittert und ab Februar 2011 mit dem Medium experimentiert hat. In der Kurzbeschreibung heißt es: “Infos zur Informationsethik (Computer-, Netz- und Neue-Medien-Ethik) sowie zu Maschinen-, Technik-, Wirtschafts-, Politik-, Medizin- und Tierethik.” Auch Religionskritik und Geschlechterforschung kommen nicht zu kurz. Es handelt sich um einen klassischen Kurznachrichtendienst, über den auf Artikel, Studien und Veranstaltungen hingewiesen wird. Die Tweets haben einen strengen Aufbau: Auf den zitierten Titel folgt der Link zum Beitrag, darauf eine Zusammenfassung, die häufig ein weiteres Zitat enthält. In seltenen Fällen steht anstelle der Zusammenfassung ein Kommentar. Jeder Tweet wird verschlagwortet, i.d.R. mit Hashtags zu den Bereichsethiken (oder zur Disziplin der Maschinenethik). “Informationsethik” ist wie die Plattformen informationsethik.net und maschinenethik.net der philosophischen Ethik verpflichtet und eine Alternative zu religiösen und wirtschaftlichen Vereinnahmungen der Ethik. Diese finden nicht nur in Wirtschaftsethik und Medizinethik statt, sondern zunehmend auch mit Blick auf die Informationsethik. So finanzieren z.B. kirchliche Einrichtungen wissenschaftliche Tagungen zu Informations- und Technikethik und benutzen bzw. vermarkten sie für unwissenschaftliche Zwecke. Zuletzt hat Oliver Bendel als Sachverständiger des Deutschen Bundestags dafür plädiert, in bestehenden und künftigen Ethikkommissionen den Einfluss der theonomen bzw. theologischen Ethik zurückzudrängen.

Abb.: Twitter ist ein wichtiger Nachrichtendienst

Ich bin kein Roboter

Ein Artikel zum Einsatz von Robotern und zur Robotersteuer findet sich in der ZEIT vom 21. Juli 2016. Er beginnt mit diesen Worten: “Burckhardt, Mitte 20, ein großer schmaler Mann mit schwarz gefärbten langen Haaren und Piercings, steht an einem Freitagmittag vor dem Haupteingang der Leipziger Messe und verteilt weiß-rote Handzettel.” (DIE ZEIT, 21. Juli 2016) Der Picker von Amazon sagt: “Wir lassen uns von den Maschinen nicht verdrängen! Wenn immer mehr Roboter eingesetzt werden, sind wir bald alle arbeitslos.” (DIE ZEIT, 21. Juli 2016) Auf seinen Flugblättern steht, so die ZEIT: “Ich bin kein Roboter!” Die Sprache kommt auch auf die Idee der Robotersteuer. Schon seit den 70er-Jahren wird die Maschinensteuer diskutiert, und die Maschinen, die im Moment am meisten Angst verursachen und Abwehr hervorrufen, sind die Roboter. Der Technikphilosoph und Wirtschaftsinformatiker Oliver Bendel, der ebenfalls zu Wort kommt, sieht die Chancen und Risiken einer Robotersteuer. Einerseits kann sie, zum Beispiel gekoppelt an das klassische Sozialsystem oder das bedingungslose Grundeinkommen, zu einer gerechten Verteilung von Gewinnen beitragen. Andererseits kann sie den technologischen Fortschritt hemmen, der nach einer Übergangszeit auch zur menschlichen Entwicklung beitragen mag, zur Befreiung von der Bürde der Arbeit. Ein Grundproblem ist nach seiner Ansicht, welche Arbeit welcher Roboter besteuert werden soll. Der Artikel mit dem Titel “Ab zum Finanzamt, Kollege!” füllt Seite 23 im Wirtschaftsteil der deutschen Wochenzeitung.

Abb.: Die Arbeit dieses Mähroboters muss wohl nicht besteuert werden

Eine menschliche Moral ist sehr viel besser

Die Journalistin Heike Henzmann hat im Rahmen der Serie “Walk and Talk” für die Zeitschrift aktuelle technik (at) ein langes Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel geführt. Der erste Teil des Interviews ist im Juni 2016 erschienen und in diesem Blog besprochen worden. Der zweite Teil mit dem Titel “Aufhalten lassen wir uns nicht.” liegt seit dem 14. Juli vor und kann hier heruntergeladen werden. In dem Gespräch ging es, wie bereits ausgeführt, um Maschinenethik, Informationsethik und Technologiefolgenabschätzung sowie um Moral und Ethik im Allgemeinen. Zur Maschinenethik führt Oliver Bendel aus: “Die Maschinenethik begreife ich als Gestaltungsdisziplin, die Informationsethik als Reflexionsdisziplin. Die Maschinenethik ist die Disziplin, die die Moral der Maschine zum Thema hat. Die Moral des Menschen wird anders als in der Menschenethik nur nebenbei betrachtet, als Mittel zum Zweck. Eine menschliche Moral ist sehr viel besser als eine maschinelle Moral. Der maschinellen Moral fehlt einiges. Die Maschine kann aber mindestens eine so gute Moral haben wie der menschliche Fundamentalist.” (at, 7/2016) Diese These wird im Folgenden näher beleuchtet und begründet. Neben dem Text finden sich in beiden Beiträgen viele Fotos, aufgenommen bei miesestem Regenwetter und bester Diskutierlaune.

Abb.: Gestikulieren beim Diskutieren über den Dächern von Zürich

Retroapfel

Apples Notebook-Verkäufe gehen zurück. 20 Minuten fragte den Wirtschaftsinformatiker, Wirtschafts- und Informationsethiker Oliver Bendel nach den Gründen und nach den Möglichkeiten von Apple, den Turnaround zu schaffen. Schriftlich äußerte er sich wie folgt: “Zunächst einmal könnte man behaupten, dass wir in einer Dekade des schlechten Geschmacks leben. Die Rasierapparate, die Bügeleisen, die Staubsauger sind Produkte der Beliebigkeit oder Variationen von Kitsch. Apple ist groß geworden mit seiner Kombination aus Science-Fiction-Elementen und deutsch-schweizerischem Design. Bauhaus und die Hochschule für Gestaltung in Ulm, geleitet von Otl Aicher aus Ulm und Max Bill aus Winterthur, haben das Unternehmen beeinflusst. Diese goldenen Zeiten sind vorbei, aber vielleicht nicht für immer. Bei Fahrrädern ist zu bemerken, dass gutes Design wieder zu haben ist. Entweder Retrodesign oder postmoderner Chic, auch bei E-Bikes. Apple muss entweder warten, bis seine Geräte wieder gefragt werden, wie bei Adidas. Das kann aber schiefgehen. Eine bessere Lösung ist, gezielt nach dem zu suchen, was das 21. Jahrhundert ausmacht, Elemente von kühler Robotik und heisser Dramatik. Meine Erklärung bezog sich nur auf das Design. Es gibt viele andere Faktoren, der Markt ist umkämpft, neben Notebooks spielen Smartphones eine Rolle, und vielleicht muss man sich – man denke an Virtual Reality etc. – bald nach ganz neuen Ein- und Ausgabegeräten umschauen. Kurzum: Apple ist etwas aus der Mode gekommen und muss bei Design und Technik nachlegen, um wieder an die Spitze zu gelangen.” Die eine oder andere Aussage wurde für den Artikel verwendet, der am 14. Juli 2016 in der größten Zeitung der Schweiz erschienen ist.

Abb.: Wird der Retroapfel wieder gekauft?

Voraussetzungslosigkeit und Vorurteilsfreiheit

Als Sachverständiger im Bundestag hat sich Oliver Bendel im Juni 2016 den Fragen der Abgeordneten gestellt. Davor hat er einen umfangreichen Katalog an Fragen schriftlich beanwortet. Eine davon bezog sich auf eine Ethikkommission, die sich moralischen Herausforderungen rund um Robotik, Künstliche Intelligenz und Datennutzung widmen soll. Oliver Bendel bezog schriftlich wie folgt Stellung: “Grundsätzlich ist die Einsetzung einer Ethikkommission eine gute Idee, und in Europa existieren ja auch solche Einrichtungen in unterschiedlichen Formen, sowohl auf nationaler Ebene als auch in Organisationen. Diese können aber nicht durchweg überzeugen. Man unterscheidet zwischen philosophischer und theonomer bzw. theologischer Ethik, zwischen Moralphilosophie und -theologie. Es ist nicht nachvollziehbar, dass der Moraltheologie ein so großer Platz eingeräumt wird, wenn man zugleich Voraussetzungslosigkeit, Vorurteilsfreiheit und Wissenschaftlichkeit wünscht. Es wäre fatal, wenn eine Ethikkommission, die aus der Perspektive von Technik-, Informations- und Medienethik beratschlagen soll, nicht wissenschaftlich fundiert, sondern von religiösen Überzeugungen bestimmt wäre.” Ob die Ethikkommission, die der Bundesverkehrsminister einsetzen will, frei von theonomer Ethik ist, und ob sie zu Ergebnissen kommt, die in der Gesellschaft überzeugen und die eine moralisch und rechtlich sichere Grundlage für die Entscheidungen von automatischen und autonomen Autos darstellen, wird sich zeigen. Seine grundsätzliche zwiespältige Haltung zu einer einschlägigen Ethikkommission drückte der Wissenschaftler gegenüber dem Bundestag so aus: “Ich habe in verschiedenen Beiträgen die Idee der Ethikkommission kritisch betrachtet. Eine Alternative zu ihr sehe ich im Moment nicht; man muss sie aber als Expertengruppe einsetzen, die methodisch sauber argumentiert. Für eine eigenständige Ethikkommission zu Herausforderungen der Informationsgesellschaft spricht auch, dass der Deutsche Ethikrat kaum Kompetenzen in diesem Bereich besitzt.” Weitere Informationen und Aussagen sowie die Aufzeichnung der Anhörung sind über www.bundestag.de/dokumente/textarchiv/2016/kw25-pa-digitale-agenda/427996 zu finden.

Abb.: Eine Ethikkommission sollte nicht zum Himmel aufschauen

Mit Robotern töten?

“Darf die Polizei mit Robotern töten?” Dies ist der Titel eines Beitrags, der am 9. Juli 2016 auf Spiegel Online erschienen ist. “Nachdem ein Roboter den mutmaßlichen Heckenschützen von Dallas getötet hat, werden unbequeme Fragen laut: Wie und warum ist die Entscheidung gefallen? Bricht mit dem Einsatz von ferngesteuerten Maschinen in der Polizeiarbeit eine neue Ära an? Ist der Einsatz von tötenden Maschinen ethisch vertretbar und – wollen die USA das?” (SPON, 9. Juli 2016) Zu Wort kommt u.a. Peter Asaro, der im März 2016 in Stanford zum Symposium zur Maschinenethik beigetragen und auch in der Roboterethik als Disziplin, die nach den Konsequenzen des Einsatzes von automatischen und autonomen Maschinen fragt, einen Namen hat. Gegenüber Bloomberg äußerte er: “Sobald das zu einem Standardverfahren wird, wird es auch in anderen Situationen eingesetzt werden, die nicht so deutlich sind wie dieser Fall.” (SPON, 9. Juli 2016) Der Jurist Stoughton wies gegenüber dem gleichen Nachrichtendienst darauf hin, dass sich, ob bei Schusswaffen oder Elektroschockern, jedes Mal die Frage des angemessenen Einsatzes gestellt habe. “Ich glaube, wir werden ähnliche Gespräche über Roboter haben, die den Tod bringen.” (SPON, 9. Juli 2016)

Abb.: Wer hat die Waffe in der Hand?

Mit dem Taxi durch Berlin

Die Süddeutsche Zeitung widmete am 5. Juli 2016 die berühmte Seite Drei fünf Personen, die sich mit dem “Zusammenleben von Mensch und Maschine” beschäftigen, nämlich Oliver Bendel (“Maschinenethiker”), Severin Kacianda (“Robotikinformatiker”), Volker Hartmann (“Jurist”), Lennart Lutz (“Roboterrechtler”) und Eric Hilgendorf (“Strafrechtsprofessor”). Mit dem Erstgenannten, seines Zeichens studierter Philosoph, promovierter Wirtschaftsinformatiker und Professor an der Hochschule für Wirtschaft FHNW in der Schweiz, hatte Hannes Vollmuth am 24. April 2016 in Berlin zu einer Taxifahrt abgemacht. Der Unfall des Tesla-Autos in den USA war zu diesem Zeitpunkt noch nicht passiert. Dennoch sprach sich Oliver Bendel dezidiert dafür aus, sowohl automatische als auch autonome Autos zu beschränken. Er sieht sie auf Autobahnen, die wie in Europa in der Regel frei von Fußgängern, Radfahrern und Wendemöglichkeiten sind. In Florida war an einer Kreuzung auf einem Highway ein Sattelschlepper senkrecht zu einem Model S geraten. Der Autopilot mit seinem Auge, der Kamera, hatte die aufragende Fläche des Aufliegers für den Himmel (so die erste Vermutung des Unternehmens) oder ein Straßenschild (so eine zweite Erklärung) gehalten. Der Wissenschaftler und der Journalist fuhren mit dem Taxi von Berlin-Mitte zu einer Autobahn, auf der Roboterautos getestet wurden. Sie unterhielten sich über moralische Maschinen, automatische und autonome Autos – und die Fahrt mit dem Tesla Model S, die Oliver Bendel einige Zeit zuvor absolviert hatte. Er war freihändig über die Autobahn bei Bern geglitten, hatte dem Autopiloten beim Spurhalten und -wechseln vertraut und Spaß dabei. Dennoch hätte er die Kontrolle nicht mehrere Minuten abgegeben. Sein Traum ist es, dass er eines Tages von einem autonomen Auto von Mailand nach Genua befördert wird und entweder aus dem Fenster schauen oder in Ruhe arbeiten kann. Eine Beförderung wie bei einem Zug, aber von Tür zu Tür. Der Artikel ist unter dem Titel “Error” erschienen.

Abb.: Blick über Berlin von der Kuppel des Reichstags

Initiative fordert Grundrechte für Affen

Eine Initiative fordert für Affen im Kanton Basel-Stadt, wie die Basler Zeitung am 22. Juni 2016 berichtet hat, “das Recht auf körperliche und geistige Unversehrtheit”. “Damit sollen die Tiere vor Diskriminierung geschützt werden.” (Basler Zeitung, 22. Juni 2016) Das entsprechende Positionspapier ist bereits im April 2016 erschienen. Im Abstract heißt es: “Nichtmenschliche Primaten sind hochkomplexe Wesen und besitzen ein fundamentales Interesse daran, zu leben und körperlich und geistig unversehrt zu bleiben. Die bestehenden rechtlichen Bestimmungen in der Schweiz tragen diesen Interessen aber kaum Rechnung, weshalb Primaten des Schutzes durch Grundrechte bedürfen.” Autorinnen und Autoren sind Raffael Fasel (Sentience Politics), Charlotte Blattner (PhD-Kandidatin im Völker- und Tierrecht, Universität Basel), Adriano Mannino (Präsident von Sentience Politics) und Tobias Baumann (Leiter Strategie von Sentience Politics). Als Unterstützer werden Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz FHNW) und Prof. Dr. Markus Wild (Universität Basel) genannt. Bendel verbindet in seiner Forschung Maschinen- und Tierethik und hat im April 2016 zur Tier-Maschine-Interaktion an der Universität Bochum einen Vortrag gehalten, der in die “Hörsaal“-Reihe von DRadio Wissen aufgenommen wurde. Wild vertritt an seiner Hochschule u.a. die Tierphilosophie, inklusive der Tierethik, sowie die Philosophie der Biologie. Das Positionspapier kann direkt über sentience-politics.org heruntergeladen werden.

Abb.: Affe in Gibraltar

Ein Maitag in Florida

Raffael Schuppisser von der Aargauer Zeitung war am 1. Juli 2016 im Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel. Thema war der Unfall des Tesla Model S in den USA bei aktiviertem Autopilot. Der Insasse war dabei ums Leben gekommen. Ein Sattelschlepper war über eine Kreuzung auf dem Highway, über welche die Richtung gewechselt werden kann, senkrecht zum PKW geraten, der die weiße Fläche für den Himmel oder ein Schild gehalten hat und unvermindert weitergefahren ist. “Eine Schwachstelle ist die Kamera. Diese lässt sich leicht täuschen.” (Aargauer Zeitung, 2. Juli 2016) Die Verwechslung begünstigt hat ein ungünstiger Winkel. Der Wissenschaftler rät dazu, in den nächsten Jahren weitere Tests und Experimente zu machen, die Ergebnisse der optischen Sensoren gegenprüfen und hoch- und vollautomatisierte bzw. autonome Autos vorrangig auf Autobahnen ohne Wendemöglichkeiten verkehren zu lassen. Der Artikel vom 2. Juli kann über www.aargauerzeitung.ch/leben/forschung-technik/maschinen-ethiker-analysiert-toedlichen-unfall-die-technik-ist-noch-nicht-so-weit-130397988 aufgerufen werden; zudem ist er am 2. Juli in der gedruckten Ausgabe erschienen.

Abb.: In Florida unterwegs

Autonomisierung und Cyborgisierung

Automatisierte Maschinen und (teil-)autonome Systeme verbreiten sich immer mehr. Zugleich verschmelzen Menschen und Maschinen, Menschen vermessen sich bei Aktivitäten (Quantified Self), zeichnen ihr Leben auf (Lifelogging), ergänzen und verbessern Körper und Geist und werden zu Cyborgs. Das Europäische Parlament in Brüssel widmet sich diesen Entwicklungen am 8. September 2016 von 9.30 bis 13.00 Uhr. Titel der Veranstaltung, zu der Jan Philipp Albrecht einlädt, ist “Merging of man and machines: questions of ethics in dealing with emerging”. Der Newsletter DIGITAL AGENDA wartet mit folgenden Informationen auf: “The Working Group Green Robotics would like to invite you to a public hearing on ‘Merging of man and machines: questions of ethics in dealing with emerging technology’. With this and further discussions we would like to develop a position on how society should respond to questions like How will our lives and our society change with the increasing fusion with modern technology? What role have politics and law in this context? Is there a need for regulation and if so, how? How can human rights be addressed?” Im Track “Ethics & Society: Examples of how our lives, values and society will change” sprechen drei Expertinnen und Experten zu den genannten Themen, nämlich Yvonne Hofstetter (Direktorin der Teramark Technologies GmbH), Prof. Dr. Oliver Bendel (Professor an der Hochschule für Wirtschaft FHNW) und Constanze Kurz (Sprecherin des CCC). Der Track “Politics & Law: Examples of how we do/can debate and regulate this field” wird bestritten von Juho Heikkilä (Bereichsleiter bei DG Connect) und Prof. Dr. Dr. Eric Hilgendorf (Professor an der Universität Würzburg). Zwei weitere Vortragende sind Enno Park (Vorsitzender von Cyborgs e.V.) und Dana Lewis (Unternehmensgründerin). Weitere Informationen über www.janalbrecht.eu/termine/merging-of-man-and-machines-questions-of-ethics-in-dealing-with-emerging-technology.html.

Abb.: Organische und technische Strukturen finden zueinander