„Algorithmische Auswahl- und Entscheidungsprozesse prägen unseren Alltag, unsere Wahrnehmung der Welt und unser tägliches Handeln. Ihre Bedeutung steigt in einer durch Automatisierung und Big Data gekennzeichneten digitalen Gesellschaft in sämtlichen Lebensbereichen rasant an. Damit werden sowohl die Frage nach der Machtausübung mittels Algorithmen als Instrumente als auch jene nach der Macht von Algorithmen als eigenständige Akteure virulent. Inwieweit handeln Algorithmen autonom, selbstbestimmt und intentional? Sind sie kontrollier- und ihre Ergebnisse vorhersehbar? Können Algorithmen moralisch handeln? Welche gesellschaftlichen Herausforderungen ergeben sich aus einer ethischen Perspektive und wie können diese bewältigt werden?“ So ein Flyer zu einer Veranstaltung, die den Titel „Die Macht der Algorithmen: Werkzeuge oder Akteure?“ trägt und am 22. November 2016 von 18:15 – 19:45 Uhr an der Universität Zürich stattfindet. Und weiter: „Nach einer thematischen Einführung durch Prof. Dr. Michael Latzer (IPMZ – Abt. Medienwandel & Innovation, UZH) folgen Inputreferate zur Einschätzung der Macht der Algorithmen aus technischer und ethischer Perspektive durch Prof. Dr. Thomas Hofmann (Data Analytics Lab, Departement Informatik, ETH Zürich) und Prof. Dr. Oliver Bendel (Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft, FHNW).“
Das Paul-Löbe-Haus ist ein Veranstaltungs- und Diskussionsort des Deutschen Bundestags, gelegen am Südrand des Spreebogenparks. Dort fand am 28. Oktober 2016 ab 9 Uhr der 3. Netzpolitische Kongress von Bündnis 90/Die Grünen mit dem Titel „Für eine Ethik der digitalen Gesellschaft“ statt. Ein Schwerpunkt war der Zusammenhang zwischen Künstlicher Intelligenz (KI) und Ethik. Dr. Anton Hofreiter hielt um 10 Uhr die Eröffnungsrede. Dann war der Publizist Sascha Lobo zugeschaltet. In sechs Workshops ging man Fragen der Informations-, Technik- und Maschinenethik nach. Workshop Nr. 5, moderiert von Hans-Christian Ströbele, Mitglied des Deutschen Bundestags, galt dem Thema „Drohnen – eine Ethik für neue Formen der Überwachung und des Krieges“. Es diskutierten Anja Dahlmann von der Stiftung Wissenschaft und Politik und Malte Spitz, Datenschutzexperte. Workshop Nr. 6, moderiert vom Grünen-Politiker Dieter Janecek, war dem Thema „Deep Learning – Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?“ gewidmet. Olivia Klose von Microsoft erklärte den Unterschied zwischen schwacher und starker KI. Oliver Bendel von der Hochschule für Wirtschaft FHNW verortete seine eigenen Projekte in der schwachen KI und erklärte, warum selbstlernende Systeme in offenen Welten nicht immer eine gute Idee sind. Am Rande der Veranstaltung führte er Gespräche mit Lars Klingbeil, dem netzpolitischen Sprecher der SPD-Bundestagsfraktion, und Hans-Christian Ströbele. Weitere Informationen über www.gruene-bundestag.de.
Abb.: Klose, Janecek und Bendel vor dem Workshop (Foto: Kai Wargalla)
„Soll ein Sexroboter einen Orgasmus vortäuschen dürfen?“ So lautet der Titel eines Artikels von Tom Strohschneider im Neuen Deutschland. Angelehnt ist er an eine Frage in einem Buchbeitrag von Oliver Bendel, aus dem mehrmals zitiert wird und der im Sammelband „Programmierte Ethik“ (Heise Medien, 2016) enthalten ist. Im Teaser des Artikels heißt es: „Darf ein Sexroboter einen Orgasmus vortäuschen? Sollte er vielleicht sogar? Die Frage mag auf den ersten Blick wie eine seltsame, nur für einen eher kleinen Teil der Öffentlichkeit interessante anmuten. Doch es steckt mehr dahinter: Je näher sich Mensch und Maschine durch die technologische Entwicklung kommen (können), desto drängender wird nach ethischen Antworten für die Beziehungen zwischen Robotern und uns gesucht.“ (Neues Deutschland, 21. Oktober 2016) Zitiert werden u.a. Kathleen Richardson, Charles Ess und eben Oliver Bendel. Die beiden Erstgenannten lehnen Robotersex ab. Richardson hat vor einiger Zeit eine Petition verfasst für ein Verbot von Sexmaschinen. Sie glaubt, dass echten Frauen durch ihre künstlichen Kopien eine weitere Reduktion droht. Faktisch findet diese allerdings bei Dildos und Vibratoren statt, und diese Reduktion gilt nicht Frauen, sondern Männern. Ess ist ebenso kritisch: „Wer sich nur noch auf die Suche nach dem vollkommenen Sex mit Maschinen mache, werde nicht nur im Bett mit Zombies landen, sondern selbst ein solcher werden.“ (Neues Deutschland, 21. Oktober 2016) Oliver Bendel sieht sowohl die Risiken als auch die Chancen. Für ihn bleibt die Zustimmung oder Ablehnung gegenüber Robotersex letztlich die Privatsache urteilsfähiger Menschen.
Abb.: Darf ein Sexroboter einen Orgasmus vortäuschen?
„Programmierte Moral für autonome Maschinen“ – so der Titel einer Diskussionsveranstaltung von Telepolis und Westendverlag am Rande der Buchmesse in Frankfurt. Auf der Website der Zeitschrift heißt es: „Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen den Umgang mit den neuen Mitbewohnern lernen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert werden. Autonome Fahrzeuge könnten bald massenhaft auf den Straßen fahren. Dass sie keine hundertprozentige Sicherheit bei ihren Entscheidungen bieten, zumal wenn sie mit menschlichen Fahrern konfrontiert sind, hat sich bereits an Unfällen gezeigt.“ (Website Telepolis) Die Gäste in der ehemaligen Fabrikhalle der Firma Naxos-Union namens Naxoshalle, Prof. Dr. Catrin Misselhorn, Direktorin des Instituts für Philosophie der Universität Stuttgart, Prof. Dr. Oliver Bendel, Professor am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW, und Peter Weibel, Medienkünstler und Medientheoretiker, Vorstand des Zentrums für Kunst und Medien Karlsruhe, diskutieren über moralische Maschinen und maschinelle Moral. Vorgestellt werden auch zwei Bücher, „Die Moral in Maschine“ von Oliver Bendel (erschienen bereits im Februar) und „Programmierte Ethik“, herausgegeben von Florian Rötzer, mit Beiträgen u.a. von Oliver Bendel, Catrin Misselhorn, Raúl Rojas und Hans-Arthur Marsiske. Es moderiert Florian Rötzer, Chefredakteur von Telepolis. Weitere Informationen über www.heise.de/tp/artikel/49/49560/1.html.
Im Handelsblatt Magazin ist am 7. Oktober 2016 der Artikel „Humanoide Roboter“ von Christian Wermke erschienen. Er fängt wie folgt an: „Bevor er den ersten Schritt macht, schaut Hubo auf den Boden. Er scannt mit seinen Kameraaugen die unebenen, grauen Betonsteine, die Motoren summen, vorsichtig hebt er das rechte Bein. Zwar dauert es fast noch eine ganze Minute, bis er das gut ein Quadratmeter große Hindernis überwunden hat. Aber: Hubo kann laufen. Und er kann noch viel mehr. Hubo ist einer der am weitesten entwickelten Roboter der Welt. 2015 gewann er die Darpa Robotics Challenge – einen vom US-Verteidigungsministerium initiierten Wettbewerb. Wenn man so will: die WM der humanoiden Roboter. Und Hubo ist der beste von 23. Der Mensch-Maschine-Meister. Acht Prüfungen musste das 80-Kilo-Wesen bestehen: ein Fahrzeug steuern, eine Tür öffnen, Treppen steigen, ein Loch bohren. 44 Minuten und 28 Sekunden brauchte er für alle Aufgaben.“ (Handelsblatt Magazin, 7. Oktober 2016) Zu Wort kommen der Robotiker Jun Ho Oh vom Humanoid Robot Research Center in Daejeon, Südkorea, und Oliver Bendel, Roboter- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Der Artikel hat 2842 Wörter und kann sowohl in gedruckter als auch in elektronischer Form bezogen werden, jeweils kostenpflichtig.
Beim Cybathlon in der SWISS Arena in Kloten bei Zürich, veranstaltet von der ETH Zürich, traten Sportler mit Behinderungen gegeneinander an. Aus der ganzen Welt waren die Teams angereist. Das Publikum ging begeistert mit, als das virtuelle Rennen mit Gedankensteuerung, das Fahrradrennen mit Muskelstimulation sowie der Armprothesen-, Beinprothesen- und Rollstuhl-Parcours stattfanden. Spektakulär der Exoskelett-Parcours, bei dem sich die Sportler langsam und konzentriert vorwärts bewegten, eine Tür öffneten und schlossen, von Stein zu Stein schritten und sich und ihren Apparat voller Freude über die Ziellinie brachten. Über den Köpfen der Zuschauer und Sportler schwebte eine Helium-Drohne, die an einem seidenen Faden zu hängen schien. Fünfmal war der Moderator Tobias Müller im Gespräch mit Oliver Bendel, dem Informations- und Maschinenethiker, der bei diesem Anlass vor allem Informations- und Roboterethiker war, den Einsatz von Implantaten, Prothesen und Robotern einordnend und bewertend. Einmal war Lino Guzzella mit dabei, der ETH-Präsident, einmal Robert Riener, der Initiator und Organisator des Cybathlon. Der Ethiker betonte immer wieder, dass gegen die technische Erweiterung aus Sicht der Ethik nichts spricht, wenn es um erwachsene, verständige Menschen geht, die ihre Autonomie oder Performanz verbessern wollen. Auch nicht, wenn es sich um gesunde Menschen handelt, wobei man bei diesen sicherlich körperliche Risiken bedenken muss. Anders sieht die Sache nach Meinung von Oliver Bendel aus, wenn die Benutzer nicht frei sind, nicht frei entscheiden können, etwa als Arbeitnehmer oder Soldaten, die Exoskelette tragen müssen. Diese rücken uns förmlich auf den Leib, und es sollte die individuelle Entscheidung bleiben, ob man sie tragen will oder nicht. Der Cybathlon wurde von SRF und 3sat unter dem Titel „SRF Menschmaschine“ live übertragen.
Abb.: Beim Cybathlon 2016 (Foto: ETH Zürich/CYBATHLON)
„Und der Sieger ist – ein Cyborg“ – so der Titel eines zweiseitigen Artikels in der SonntagsZeitung vom 2. Oktober 2016. Erklärt werden Zungensteuerung, Brain-Computer-Interface, neuronale Armprothese, kraftgesteuerte Roboterprothese, künstliche Niere sowie bionische Geweberegeneration. Erzählt wird die Geschichte der Androiden und Cyborgs von der Renaissance bis zur jüngsten Vergangenheit. Der Cybathlon steht an, ein Wettkampf für Athleten mit Behinderungen (SWISS Arena in Kloten, 8. Oktober 2016). Zu Wort kommt im Beitrag immer wieder Prof. Dr. Oliver Bendel, der einerseits Maschinenethiker ist, moralische Maschinen konzipierend und implementierend, andererseits Informationsethiker, die Auswirkungen des Einsatzes von Informations- und Kommunikationstechnologien erforschend. Er begrüßt die informationstechnische Erweiterung von Menschen, wenn dadurch deren persönliche Autonomie verbessert und ihnen ein gutes Leben ermöglicht wird. Er weist zugleich auf die Gefahren für die informationelle Autonomie hin. Durch moderne Interfaces, Implantate und Prothesen werden Daten generiert, in Bezug auf die Umwelt, die Mitmenschen und den Träger selbst, für die sich Konzerne, Versicherungen und Krankenkassen interessieren werden. Der Artikel wurde von Matthias Meili verfasst und von Bruno Muff illustriert. Er ist im Gesellschaftsbund auf den Seiten 56 und 57 zu finden. Mit freundlicher Genehmigung der Zeitung und des Redakteurs kann er hier heruntergeladen werden.
Abb.: Ein Rollstuhlfahrer steuert seinen Rollstuhl mit seinen Gedanken
Raffael Schuppisser beleuchtet in seinem Artikel „Roboter lügen uns ins Gesicht“ (Schweiz am Sonntag, 18. September 2016) die Möglichkeiten von Lügenmaschinen. Er geht auf Social Bots ein, die Accounts in sozialen Medien anlegen, Kommentare schreiben und Gerüchte streuen, und auf Tay von Microsoft, der in schlechte Gesellschaft geriet und zum Rassisten wurde. Immer wieder zu Wort kommt Oliver Bendel, der 2013 die Idee zu einem LÜGENBOT aka LIEBOT hatte, diesen in mehreren Artikeln beschrieb und dann 2016 mit seinem Studenten Kevin Schwegler entwickelte. Der LÜGENBOT wendet unterschiedliche Lügenstrategien an und benutzt u.a. einen Thesaurus der Princeton University sowie Yahoo als Suchmaschine und Vorschlagsdienst. Wenn er nicht weiterweiß, fragt er seinen Kollegen, den Cleverbot, und borgt sich eine Antwort. Sieben verschiedene Animationen zeigen die jeweiligen Strategien an. Wird beispielsweise eine für wahr gehaltene Aussage negiert, wächst die Nase der Münchhausen-Maschine, und man fühlt sich an Pinocchio erinnert. Wenn ein Wort durch ein Antonym ausgetauscht wird, etwa „Junge“ durch „Mädchen“, wird der LIEBOT rot. Der Artikel ist auf Seite 15 der Zeitung aus Baden erschienen und kann auch online eingesehen werden, über www.schweizamsonntag.ch/ressort/nachrichten/roboter_luegen_uns_ins_gesicht/.
Ein sechsseitiges Interview mit Prof. Dr. Oliver Bendel ist in der Absatzwirtschaft (Sonderausgabe dmexco, 14. September 2016, S. 36 bis 41) erschienen. Der Journalist Peter Hanser ist in die Schweiz gereist und hat den Wirtschaftsinformatiker und Maschinenethiker im Au Premier im Zürcher Hauptbahnhof getroffen. Es war ein Gespräch über Technik und Ethik, in dessen Verlauf u.a. die folgenden Worte fielen: „Ich unterscheide Maschinenethik als Gestaltungsdisziplin und andere Disziplinen wie Informationsethik oder Technikethik als Reflexionsdisziplinen. In der Maschinenethik wollen wir wirklich Maschinen konzipieren und am Ende auch prototypisch bauen. Dabei arbeiten wir eng mit KI, Robotik und anderen Disziplinen zusammen. In der Informationsethik und Technikethik reflektieren wir Probleme, die sich beim Einsatz von Robotern ergeben. Es ist beides sinnvoll und notwendig. Wir haben zum ersten Mal in der Geschichte der Ethik eine Form der Ethik, die danach fragt, wie man maschinelle Moral umsetzen kann. Zugleich haben wir zunehmende Probleme durch den Einsatz von Robotern, etwa durch den Ersatz von Arbeitskräften, Kollisionen von Menschen und Maschinen und technikbezogene Sexpraktiken. Es stellt sich die Frage, was wir künftig mit Maschinen tun wollen. Damit sind dann Bereichsethiken gefordert wie Informations-, Technik-, Medizin-, Sexualethik und so weiter.“ Die Maschinen, die das Licht der Welt erblickt haben, sind der GOODBOT und der LIEBOT, und beiden wird im Artikel mit dem Titel „Vielleicht haben Maschinen eines Tages Bewusstsein“ ein Infokasten gewidmet. Das mit dem Bewusstsein hält Oliver Bendel für unwahrscheinlich, aber nicht für ausgeschlossen. Ein Weg könnte sein, auf informationstechnischen Strukturen tierische oder menschliche Hirnzellen wachsen zu lassen. Ein umgekehrter Cyborg sozusagen.
Das Handbuch „Medien- und Informationsethik“, herausgegeben von Jessica Heesen, widmet sich, von der Medienethik ausgehend, auch Fragen der Informationsethik. Auf der Website von Springer Nature wird erklärt: „Mit Aufkommen des Internets ergeben sich für die Medien- und Informationsethik zahlreiche neue Problemstellungen. Neben traditionellen Fragen nach journalistischer Ethik im Rundfunk- und Printbereich rücken zunehmend ethische Probleme in Bezug auf digitale Medien in den Fokus (Privatheit, neue Öffentlichkeiten, Qualitätssicherung, Verantwortungsfragen bezüglich Algorithmen und Softwaredesign etc.). Ziel des Handbuchs ist es, das breite Spektrum ethischer Aspekte einer modernen Medienkommunikation innovativ zu reflektieren und einen Einblick in die jeweiligen Probleme und den aktuellen Diskussionsstand zu geben.“ (Website Springer Nature) Das Buch ist bei J. B. Metzler erschienen, einem traditionsreichen Verlag, der seit 2015 zu Springer Nature gehört. Weitere Informationen über www.springer.com/de/book/9783476025579.
Eine Ringvorlesung an der Fachhochschule Nordwestschweiz FHNW beschäftigt sich mit der „Sicherheit in unsicheren Zeiten“ (Titel) und dem „Handeln zwischen Angst und Freiheit“ (Untertitel). In der Informationsbroschüre heißt es: „Flüchtlingsströme, Terrorismus, digitale Revolution, Arbeitsplätze und Neue Medien: Unser Alltag scheint unsicher zu sein. Wie reagieren? Mit Aufrüstung und Mauern oder mit dezentralen Netzwerken und Kooperationen?“ (Broschüre FHNW) Mit dem Satz „Wer die Freiheit aufgibt, um Sicherheit zu gewinnen, der wird am Ende beides verlieren.“ wird Benjamin Franklin zitiert, der davor warne, Sicherheit als obersten Wert absolut zu setzen. Absolute Sicherheit gebe es nicht. Wir müssen nach Ansicht der Veranstalter lernen, mit Risiken zu leben, aber auch unsere ökonomischen, finanziellen und gesellschaftlichen Systeme wiederstandsfähiger und anpassungsfähiger zu machen. „Und dabei Freiheit und Selbstbestimmung nicht zu gefährden.“ (Broschüre FHNW) Die Veranstaltungen sind jeweils am Mittwoch von 18:00 bis 19:30 Uhr im berühmten Hallerbau (Technische Hochschule, Klosterzelgstrasse 2, 5210 Windisch). Den Auftakt macht am 21. September 2016 der Vortrag von Prof. Dr. Oliver Bendel zu den „Chancen und Risiken von Industrie- und Servicerobotern“. Das Programm kann hier heruntergeladen werden.
Abb.: Oliver Bendel vor dem Hallerbau (Foto: Kai R. Joachim)
Die VDI-Zukunftskonferenz „Humanoide Roboter“ beschäftigt sich, so die Website, „mit dem Menschen nachempfundenen Robotern“. „Das Themenspektrum reicht dabei von Design und Gestaltung über die kognitive Planung bis hin zu Anwendungsbeispielen.“ Leiter der Konferenz ist Prof. Dr. Frank Kirchner vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Auf der Website heißt es weiter: „Was für viele wie Science Fiction klingt, könnte bald schon Realität sein. Menschenähnliche Roboter, die in Umgebungen agieren, die für den Menschen geschaffen sind und für den Menschen entworfene Werkzeuge benutzen. Damit würden sich die Einsatzmöglichkeiten für Roboter enorm erweitern. Zudem versprechen sich viele Experten durch humanoide Roboter auch eine verbesserte Interaktion zwischen Mensch und Roboter.“ Prof. Dr. Karsten Berns von der TU Kaiserslautern trägt zusammen mit Steffen Schütz über dynamisches zweibeiniges Laufen nach menschlichem Vorbild vor, Dr. Robert Haschke von der Universität Bielefeld über Taktilsensorik für anthropomorphe Roboterhände, um nur zwei Beispiele zu nennen. „Der LÜGENBOT als Umsetzung einer Münchhausen-Maschine“ lautet der Titel des Vortrags von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Er hat zusammen mit Kevin Schwegler im Kontext der Maschinenethik einen Chatbot entwickelt, der unter Verwendung interner Strategien und externer Dienste und Quellen lügt, dass sich die Balken biegen. Der LÜGENBOT aka LIEBOT hat eine eigene Website, nämlich www.luegenbot.ch bzw. www.liebot.org (Links nicht mehr gültig). Er ist als Vertreter der einfachen unmoralischen Maschinen nicht nur an sich interessant, sondern hilft auch dabei, einfache moralische Maschinen zu entwickeln, nämlich solche, die in ihren Aussagen verlässlich und vertrauenswürdig sind. Die Fachtagung findet vom 13. bis 14. Dezember 2016 in Aschheim bei München statt. Das Programm kann hier heruntergeladen werden.
Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW lädt in diesen Tagen renommierte Wissenschaftlerinnen und Wissenschaftler zum Ladenburger Diskurs 2017 über Pflegeroboter ein. Am 12. und 13. September arbeitet man in der Villa der Daimler und Benz Stiftung in Ladenburg zusammen, trägt vor und diskutiert. Pflegeroboter unterstützen oder ersetzen – so die Idee – menschliche Pflegekräfte bzw. Betreuerinnen und Betreuer. Sie bringen und reichen Kranken und Alten die benötigten Medikamente und Nahrungsmittel, helfen ihnen beim Hinlegen und Aufrichten oder alarmieren den Notdienst. Die Daimler und Benz Stiftung engagiert sich immer wieder in Bezug auf Robotik und Künstliche Intelligenz (KI) und mit Blick auf moralische und soziale Themen, wie 2015 mit einer Tagung zur Roboterethik. Der Workshop ermöglicht technische, wirtschaftliche, medizinische und ethische Reflexionen über Pflegeroboter. Die Teilnehmerinnen und Teilnehmer aus der Wissenschaft – die Ethiker werden ausschließlich Vertreter der Moralphilosophie, nicht der Moraltheologie sein – sollen kontrovers und konstruktiv diskutieren und zu neuen Erkenntnissen gelangen. Die Anwesenheit von Entwicklern und Anwendern und mindestens eines Prototyps wird angestrebt. Nach der Veranstaltung erscheint eine gemeinsame Publikation in einem Fachverlag als Sammlung der verschriftlichten Vorträge. Über den Ladenburger Diskurs 2017 wird auf informationsethik.net und maschinenethik.net berichtet.
Prior to the hearing in the Parliament of the Federal Republic of Germany on 22 June 2016 from 4 – 6 pm, the contracted experts had sent their written comments on ethical and legal issues with respect to the use of robots and artificial intelligence. The video for the hearing can be accessed via www.bundestag.de/dokumente/textarchiv/2016/kw25-pa-digitale-agenda/427996. The documents of Oliver Bendel (School of Business FHNW), Eric Hilgendorf (University of Würzburg), Norbert Elkman (Fraunhofer IPK) and Ryan Calo (University of Washington) were published in July on the website of the German Bundestag. Answering the question „Apart from legal questions, for example concerning responsibility and liability, where will ethical questions, in particular, also arise with regard to the use of artificial intelligence or as a result of the aggregation of information and algorithms?“ the US scientist explained: „Robots and artificial intelligence raise just as many ethical questions as legal ones. We might ask, for instance, what sorts of activities we can ethically outsource to machines. Does Germany want to be a society that relegates the use of force, the education of children, or eldercare to robots? There are also serious challenges around the use of artificial intelligence to make material decisions about citizens in terms of minimizing bias and providing for transparency and accountability – issues already recognized to an extent by the EU Data Directive.“ (Website German Bundestag) All documents (most of them in German) are available via www.bundestag.de/bundestag/ausschuesse18/a23/anhoerungen/fachgespraech/428268.
Anfang Juni 2016 führte Hansjörg Schmid von der Zeitschrift Apunto, die sich an die Angestellten in der Schweiz richtet, ein Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel. Dieses ist Anfang August unter dem Titel „Von moralischen und unmoralischen Maschinen“ online erschienen. Oliver Bendel skizziert die Aufgaben der Maschinenethik als Gestaltungsdisziplin. Dazu gehören nicht nur Konzepte und Prototypen moralischer, sondern auch unmoralischer Maschinen. Es geht nicht nur darum, Technik zu zähmen, zu dressieren und zu bändigen, nicht nur darum, sie das Gute wählen zu lassen, sondern auch darum, sie zu entfesseln, sie das Böse tun zu lassen, um dieses – als Resultat der Maschine – besser zu verstehen. Denn was bedeutet es, wenn ein neuartiges Subjekt der Moral, ein alleingelassenes, auf sich selbst gestelltes Artefakt, etwas tun kann, das wir als unmoralisch oder moralisch bezeichnen? Was bedeutet es, wenn zwar kein guter oder böser Willen im engeren Sinne vorhanden ist, aber eine Willenssimulation, eine Zielorientiertheit und Absichtserklärung, verbunden etwa mit einer hohen Wahrscheinlichkeit in Bezug auf das Gute oder Böse? Der LÜGENBOT, der im Gespräch erwähnt wird, verfügt nicht nur über ausgefeilte Strategien, die Unwahrheit zu sagen, sondern verbindet diese auch mit stochastischen Verfahren; man kann ihm beibringen, bestimmte Lügen jeweils mit einer mittleren oder einer hohen Wahrscheinlichkeit zu produzieren oder sie auch gegenüber anderen Lügen zu bevorzugen. Das Interview kann über apunto-online.ch/gesellschaft/showData/von-moralischen-und-unmoralischen-maschinen nachgelesen werden.
Im ARD-Mittagsmagazin vom 27. Juli 2016 stand Oliver Bendel als Technikphilosoph und Maschinenethiker der Moderatorin Hannelore Fischer Rede und Antwort. Zuvor war ein Film zum automatisierten Fahren gebracht worden. Der Bundesverkehrsminister Alexander Dobrindt ist sozusagen auf der Überholspur und lässt Bedenken, so ist es manchen der Stimmen zu entnehmen, die zu hören sind, weit hinter sich. Womöglich wird „wahrnehmungsbereit“, enthalten in der aktuellen Gesetzesvorlage, sogar Begriff des Jahres – der Interpretationsspielraum ist auf jeden Fall nicht weniger groß als die Bedenken. Der Fahrer soll wahrnehmungsbereit sein, wenn er sich auf das Autoauto verlässt, und weil er dieses voll nutzen will, wird er es nur eingeschränkt sein. In seinen Antworten versucht Oliver Bendel zu vermitteln. Er hat nichts gegen automatisiertes Fahren, ist aber der Meinung, dass es in erster Linie auf der Autobahn stattfinden soll, in der „natürlichen Umgebung“ des Automobils. Städte seien zu komplex; während die Maschine dort in zahlreiche Unfälle verwickelt sein und die eine oder andere falsche (u.U. auch in moralischer Hinsicht schlechte) Entscheidung durch sie getroffen wird, ergeht es ihr auf der Autobahn, wenn es sich nicht gerade um einen amerikanischen Highway mit Wendemöglichkeit handelt, ganz anders, ist sie in ihrem Element, und die seltenen Unfälle – viele kann das Auto vermeiden helfen – wird die Gesellschaft verschmerzen können. Er ist ebenso wie Alexander Dobrindt der Meinung, dass automatische und autonome Autos nicht Menschen qualifizieren sollen, hält aber auch das Quantifizieren für nur bedingt tauglich. Eine befriedigende Lösung, die von der Ethikkommission, die vom Bundesverkehrsminister eingesetzt wird, erarbeitet werden könnte, sieht er im Moment nicht. Weitere Informationen über www.daserste.de/information/politik-weltgeschehen/mittagsmagazin/index.html; dort kann auch einige Wochen lang der Podcast aufgerufen werden.
Beim DVR-Forum „Automatisiertes Fahren und Ethik“ wurde ein Film gedreht, der im Juli 2016 zur Verfügung gestellt wurde. Man kann ihn über www.youtube.com/watch?v=SH_9kr6fZK8 aufrufen. Zudem hat der Veranstalter Texte und Fotos über www.dvr.de veröffentlicht. Das DVR-Forum fand am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt in Berlin-Mitte statt. Der Untertitel „Welche Entscheidungen wollen wir Maschinen überlassen?“ deutete den Schwerpunkt an. An der Podiumsdiskussion nahmen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Prof. Dr. Dr. Eric Hilgendorf (Universität Würzburg), Prof. Dr. Jürgen Leohold (Volkswagen AG), Prof. Dr. Volker Lüdemann (Hochschule Osnabrück) und Prof. Klaus Kompaß (BMW Group) teil. Es moderierte Monika Jones von der Deutschen Welle. Weitere Informationen über www.tag-der-verkehrssicherheit.de.
SoftBank und Honda wollen ein sprechendes Auto bauen – das meldete Golem am 23. Juli 2016. „Mittels Sensoren, Mikrofonen und Kameras sollen anhand von Veränderungen in der Sprache, Gestik und Körpermerkmalen Emotionen des Fahrers gelesen und von der KI des Wagens ausgewertet werden. Bei stressigen Situationen soll die KI dann beispielsweise aufmunternde Worte spenden, oder bei langen Fahrten alleine als Gesprächspartner fungieren.“ (Golem, 23. Juli 2016) Oliver Bendel hat in seinem Artikel „Ein Auto mit Charakter“ vom 17. November 2015 geschrieben: „Es ist naheliegend, einem Auto, das mit Fahrerassistenzsystemen vollgestopft oder im Gesamten ein Roboter ist, einen Charakter angedeihen zu lassen, und diesen im Wesentlichen mit Hilfe auditiver Schnittstellen und Künstlicher Intelligenz (auf welchem Niveau auch immer) zu realisieren.“ (ICTkommunikation, 17. November 2015) An einer Stelle heißt es: „Wenn das Auto schon ein Charakter ist oder einen Charakter hat, kann man auch daran denken, es mit Moral auszustatten.“ (ICTkommunikation, 17. November 2015) Diese Idee wird von dem Maschinenethiker kritisch diskutiert. Auch die Idee, dem Auto einen Charakter zu geben, wird von ihm nur als Möglichkeit gesehen, die es zu untersuchen gilt. Man darf gespannt sein, was die Hersteller auf die Straße bringen. Die Plattform des geplanten Fahrzeugs steht bereits fest: Es ist Pepper von SoftBank und Aldebaran Robotics, der zuletzt in die Schlagzeilen kam, weil man mit ihm laut Benutzerhandbuch keinen Sex haben soll; selbst eine Manipulation seiner Stimme zur Erzielung einer erotisierenden Wirkung verbat man sich. Vermutlich wird die Bedienungsanleitung des sprechenden Autos ähnlich abturnend sein.
„Informationsethik“ mit dem Benutzernamen @Infoethik feierte im Sommer 2016 seinen 13.000 Tweet. Der Account wird von Oliver Bendel betrieben, der seit Anfang 2012 zum Thema twittert und ab Februar 2011 mit dem Medium experimentiert hat. In der Kurzbeschreibung heißt es: „Infos zur Informationsethik (Computer-, Netz- und Neue-Medien-Ethik) sowie zu Maschinen-, Technik-, Wirtschafts-, Politik-, Medizin- und Tierethik.“ Auch Religionskritik und Geschlechterforschung kommen nicht zu kurz. Es handelt sich um einen klassischen Kurznachrichtendienst, über den auf Artikel, Studien und Veranstaltungen hingewiesen wird. Die Tweets haben einen strengen Aufbau: Auf den zitierten Titel folgt der Link zum Beitrag, darauf eine Zusammenfassung, die häufig ein weiteres Zitat enthält. In seltenen Fällen steht anstelle der Zusammenfassung ein Kommentar. Jeder Tweet wird verschlagwortet, i.d.R. mit Hashtags zu den Bereichsethiken (oder zur Disziplin der Maschinenethik). „Informationsethik“ ist wie die Plattformen informationsethik.net und maschinenethik.net der philosophischen Ethik verpflichtet und eine Alternative zu religiösen und wirtschaftlichen Vereinnahmungen der Ethik. Diese finden nicht nur in Wirtschaftsethik und Medizinethik statt, sondern zunehmend auch mit Blick auf die Informationsethik. So finanzieren z.B. kirchliche Einrichtungen wissenschaftliche Tagungen zu Informations- und Technikethik und benutzen bzw. vermarkten sie für unwissenschaftliche Zwecke. Zuletzt hat Oliver Bendel als Sachverständiger des Deutschen Bundestags dafür plädiert, in bestehenden und künftigen Ethikkommissionen den Einfluss der theonomen bzw. theologischen Ethik zurückzudrängen.
Die Journalistin Heike Henzmann hat im Rahmen der Serie „Walk and Talk“ für die Zeitschrift aktuelle technik (at) ein langes Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel geführt. Der erste Teil des Interviews ist im Juni 2016 erschienen und auf maschinenethik.net besprochen worden. Der zweite Teil mit dem Titel „Aufhalten lassen wir uns nicht.“ liegt seit dem 14. Juli vor und kann hier heruntergeladen werden. In dem Gespräch ging es, wie bereits ausgeführt, um Maschinenethik, Informationsethik und Technologiefolgenabschätzung sowie um Moral und Ethik im Allgemeinen. Zur Maschinenethik führt Oliver Bendel aus: „Die Maschinenethik begreife ich als Gestaltungsdisziplin, die Informationsethik als Reflexionsdisziplin. Die Maschinenethik ist die Disziplin, die die Moral der Maschine zum Thema hat. Die Moral des Menschen wird anders als in der Menschenethik nur nebenbei betrachtet, als Mittel zum Zweck. Eine menschliche Moral ist sehr viel besser als eine maschinelle Moral. Der maschinellen Moral fehlt einiges. Die Maschine kann aber mindestens eine so gute Moral haben wie der menschliche Fundamentalist.“ (at, 7/2016) Diese These wird im Folgenden näher beleuchtet und begründet. Neben dem Text finden sich in beiden Beiträgen viele Fotos, aufgenommen bei miesestem Regenwetter und bester Diskutierlaune.
Abb.: Beim Flanieren und Diskutieren in Zürich (Foto: aktuelle technik)
Die Süddeutsche Zeitung widmete am 5. Juli 2016 die berühmte Seite Drei fünf Personen, die sich mit dem „Zusammenleben von Mensch und Maschine“ beschäftigen, nämlich Oliver Bendel („Maschinenethiker“), Severin Kacianda („Robotikinformatiker“), Volker Hartmann („Jurist“), Lennart Lutz („Roboterrechtler“) und Eric Hilgendorf („Strafrechtsprofessor“). Mit dem Erstgenannten, seines Zeichens studierter Philosoph, promovierter Wirtschaftsinformatiker und Professor an der Hochschule für Wirtschaft FHNW in der Schweiz, hatte Hannes Vollmuth am 24. April 2016 in Berlin zu einer Taxifahrt abgemacht. Der Unfall des Tesla-Autos in den USA war zu diesem Zeitpunkt noch nicht passiert. Dennoch sprach sich Oliver Bendel dezidiert dafür aus, sowohl automatische als auch autonome Autos zu beschränken. Er sieht sie auf Autobahnen, die wie in Europa in der Regel frei von Fußgängern, Radfahrern und Wendemöglichkeiten sind. In Florida war an einer Kreuzung auf einem Highway ein Sattelschlepper senkrecht zu einem Model S geraten. Der Autopilot mit seinem Auge, der Kamera, hatte die aufragende Fläche des Aufliegers für den Himmel (so die erste Vermutung des Unternehmens) oder ein Straßenschild (so eine zweite Erklärung) gehalten. Der Wissenschaftler und der Journalist fuhren mit dem Taxi von Berlin-Mitte zu einer Autobahn, auf der Roboterautos getestet wurden. Sie unterhielten sich über moralische Maschinen, automatische und autonome Autos – und die Fahrt mit dem Tesla Model S, die Oliver Bendel einige Zeit zuvor absolviert hatte. Er war freihändig über die Autobahn bei Bern geglitten, hatte dem Autopiloten beim Spurhalten und -wechseln vertraut und Spaß dabei. Dennoch hätte er die Kontrolle nicht mehrere Minuten abgegeben. Sein Traum ist es, dass er eines Tages von einem autonomen Auto von Mailand nach Genua befördert wird und entweder aus dem Fenster schauen oder in Ruhe arbeiten kann. Eine Beförderung wie bei einem Zug, aber von Tür zu Tür. Der Artikel ist unter dem Titel „Error“ erschienen.
Raffael Schuppisser von der Aargauer Zeitung war am 1. Juli 2016 im Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel. Thema war der Unfall des Tesla Model S in den USA bei aktiviertem Autopilot. Der Insasse war dabei ums Leben gekommen. Ein Sattelschlepper war über eine Kreuzung auf dem Highway, über welche die Richtung gewechselt werden kann, senkrecht zum PKW geraten, der die weiße Fläche für den Himmel oder ein Schild gehalten hat und unvermindert weitergefahren ist. „Eine Schwachstelle ist die Kamera. Diese lässt sich leicht täuschen.“ (Aargauer Zeitung, 2. Juli 2016) Die Verwechslung begünstigt hat ein ungünstiger Winkel. Der Wissenschaftler rät dazu, in den nächsten Jahren weitere Tests und Experimente zu machen, die Ergebnisse der optischen Sensoren gegenprüfen und hoch- und vollautomatisierte bzw. autonome Autos vorrangig auf Autobahnen ohne Wendemöglichkeiten verkehren zu lassen. Der Artikel vom 2. Juli kann über www.aargauerzeitung.ch/leben/forschung-technik/maschinen-ethiker-analysiert-toedlichen-unfall-die-technik-ist-noch-nicht-so-weit-130397988 aufgerufen werden; zudem ist er am 2. Juli in der gedruckten Ausgabe erschienen.