Von der Pferdekutsche zum Roboterauto

Im Jahrbuch „Strassenverkehr Schweiz 2016“ geht es auch um Roboterautos. Die Wissenschaftsjournalistin Barbara Fischer hat im Technopark in Zürich den Maschinenethiker Oliver Bendel interviewt. Sie beginnt mit den Worten: „Autonome Fahrzeuge sind nichts Neues, bereits Kutschen haben so funktioniert. War der Kutscher betrunken oder eingeschlafen, blieben die Pferde vor einer Schlucht selbstständig stehen und warteten, bis der Kutscher die Steuerung wieder übernehmen konnte.“ Der Professor, der an der Hochschule für Wirtschaft FHNW arbeitet, meint: „Ein sehr schöner Vergleich. Im Grunde verfügen Kutschen über entsprechende Systeme. Das Pferd ist sozusagen der intelligente Antrieb und Fahrerassistent. Der Kutscher entspricht dem Autofahrer, er ist verantwortlich für das Gefährt. Meist sitzt er bewusst am Steuer, er kann die Führung aber auch delegieren. Ein spannendes Detail im Fall der Kutsche: Pferde haben ihren eigenen Kopf, wenn sie klug sind, bleiben sie rechtzeitig stehen, wenn sie Angst haben, rasen sie womöglich in den Abgrund.“ Im Folgenden plädiert Bendel für einfache moralische Maschinen und problematisiert komplexe moralische Maschinen wie autonome Autos, die über Leben und Tod von Menschen entscheiden. Das Jahrbuch mit dem Interview ist am 9. November 2015 erschienen. Es richtet sich an „die Gesamtheit aller Entscheidungsträger der Schweizer Verkehrsszene“ (www.kömedia.ch). Der Beitrag steht dank der freundlichen Genehmigung durch die Autorin und den Verlag kostenlos als PDF zur Verfügung.

Abb.: Eine Pferdekutsche in Wien

Roboterethik in Berlin

Das Programm der Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von der Daimler und Benz Stiftung sowie vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres), wurde Mitte Oktober 2015 fertiggestellt. Es steht auch über maschinenethik.net zum Download bereit. Während der eintägigen Veranstaltung in Berlin soll, wie ceres auf seiner Website schreibt, „aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können“ (Website ceres). Die Leitung der Tagung, die am 24. November 2015 ab 10 Uhr stattfindet, hat Prof. Dr. Christiane Woopen (Universität zu Köln, Geschäftsführende Direktorin des Cologne Center for Ethics, Rights, Economics and Social Sciences of Health) inne, die Referenten sind Prof. Dr.  Alin Albi Schäffer (Deutsches Zentrum für Luft- und Raumfahrt, Direktor des Instituts für Robotik and Mechatronik), Prof. Dr. Oliver Bendel (Fachhochschule Nordwestschweiz, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik), Prof. Dr. Hartmut Hirsch-Kreinsen (Technische Universität Dortmund, früherer Inhaber des Lehrstuhls für Wirtschafts- und Industriesoziologie), Prof. Dr. Norbert Lammert (Präsident des Deutschen Bundestages), Prof. Dr. Catrin Misselhorn (Universität Stuttgart, Direktorin des Instituts für Philosophie), Prof. Dr. Jochen Steil (Universität Bielefeld, Geschäftsführender Direktor des Instituts für Kognition und Robotik) und Prof. Dr. Johannes Weyer (Technische Universität Dortmund, Professor für Techniksoziologie). Die Eröffnungsrede hält Prof. Dr. Eckard Minx, Vorsitzender des Vorstands der Daimler und Benz Stiftung.

Abb.: Im Neuen Museum in Berlin

Militärische Drohnen in der Moral

Die Jahrestagung der Fachgruppe „Informatik und Ethik“ widmet sich vom 15. bis 16. Oktober 2015 in Berlin dem Thema Drohnen. Auf der Website heißt es: „Im Geheimdienstbefugnisklärungsausschuss des Deutschen Bundestags taucht am Rande immer wieder auf, was der Ex-Geheimdienstler Michael Hayden so drastisch ausdrückte: Wir töten Menschen auf der Basis von Meta-Daten. Der nicht mehr ganz so geheime Drohnenkrieg der militärisch stärksten Staaten zeigt in erschreckender Weise, welch zentrale Rolle Technikerinnen und Techniker in der Schönen Neuen (Gewalt-)Welt einnehmen.“ (Website GI, Oktober 2015) Es geht also um militärische Drohnen, die in bestimmter Weise bewertet werden. Entsprechend betrachtet Rafael Capurro am Donnerstag die „Kriegsmaschinen“ aus moralischer Sicht, und Constanze Kurz wiederholt in ihrem Vortrag die obige Aussage: „We kill people based on meta-data“. Verena Hafner nimmt am Freitag die Perspektive der Roboterethik ein, Hans-Jörg Kreowski stellt die Frage nach der „Kalamität bewaffneter Drohnen“. Die Teilnahme ist laut GI kostenlos. Es wird um Anmeldung unter drohnen@turing-galaxis.de gebeten. Weitere Informationen über gewissensbits.gi.de/jahrestagung-2015-drohnen.

Abb.: Greift die Drohne an?

Wer stirbt am Ende des Tages?

„Wen soll das autonome Auto lieber überfahren?“ Diesen Titel trägt ein Artikel von Philipp Vetter, erschienen am 14. September 2015 in der Online-Version der WELT; eine gedruckte Form folgte am 21. September. Man könnte auch fragen: Wer stirbt am Ende des Tages? Interviewt wurden Eric Hilgendorf, Juraprofessor an der Universität Würzburg, und Oliver Bendel, Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW. Auch Politiker werden zitiert: „In rund drei Jahren werden 80 Prozent aller Neuwagen in Deutschland miteinander vernetzt sein“, sage Verkehrsminister Alexander Dobrindt voraus. „Dann können die Autos erkennen, wo andere Fahrzeuge sind, wie weit weg, wie schnell. Sie können Informationen von diesen über den Straßenzustand, die Verkehrsdichte, die Witterungsverhältnisse bekommen.“ (WELT, 14. September 2015) Oliver Bendel konzipiert moralische Maschinen, ist aber skeptisch in Bezug auf komplexe moralische Maschinen, also auch in Bezug auf autonome Autos, die in offenen Welten eine Vielzahl von Entscheidungen – manche mit moralischen Implikationen – treffen müssen. Er ist der Meinung, dass sich gewisse Dilemmata nicht in befriedigender Weise lösen lassen. Wer am Ende des Tages stirbt, sollte nicht das Auto entscheiden.

Abb.: Oliver Bendel im Jahre 2015 in Valencia (Foto: Stefanie Hauske)

Berliner Konferenz zur Roboterethik

Die Konferenz „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ findet am 24. November 2015 in Berlin statt. Veranstalter sind Daimler und Benz Stiftung sowie Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres). Auf der Website zur Tagung heißt es: „Während der eintägigen Veranstaltung soll aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können. Neben Ausführungen zu Entwicklungsstand, Eigenschaften und Einsatzmöglichkeiten autonomer Systeme soll deren Einsatz in den Bereichen Gesundheit, Wirtschaft, Politik und Verkehrswesen insbesondere aus ethischer, philosophischer und sozialwissenschaftlicher Perspektive betrachtet werden.“ (Website ceres) Beiträge gibt es u.a. von Prof. Dr.-Ing. Alin Albu-Schäffer, Deutsches Zentrum für Luft- und Raumfahrt, Acting Head of the Institute of Robotics and Mechatronics, Prof. Dr. rer. nat. Jochen Steil, Universität Bielefeld, Managing Director Research Institute for Cognition and Robotics, und Prof. Dr. phil. Catrin Misselhorn, Universität Stuttgart, Direktorin des Instituts für Philosophie und Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie. Prof. Dr. oec. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker an der Hochschule für Wirtschaft FHNW, hält den Vortrag „Die Moral in der Maschine“. Weitere Informationen über ceres.uni-koeln.de.

Abb.: Es geht auch um die Moral der Maschinen

Against Autonomous Weapons

KI-Forscher und Robotiker sowie weitere Wissenschaftler aus aller Welt haben das Verbot von autonomen Waffensystemen, etwa Kampfrobotern, gefordert. Zu den Unterzeichnern des offenen Briefs gehören der Physiker und Astrophysiker Stephen Hawking, der Apple-Co-Founder Steve Wozniak und der Sprachwissenschaftler und Linksintellektuelle Noam Chomsky. Manche Experten lehnen Kampfroboter ab, weil diese falsche Entscheidungen treffen und die Bevölkerung verunsichern können, andere weisen darauf hin, dass Maschinen anders als Menschen nicht zu Plünderungen, Brandschatzungen und Vergewaltigungen neigen und somit die Nebenschauplätze von Kriegen menschlicher gestaltet werden können. Zudem könne man das Leben derjenigen Soldaten schützen, die von den Robotern unterstützt oder ersetzt werden. Der offene Brief wurde bei der Eröffnung der IJCAI 2015 Conference am 28. Juli 2015 präsentiert. Unterschrieben hat ihn auch der Maschinenethiker Oliver Bendel, der in seinen Fachartikeln nicht zuletzt Kampfdrohnen thematisiert hat und der Robotern, die komplexe Entscheidungen mit moralischen Implikationen zu treffen haben, ausgesprochen kritisch gegenübersteht. Er spricht sich für sogenannte einfache moralische Maschinen aus.

Abb.: Auch Aufklärungsdrohnen werden immer autonomer (Quelle: Wikipedia; Autor: Padeluun)

Springer-Lexikon zur Informationsethik

Ende 2015 erscheint ein neues Springer-Lexikon mit dem Titel „300 Keywords Informationsethik“. Oliver Bendel, Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker, hat das ganze Werk verfasst. Dadurch handelt es sich um ein Nachschlagewerk aus einem Guss, was eine Seltenheit und eine Besonderheit ist. Manche der Begriffe werden kurz und knapp erklärt, andere seitenlang. Nach der Lektüre ist man umfassend in die Bereichsethik eingeführt, die auch mit dem Begriff der digitalen Ethik umrissen wird und der man Computerethik, Netzethik und Neue-Medien-Ethik zuordnen kann. Und auch die Maschinenethik und die Roboterethik sind einem nicht mehr fremd. Natürlich lernt der Leser den Big Brother (und den Little Brother) kennen, und es kommt ihm die Filter Bubble entgegengeschwebt. Gespannt sein darf man auf den Cyberhedonismus, den Sexroboter und den Wutbürger. Weitere Informationen sind im Herbst bei Springer erhältlich.

Abb.: Little Brother is watching you

Kampf gegen Littering

Im Studiengang Energie- und Umwelttechnik der Fachhochschule Nordwestschweiz FHNW ist im Februar 2015 das Projekt CLEANINGFISH gestartet. Littering ist in der Schweiz ein Problem. Die Gewässer sind hochgradig belastet. Vordergründig wirken sie sauber, und im Vergleich zu den 60er- und 70er-Jahren wurden in Bezug auf bestimmte Schadstoffe erhebliche Fortschritte erzielt. Allerdings hat zum Beispiel der Anteil von Kunststoffen stark zugenommen. Fische, Wasservögel und andere Lebewesen nehmen die Partikel auf und scheiden sie verändert aus. Auch der Mensch hat immer öfter Petflaschen auf seinem Speiseplan, durchaus unfreiwillig und mit nicht absehbaren gesundheitlichen Folgen. Ein Ansatz könnten Schwärme von Robotern sein, die rund um die Uhr Flüsse und Seen durchstreifen, die Plastikteilchen schlucken und an Stationen deponieren. Sie könnten auch Gegenstände am Grund des Bodens, wohin man mit üblichen Verfahren meist nicht vorzudringen vermag, einsammeln und abschleppen. Der CLEANINGFISH, eine Designstudie von Oliver Bendel (s. Rubrik Studien auf www.maschinenethik.net), ist der Ausgangspunkt dieser Überlegungen. Er ist handgroß, stark und schnell, und er könnte größere und kleinere Geschwister für spezielle Aufgaben haben. Ein Student der Hochschule für Technik erstellt eine Machbarkeitsstudie, die Grundlage für weitere Aktivitäten sein kann. Beantwortet werden auch Fragen der Maschinenethik sowie der Informations- und Technikethik.

Abb.: Ein Robofish (Quelle: commons.wikimedia.org; Autor: Kuba Bożanowski, Warschau)

Beitrag zu autonomen Autos

„Selbstständig fahrende oder autonome Autos bewegen sich als Prototypen durch die Städte und Landschaften, in den USA genauso wie in Europa und Asien. Umgangssprachlich werden sie als Roboterautos bezeichnet. Sie nehmen dem Fahrer (bzw. dem Insassen) wesentliche oder sogar sämtliche Aktionen ab.“ Mit diesen Worten hebt ein neuer Beitrag von Oliver Bendel an. Im Wirtschaftslexikon von Gabler und Springer erklärt er, was selbstständig fahrende Autos sind und wie sie mit Fahrerassistenzsystemen zusammenhängen. Dabei erwähnt er auch Informationsethik und Maschinenethik: „Ein vollkommen automatisierter und autonomisierter Verkehr würde weitgehende Entscheidungen der Fahrzeuge, nicht zuletzt in moralisch relevanten Situationen, erforderlich machen. Diesbezüglich ist die Maschinenethik gefragt, die sich mit der Moral von Maschinen befasst. Der robotergeprägte Verkehr wird anhand klassischer Beispiele wie des Trolley- und des Fetter-Mann-Problems diskutiert. Gefragt ist zudem die Informationsethik, etwa in Bezug auf die informationelle Autonomie der Insassen, die Fahrzeug- und die Datensicherheit.“ Der Beitrag ist am 3. Februar 2015 erschienen und kann über wirtschaftslexikon.gabler.de/Definition/selbststaendig-fahrende-autos.html aufgerufen werden.

Abb.: Ein Roboterauto auf der Notfallspur

Der Siegeszug der Serviceroboter

„Serviceroboter sind in etlichen Ausführungen erhältlich. Haushalts- und Gartenroboter erobern die Wohnviertel, Pflege- und Therapieroboter die Krankenhäuser und Altenheime. Sie unterstützen und sie überwachen uns. Und sie ersetzen uns allmählich.“ Mit diesen Worten beginnnt der Artikel „Die Roboter sind unter uns“ von Oliver Bendel in der Netzwoche vom 3. Dezember 2014. In der letzten Ausgabe des Jahres dreht es sich um die Trends des Jahres 2015. Als Wirtschaftsinformatiker und Ethiker sieht Oliver Bendel durchaus positive Aspekte von Jaco, Qrio und Pepper – und natürlich von LADYBIRD, einem Saugroboter, der keine Krabbeltiere tötet. Als Informationsethiker weist er aber eben auch darauf hin, dass die „künstlichen Kreaturen“ uns überwachen: „Wenn sie mit Sensoren ausgestattet sind, wenn sie über Intelligenz und Erinnerungsvermögen verfügen, werden sie nach und nach zu allwissenden Begleitern.“ Entsprechend ist die Informationsethik zur Reflexion der Probleme gefragt. Und die Maschinenethik, um die Serviceroboter in moralische Maschinen zu verwandeln. Der Artikel ist hier kostenlos zu beziehen.

Abb.: Saugroboter der gewöhnlichen Art

Neues Papier des GDI

Am 27. Oktober 2014 ist ein neues Diskussionspapier des Gottlieb Duttweiler Institute (GDI) herausgekommen. Entwickelt werden darin „Szenarien zur digitalen Vernetzung“, bezogen auf das Jahr 2030 (Website www.gdi.ch). „Die Vernetzung hat unser Leben verändert. Doch das ist erst der Anfang. Die Digitalisierung erfasst bald die ganze Wirtschaft und Gesellschaft. Menschen und Maschinen verschmelzen zur Digisphäre.“ (ebd.). Karin Frick und Bettina Höchli beantworten laut Website Fragen wie „Wie schützen wir uns vor Cyberwar und -crime“, „Wie stellen wir schnelle und flächendeckende Netze sicher?“, „Wie gewährleisten wir Privatsphäre und Datenschutz?“ und „Wie weit sollen Maschinen für uns entscheiden?“. Auf Seite 18 der Studie heißt es: „Die Felder werden von selbststeuernden Maschinen bewirtschaftet, die Ernte von Robotern verarbeitet. Am Ende dieser Entwicklung steht die vollautomatisierte Lebensmittelproduktion.“ Die Autorinnen gehen nicht auf die Maschinenethik oder auf Informationsethik bzw. Technikethik ein. Sie sprechen aber zahlreiche Themen dieser Disziplinen an. Das Papier steht seit 31. Oktober 2014 in einer aktualisierten und ergänzten Version zur Verfügung. Gegen die Abgabe persönlicher Daten kann es kostenlos heruntergeladen werden.

Abb.: Vom Institut aus blickt man auf den Zürisee

Cloud am Steuer

„Das automatische Auto ist keine Utopie mehr. In den nächsten Jahren werden die Fahrzeuge selbst immer mehr jener Aufgaben übernehmen, die bislang von den menschlichen Fahrern erledigt wurden.“ Dies schreibt Christian Rauch in seinem Artikel „Cloud am Steuer“ für die GDI Impuls 2/2014. Doch wenn Roboter über die Straßen steuern, so fragt er weiter, „welche ethischen und rechtlichen Konsequenzen hat das“? Beantwortet wird das u.a. von Patrick Lin, Roboter- und Maschinenethiker an der California Polytechnic State University, und Oliver Bendel, Wirtschaftsinformatiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Der Artikel kann über GENIOS bezogen werden, die ganze Zeitschrift auch über www.gdi.ch.

Abb.: Wolken über der Straße

Fahrerassistenzsysteme aus ethischer Sicht

In der Zeitschrift für Verkehrssicherheit (2/2014) ist der Artikel „Fahrerassistenzsysteme aus ethischer Sicht“ von Oliver Bendel erschienen. Es werden (so der Abstract) immer mehr Assistenzsysteme in Autos verbaut. „Manche unterstützen und informieren den Fahrer. Andere nehmen ihm bestimmte Aufgaben ab – und machen aus dem von Menschen gesteuerten System ein teilautonomes. Längst sind auch vollautonome Systeme auf den Straßen unterwegs, sogenannte selbstständig fahrende Autos, als Prototypen der Unternehmen und innerhalb von Forschungsprojekten. Aus der Sicht der Ethik – der Bereichsethiken ebenso wie der Maschinenethik – stellen sich zu Fahrerassistenzsystemen verschiedene Fragen.“ (Abstract) Ziel des Beitrags sei, daraus erste Vorschläge zur Verbesserung und Weiterentwicklung der Systeme abzuleiten. Weitere Informationen über www.zvs-online.de.

Abb.: Fuchs auf der Straße (Quelle: commons.wikimedia.org; Fotograf: Hannu)

Der Spion im eigenen Haus

Operations-, Therapie- und Pflegeroboter sind im Gesundheitswesen auf dem Vormarsch. Sie ersetzen und ergänzen in Kliniken, Zentren und Haushalten menschliche Arbeitskräfte. Manches können sie besser, manches genauso gut, manches schlechter. Sie sind i.d.R. sehr teuer und können doch zu Einsparungen führen. Und sie bergen eine nicht unerhebliche Gefahr. Im Beitrag „Der Spion im eigenen Haus“ (IT for Health, März 2014) von Oliver Bendel werden die Roboter aus der Perspektive der angewandten Ethik betrachtet. Es werden zunächst Informations- und Technikethik sowie Medizinethik kurz erklärt. Dann werden Fragen zum Einsatz der Maschinen gestellt. Es kristallisiert sich heraus, dass informationelle Autonomie und Datenschutz übergreifende Problembereiche sind. Der Beitrag ist als PDF verfügbar und kann kostenlos heruntergeladen werden.

Abb.: Die Spionin im eigenen Haus

Zur Beziehung von Tier- und Maschinenethik

In der Zeitschrift „Artificial Intelligence & Society“ ist im Dezember 2013 der Artikel „Considerations about the relationship between animal and machine ethics“ von Oliver Bendel erschienen. Es ist einer der ersten Beiträge, der Tierethik und Maschinenethik in einen Zusammenhang stellt. Im Abstract heißt es: „Ethics researches morality in respect to humans and animals. Usually, it implies human morality; therefore, the focus is on human–human relationships (generally in ethics) and human–animal relationships (in animal ethics). Ethics can also deal with the morality of machines such as unmanned aerial vehicles, robots and agents or of self-driving cars and computers in automated trading, in other words more or less autonomous systems and programs.“ Auf solche Systeme wird eingegangen, aber nicht im Verhältnis zum Menschen, sondern zum Tier. Und das ist innerhalb der Maschinenethik neu: „Machine ethics almost exclusively concentrates on machine–human relationships rather than on machine–animal relationships. Before this background, this article contributes some basic considerations about the relationship between animal and machine ethics.“ Am Rande wird eine Disziplin der Tier-Maschine-Interaktion (Animal-Machine Interaction) vorgeschlagen. Der Artikel ist als „Online-First“-Beitrag auf SpringerLink verfügbar.

Abb.: Zwei Schildkröten

MOOC zur Technikethik

Der Coursera-Kurs „Technology and Ethics“ von Robert Bailey (The Ohio State University) findet ab 21. April 2014 statt und dauert sieben Wochen. Das Arbeitspensum beträgt laut Anbieter 3 bis 5 Stunden pro Woche, die Sprache ist Englisch. Der Kursinhalt wird wie folgt beschrieben: „Example technologies at play today include nuclear energy; biological manipulations for warfare; robots for taking care of the elderly, and enhancing human capability; the use of technology for surveillance; the cultural changing power of the media which can create unlimited arrays of images real and virtual to support a point of view; and the internet with its world wide connectivity.“ (Website des Anbieters) Ob im Falle der Pflege- und Haushaltsroboter auch die Maschinenethik einbezogen wird, ist nicht bekannt. Die Informationsethik wird – neben der Medizinethik – sicherlich berücksichtigt. Weitere Informationen über www.coursera.org/course/techethics.

Abb.: Roboter können auch in der Pflege eingesetzt werden

Wie kann man gute Autos noch besser machen?

Der Artikel „Ich bremse auch für Tiere: Überlegungen zu einfachen moralischen Maschinen“ von Oliver Bendel ist am 4. Dezember 2013 in inside-it.ch erschienen (direkt über www.inside-it.ch/post/ich-bremse-auch-fuer-tiere-20131204). Er hebt an mit den Worten: „Wie kann man gute Autos noch besser machen? Oder gute Drucker? Oder gute Sauger? Indem man ihnen Manieren und Moral beibringt. Für das eine ist der Knigge zuständig, für das andere die Philosophie – seit nunmehr 2500 Jahren.“ Es wird kurz erläutert, was Maschinenethik ist und was „Moralisieren“ im vorliegenden Kontext bedeutet – dann werden verschiedene Beispiele genannt, die teilweise auch für IT-Unternehmen relevant sind und mehrheitlich mit dem Leben oder dem Tod von Menschen und Tieren zu tun haben. Konkret werden Chatbots, Haushalts- und Gartenroboter, private Drohnen, selbstständig fahrende Autos, Windkraftanlagen und 3D-Drucker aus Sicht der Maschinenethik skizziert. Damit denkt der Autor das Konzept der einfachen moralischen Maschinen weiter, das er auf der Plattform KMU Business World entwickelt hatte. Der Beitrag endet mit dem Satz: „Jedes (teil-)autonome System steht eines Tages vor der gleichen Herausforderung. Es kann gut sein und bleiben – oder es kann besser werden, als Teil einer technischen und moralischen Evolution.“

Abb.: Ich bremse auch für Tiere

Roboterethik in Wien

Prof. Dr. Robert Trappl hält am 12. November 2013 im Austrian Research Institute for Artificial Intelligence (OFAI) einen Vortrag mit dem Titel „Ethik für Roboter – ein brisantes Forschungsgebiet“. In der Pressemitteilung heißt es: „Wenn Roboter Partner am Arbeitsplatz werden oder wenn sie für längere Zeit mit älteren Menschen oder Menschen mit speziellen Bedürfnissen zusammenleben werden, um ihnen ein selbstbestimmtes Leben in ihren eigenen Räumen zu ermöglichen, werden durch diese komplexen sozialen Situationen immer häufiger ethische Fragen und deren Beantwortung eine Rolle spielen.“ Im September 2013 waren auf Einladung des OFAI Wissenschaftlerinnen und Wissenschaftler „aus Frankreich, den Niederlanden, Österreich, Portugal, Ungarn und den USA in Wien zusammengekommen, um Voraussetzungen, Methoden, Implementierungen und Tests für ein Entwicklungshandbuch für ethische Systeme für Roboter zu diskutieren“ (Zitat aus der Pressemitteilung). In dem Vortrag wird eine Einführung in das Forschungsgebiet gegeben, und es werden erste Ergebnisse präsentiert. Er findet ab 18.30 Uhr am Institut (Freyung 6, Stiege 6, 1010 Wien, Österreich) statt.

Abb.: In Wien

Der Lügenbot

In seinem Artikel „Der Lügenbot und andere Münchhausen-Maschinen“ geht Oliver Bendel der Frage nach, ob Chatbots, Roboter und andere Maschinen lügen können. Dabei betont er die Sprachlichkeit des Lügens. Wer etwas sagen kann, so der Autor, der kann auch die Unwahrheit sagen. Den meisten Maschinen unterstellen wir, dass sie die Wahrheit sagen. Wir vertrauen den Aussagen einer Anna von Ikea, einer Siri von Apple und von Wolfram Alpha. Aber alle drei könnten ganz anders, wenn sie – oder ihre Entwickler – wollten. Man könnte Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich irritiert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Artikel ist am 11. September 2013 auf der Plattform CyberPress erschienen und direkt über www.mittelstandswiki.de/wissen/Gastbeitrag:Maschinenethik aufrufbar.

Abb.: Er ist bekannt für seine Lügen

Einfache moralische Maschinen

Auf der Plattform KMU Business World ist am 30. August 2013 der Artikel „Einfache moralische Maschinen“ von Oliver Bendel erschienen. Eine Vorabveröffentlichung brachte der Blog des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW. Moralische Maschinen sind nach der Meinung des Philosophen und Wirtschaftsinformatikers bereits heute möglich. Man dürfe sie nur nicht zu kompliziert denken und zu komplex gestalten. Wenn es sich um spezialisierte autonome oder teilautonome Systeme handele, könne man bei ihren Kernfunktionen ansetzen und sie mit geringfügigen Änderungen, mit wenigen zusätzlichen Komponenten in einfache moralische Maschinen verwandeln. Wie das geschehen kann, wird an vier Beispielen gezeigt, an Servicerobotern, privaten Drohnen, Chatbots und selbstständig fahrenden Autos.

Abb.: Eine einfache moralische Maschine kann man einfach umsetzen

Roboterethik im Gabler Wirtschaftslexikon

Im Gabler Wirtschaftslexikon wird seit 3. Juli 2013 die Roboterethik definiert. Diese kann man sowohl der Maschinen- als auch der Menschenethik zuordnen. In der Roboterethik werde danach gefragt, ob ein Roboter ein Subjekt der Moral sein und wie man diese implementieren kann. Auch der Roboter als Objekt der Moral sowie sein Einfluss auf Menschen sei von Belang. Oliver Bendel erklärt in seinem Beitrag den Begriff der Roboterethik, nimmt die Perspektive der Robotik ein, erwähnt die Robotergesetze von Asimov und gibt eine Einschätzung der Disziplin und einen Ausblick auf ihre weitere Entwicklung. Der Beitrag ist direkt über wirtschaftslexikon.gabler.de/Definition/roboterethik.html abrufbar. Er wurde dem Sachgebiet „Grundlagen der Wirtschaftsinformatik“ zugewiesen. Für das Gabler Wirtschaftslexikon schreiben nach eigenen Angaben über „150 Experten aus Wissenschaft und Praxis“. Mehr als „25.000 Stichwörter stehen kostenlos“ bereit.

Abb.: Trau Robotern nicht

Der GOODBOT in der UnternehmerZeitung

Ein Artikel in der UnternehmerZeitung vom 2. Juli 2013 geht auf das GOODBOT-Projekt ein, das im Juni 2013 an der Hochschule für Wirtschaft FHNW gestartet ist. Der „moralische Chatbot“ soll auch auf Selbstmorddrohungen oder Ankündigungen von Amokläufen adäquat reagieren und überhaupt ein angenehmer Zeitgenosse (und trotzdem kein Langweiler) sein. Es werden sieben Regeln genannt, die „hinsichtlich seiner Akte und Sprechakte gegenüber dem Benutzer“ gelten sollen. Dazu gehört auch eine Transparenzregel: „Der GOODBOT macht dem Benutzer klar, dass er eine Maschine ist.“ (Regel 1) Und eine Regel zur Beobachtung: „Der GOODBOT ist kein Spitzel und wertet Gespräche mit dem Benutzer nicht aus.“ (Regel 6) Für das Projekt wurden verschiedene konzeptionelle Vorleistungen wie der Regelkatalog erbracht. Von Juni 2013 bis Januar 2014 arbeiten sich drei Studierende der Hochschule in die Maschinenethik und die Roboterethik ein und entwickeln einen Prototyp. Initiator und Leiter des Projekts ist der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Der Artikel ist in der siebten Ausgabe der UnternehmerZeitung auf den Seiten 30 und 31 zu finden.

Abb.: Der GOODBOT ist kein Spitzel