Kategorie: Publikationen

Reading Faces

Face recognition is the automated recognition of a face or the automated identification, measuring and description of features of a face. In the 21st century, it is increasingly attempted to connect to the pseudoscience of physiognomy, which has its origins in ancient times. From the appearance of persons, a conclusion is drawn to their inner self, and attempts are made to identify character traits, personality traits and temperament, or political and sexual orientation. Biometrics plays a role in this concept. It was founded in the eighteenth century, when physiognomy under the lead of Johann Caspar Lavater had its dubious climax. In the paper “The Uncanny Return of Physiognomy”, the basic principles of this topic are elaborated; selected projects from research and practice are presented and, from an ethical perspective, the possibilities of face recognition are subjected to fundamental critique in this context, including the above examples. Oliver Bendel presented his paper on 27 March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series). The PDF is available here.

Fig.: Reading faces

Beitrag zu Privacy by Default

“Mit Privacy by Default soll durch entsprechende Voreinstellungen bei Diensten, Geräten und Systemen die Privatsphäre bewahrt und der Datenschutz sichergestellt werden. ‘Privacy’ ist das englische Wort für Privatsphäre und Privatheit. Es wird auch mit Blick auf den Datenschutz verwendet. Der Besitzer bzw. Benutzer kann die Einstellungen in der Regel verändern und dadurch z.B. zusätzliche Funktionen freischalten, mit dem Risiko der Beeinträchtigung der Privatsphäre und der Preisgabe und Verarbeitung personenbezogener Daten.” So beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler von Oliver Bendel, erschienen am 8. Mai 2018. Es wird der Bezug zu Privacy by Design und zur Datenschutz-Grundverordnung (DSGVO) ebenso hergestellt wie zur Informationsethik. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/privacy-default-99475 aufgerufen werden.

Abb.: Bei Überwachungskameras gibt es kein Privacy by Default

Beitrag zur DSGVO

Im Wirtschaftslexikon von Springer Gabler ist am 8. Mai 2018 ein Beitrag zur Datenschutz-Grundverordnung (DSGVO) erschienen. Er beginnt mit folgenden Worten: “Die Datenschutz-Grundverordnung (DSGVO) vereinheitlicht die Regeln zur Verarbeitung personenbezogener Daten durch Unternehmen, Behörden und Vereine, die innerhalb der Europäischen Union einen Sitz haben. Die englische Entsprechung ist ‘General Data Protection Regulation (GDPR)’, die offizielle Bezeichnung ‘Verordnung des Europäischen Parlaments und des Rates zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG’. Der Umgang mit Kunden- und Mitarbeiterdaten, Daten von Bürgern etc. wird im Zusammenhang mit dem Datenschutz in elf Kapiteln mit insgesamt 99 Artikeln geklärt.” (Gabler Wirtschaftslexikon) Eingenommen wird auch die Perspektive der Informationsethik. Diese ist mit der Datenschutz-Grundverordnung über Begriffe wie “Recht auf Vergessenwerden”, “Informationsfreiheit” und “informationelle Selbstbestimmung” bzw. “informationelle Autonomie” verbunden. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/datenschutz-grundverordnung-99476 aufgerufen werden.

Abb.: Die DSGVO hat Konsequenzen weit über die EU hinaus

Relaunch des Wirtschaftslexikons

Das Gabler Wirtschaftslexikon gilt laut Springer seit Jahrzehnten als Klassiker der Wirtschaftsliteratur. “Seit 2009 gibt es das Werk als frei zugängliches Online-Angebot mit erweitertem Nutzungsangebot. Mit mehr als 25.000 Stichworten steht mit dem Gabler Wirtschaftslexikon die größte deutschsprachige Auswahl an betriebswirtschaftlich-lexikalischem Know-how im Internet zur Verfügung – von über 200 ausgewiesenen Fachexperten geschrieben und kontinuierlich redaktionell geprüft. Springer Gabler stellt damit Expertenwissen online, das wissenschaftlich zitierfähig ist und sich vom wachsenden Angebot ungesicherten Wissens in Form von freien nicht weiter geprüften Inhalten im Internet unterscheidet.” (Website Gabler Wirtschaftslexikon) Im Frühjahr 2018 erfolgte der visuelle und strukturelle Relaunch. Das Online-Nachschlagewerk wirkt nun aufgeräumter und moderner. Der derzeit am häufigsten aufgerufene Begriff ist “Digitalisierung” von Prof. Dr. Oliver Bendel (in diesem Beitrag wird auch auf Informationsethik eingegangen), gefolgt von “Benchmarking” (Prof. Dr. Klaus Wübbenhorst).

Abb.: Hitliste des Wirtschaftslexikons (Quelle: Springer)

Über Gespenster der künstlichen Intelligenz

Im Salzburger Nachtstudio auf Ö1 wird am 16. Mai 2018 die Sendung “Alexa lacht” mit dem Untertitel “Maschinen und andere Gespenster der künstlichen Intelligenz” ausgestrahlt. Aus der Beschreibung: “Die Differenz zwischen Mensch und Maschine ist längst kleiner geworden in unserem smarten Alltag. Maschinen, die immer selbständiger handeln und entscheiden, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder Sexroboter, als Überwachungs- und Kampfroboter in die menschliche Lebenswelt ein. Das erfordert Regeln im Umgang zwischen Mensch und Maschine sowie eine ethische Reflexion der Programmierung. Der Maschinenethiker Oliver Bendel, die Philosophin Janina Loh und die Informatikerin Joanna Bryson reflektieren diese Problematik in ihrer Forschungsarbeit. Was ist menschliche Projektion im Umgang mit Technologien, und wie ‚verhält‘ sich die Maschine dazu? Der Spuk von Sprachassistentin Alexa, die zuweilen gestört lacht, lässt sich beheben, aber Alexa wertet längst menschliche Gewohnheiten aus und steuert uns.” (Website Ö1) Weitere Informationen über oe1.orf.at/programm/20180516/513712.

Abb.: Gespenster der künstlichen Intelligenz

Gutachten zu ethischen Standards für Big Data

Das Gutachten “Ethische Standards für Big Data und deren Begründung” (Prof. Dr. Stefan Selke zusammen mit Dr. Peter Biniok, Dr. Johannes Achatz und Elisabeth Späth) ist “der Versuch, eine vorläufige Antwort auf die Frage zu geben, in welchem Umfang die gegenwärtige Debatte über Big Data von Bezügen auf ethische Standards geprägt ist”. “Damit wird zugleich die Frage gestellt, wie ethische Standards in Zukunft zur fairen Ausbalancierung zwischen starrer Regulation einerseits und totale Flexibilisierung andererseits von Nutzen sein könnten. Ethische Standards werden dabei in einer wissenssoziologischen Perspektive sowohl als implizite Begründungsmuster als auch als explizite kommunikative Gattung aufgefasst, deren Funktion sich u. a. darin begründet, Anschlussfähigkeit zwischen unterschiedlichen gesellschaftlichen Teilsystemen herzustellen und dauerhaft zu erhalten.” (Gutachten Big Data) Als Expertinnen und Experten standen u.a. Prof. Dr. Oliver Bendel, Prof. Dr. Dirk Helbing, Prof. Dr. Petra Grimm, Yvonne Hofstetter, Prof. Dr. Viktor Mayer-Schönberger und Prof. Dr. Oliver Zöllner zur Verfügung. Das Gutachten wurde im Rahmen des ABIDA-Projekts mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) erstellt und kann hier heruntergeladen werden.

Abb.: Ethische Standards zu Big Data sind notwendig

Siri und die Mundart

Im Sommer 2012 erschien der Artikel “Siri ist hier.”, mit dem Untertitel “Der Sprachassistent von Apple in der Schweiz aus linguistischer und ethischer Sicht”. Mit Schweizerdeutsch kam Siri damals nicht zurecht. Oliver Bendel erklärte: “Es wäre sicherlich nicht ganz einfach, dem Sprachassistenten auf der Ebene der Aussprache und Betonung die schweizerischen Gepflogenheiten nahezubringen. Er könnte dazulernen; aber dazu müsste er in der Lage sein, semantische Beziehungen zu knüpfen (und damit zu realisieren, dass das Chuchichäschtli ein kleiner Küchenschrank ist). Wenn der Benutzer in der Schweiz nicht weiß, dass man ‘Serie’ auch anders aussprechen kann, kann Siri allenfalls eine Menge von mehr oder weniger sinnvollen Alternativen – oder kluge Rückfragen – unterbreiten. Ob man mit diesen immer etwas anfangen kann, sei dahingestellt. Auch auf der lexikalischen Ebene weiß nicht jeder Benutzer, dass Alternativen existieren. Nicht in allen Fällen werden Helvetismen – dies haben mir viele Gespräche gezeigt – als solche erkannt.” Inzwischen ist man weiter: “Zwei Start-ups aus dem Wallis, Keylemon und recapp, haben zur Entwicklung der neuen Swisscom TV-Box beigetragen, die erstmalig Spracherkennung auch für Deutschschweizer Dialekte bietet.” (Website recapp) Siri aber beherrscht nach wie vor keine Mundart. Dies hat erst kürzlich die Handelszeitung thematisiert, wobei sie auch erwähnt, dass man das Problem heute mit Lösungen von Firmen wie recapp angehen könnte.

Abb.: Versteht mich Siri?

The Chatbot that Uses Face Recognition

Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. To achieve this, it will use approaches of face recognition. The paper “From GOODBOT to BESTBOT” describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel presented his paper on 27 March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series). The PDF is available here.

Wo fängt die Arbeit an, wo hört sie auf?

In der Neuen Osnabrücker Zeitung ist am 25. April 2018 der Artikel “Robotersteuer: Ökonomen sind skeptisch” erschienen. Im Teaser heißt es: “DHL-Chef Frank Appel und Microsoft-Gründer Bill Gates zählen zu den Befürwortern dieser Idee. Doch Ökonomen sind skeptisch.” Thomas Straubhaar von der Universität Hamburg wird mit den Worten zitiert: “Der Roboter ist nicht der Feind des Menschen, sondern sein Freund.” “Die Maschine helfe den Arbeitnehmern, produktiver zu werden.» (NOZ, 25. April 2018) Der Wirtschaftsinformatiker Oliver Bendel von der Fachhochschule Nordwestschweiz gibt laut NOZ zu bedenken, dass bei einer Robotersteuer schwierige Unterscheidungen zu treffen sein werden: “Sprechen wir nur von Hardware- oder auch von Softwarerobotern? Reden wir nur über Fabrikarbeit?” “Problematisch sei außerdem, dass moderne Roboter oft vernetzte Systeme seien.” Und: “Sogenannte Kooperations- und Kollaborationsroboter arbeiteten ganz eng mit Menschen zusammen. Das sei ein Problem für die Berechnung einer Steuer: Wo fängt die Arbeit des Roboters an, wo hört sie auf?” (NOZ, 25. April 2018) Der Artikel kann über www.noz.de/deutschland-welt/wirtschaft/artikel/1198722/robotersteuer-oekonomen-sind-skeptisch aufgerufen werden.

Abb.: Ein Roboter in der Fabrik

Können Roboter Gefühle entwickeln?

Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.” Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.

Abb.: Robben haben Gefühle, Roboter nicht

Ethik und KI in Kalifornien

Die Technical Reports des AAAI 2018 Spring Symposium “AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” sind Ende April 2018 erschienen. Zum Download stehen u.a. bereit “From GOODBOT to BESTBOT” (Oliver Bendel), “The Uncanny Return of Physiognomy” (Oliver Bendel), “The Heart of the Matter: Patient Autonomy as a Model for the Wellbeing of Technology Users” (Emanuelle Burton et al.), “Trustworthiness and Safety for Intelligent Ethical Logical Agents via Interval Temporal Logic and Runtime Self-Checking” (Stefania Costantin et al.), “Ethical Considerations for AI Researchers” (Kyle Dent), “Interactive Agent that Understands the User” (Piotr Gmytrasiewicz et al.), “Toward Beneficial Human-Level AI … and Beyond” (Philip C. Jackson Jr.), “Towards Provably Moral AI Agents in Bottom-Up Learning Frameworks” (Nolan P. Shaw et al.), “An Architecture for a Military AI System with Ethical Rules” (Yetian Wang et al.) und “Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety” (Mark R. Waser et al.). Das Symposium fand vom 26. bis zum 28. März 2018 an der Stanford University statt. Für die Maschinenethik wie auch für Informationsethik und Roboterethik ist die Konferenzreihe seit Jahren eine der wichtigsten Plattformen weltweit.

Abb.: Eine Skulptur in San Francisco

Diskussion um die elektronische Person

Haben Roboter Rechte bzw. soll man sie mit Rechten ausstatten? Die eine Frage ist ethisch, die andere rechtlich deutbar. Oliver Bendel hält als Ethiker nichts von Rechten für Roboter. Dies können weder empfinden noch leiden, sie haben kein Bewusstsein, sie sind keine echten Personen, aber auch keine echten Lebewesen. Im Zivilrecht kann man, so seine Meinung, ohne weiteres eine elektronische Person konstruieren, die man verklagen kann und die dann haften muss (etwa über ein Budget, das sie hat, oder einen Fonds, mit dem sie verbunden ist). Einerseits ist das die Lösung für das Problem, dass sich in vielen Fällen kaum mehr eindeutig verantwortliche natürliche oder juristische Personen ausmachen lassen. Andererseits eben nicht, denn woher sollte das Geld kommen – wenn nicht von natürlichen und juristischen Personen, die mit dem Roboter in irgendeiner Verbindung stehen? Und bei selbstlernenden Systemen wie Tay wird es vollends kompliziert, wobei dieser Fall ins Strafrechtliche hineinreicht. Eine Gruppe von KI-Forschern, Philosophen, Theologen und Rechtswissenschaftlern hat sich in einem offenen Brief gegen die Schaffung des Status einer elektronischen Person gewandt, wie eine Arbeitsgruppe des Europäischen Parlaments sie dieses Jahr vorgeschlagen hat. Der Artikel “Streit um Rechte von Robotern” stellt die unterschiedlichen Positionen dar. Er ist am 21. April 2018 in der Aargauer Zeitung erschienen und kann über www.aargauerzeitung.ch/leben/forschung-technik/streit-um-rechte-von-robotern-wer-haftet-wenn-etwas-schief-geht-132457958 aufgerufen werden.

Abb.: Braucht es eine elektronische Person?

Pro und Contra zur Robotersteuer

“Wenn immer mehr Roboter statt Menschen arbeiten, wer zahlt dann eigentlich noch Steuern? Die Roboter! Das hat zumindest Bill Gates vorgeschlagen und damit eine interessante Diskussion um die Zukunft der Arbeit angeregt. Neue Technologien verändern unsere Arbeitswelt nachhaltig: Psychologen beraten uns über Skype, Architekten entwickeln Baupläne für Berlin-Mitte in einem Coworking-Space in Thailand und nette Roboterdamen beantworten unsere Fragen am Flughafen. Und das ist nur der Anfang.” (Netzpiloten, 18. April 2018) Mit diesen Worten beginnt ein Artikel von Marinela Potor im Magazin der Netzpiloten vom 18. April 2018. Das Thema ist die Robotersteuer, die von Bill Gates, wie gesagt, befürwortet und von Oliver Bendel, der im Beitrag zu Wort kommt, kritisch gesehen wird. Er ist dafür, alle Konzepte zu diskutieren, die dazu beitragen können, den Lebensunterhalt der Menschen zu sichern. Aber die Robotersteuer, so seine Meinung, könnte technische, wirtschaftliche und gesellschaftliche Entwicklungen behindern und sei praktisch nur schwer umzusetzen, was nicht zuletzt an der Unterschiedlichkeit und der Vernetztheit der Systeme liege. Der Artikel mit dem Titel “Sollten Roboter Steuern zahlen?” kann über www.netzpiloten.de/robotersteuer-arbeitsplaetze-steuereinnahmen/ aufgerufen werden.

Abb.: Nao will keine Steuern zahlen

Der Niedergang der Sexualwissenschaft

Die Deutsche Presse-Agentur (dpa) war vor einiger Zeit im Gespräch mit Oliver Bendel, für den Beitrag “Sexroboter – Hype oder Trend?”. Am Rande erwähnte der Informations- und Maschinenethiker aus Zürich, dass die Sexualwissenschaft in Deutschland kaum noch eine Bedeutung habe. Nach seiner Einschätzung tut man sich an den Hochschulen schwer mit dem Thema. Die dpa ging dem Hinweis nach und verfasste einen Beitrag, der in der ÄrzteZeitung veröffentlicht wurde. Im Teaser heißt es: “Deutschland hat nur zwei große sexualwissenschaftliche Zentren. Der Westen sei geradezu prüde bei dem Thema, bemängeln Forscher – dabei würden sexuelle Krankheiten medizinisch oft auf andere Probleme hindeuten.” (ÄrzteZeitung, 12. Februar 2018) “Die aktuelle Situation in Deutschland ist ein Armutszeugnis”, wird Heinz-Jürgen Voß von der Gesellschaft für Sexualwissenschaft zitiert. “Überall dort, wo Menschen mit Menschen zu tun haben, in Kitas, Schulen, Einrichtungen der Sozialen Arbeit sowie Bildungseinrichtungen für Erwachsene, spielten Fragen zu Körper, Geschlecht und Sexualität eine Rolle.” Das bedeutet, so Voß, “dass Fachkräfte ausgebildet sein sollten, professionell mit den entsprechenden Fragen umzugehen” (ÄrzteZeitung, 12. Februar 2018). Der Artikel “Sex auf dem Abstellgleis” ist über www.aerztezeitung.de/panorama/article/957332/50-jahre-nach-1968-sex-abstellgleis.html abrufbar.

Abb.: Der Niedergang der Sexualwissenschaft

Die Rechte von Sophia

Haben Roboter Rechte? Dieser Frage geht Oliver Bendel in der Zeitschrift Edison nach, in der Ausgabe 2/2018. Die zuständige Disziplin ist die Roboterethik (bzw. die Roboterphilosophie). Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Er erwähnt in “Haben Roboter Rechte?” auch Sophia, den humanoiden Roboter, dem in Saudi-Arabien die Staatsbürgerschaft verliehen wurde. Ihr wird in Edison auch ein eigener Beitrag gewidmet. Das Magazin kann über edison-magazin.handelsblatt.com/epaper/13.04.2018 bestellt werden.

Abb.: Haben Roboter Rechte?

Cloud Computing aus Sicht der Ethik

Im Frühjahr 2018 erscheint “Cloud Computing: Die Infrastruktur der Digitalisierung” bei Springer Vieweg, herausgegeben von Stefan Reinheimer. Das Buch thematisiert Chancen und Risiken des Cloud Computing, “bringt Lesern das Thema durch anschauliche Beispiele aus Forschung und Praxis näher und zeigt die Implikationen auf, die aus dieser neuen Infrastruktur resultieren”. “Die Beitragsautoren präsentieren technische Lösungen, Geschäftsmodelle und Visionen, die einerseits die Herausforderungen und Hürden des Cloud Computing aufgreifen – technisch, rechtlich, prozessbezogen – und andererseits die Chancen und Nutzen dieses Architekturansatzes in den Mittelpunkt stellen.” (Website Springer) Der Beitrag von Oliver Bendel behandelt “Cloud Computing aus Sicht der Ethik”. “Zahlreiche Unternehmen transferieren Daten ihrer Kunden in die Cloud, oder diese werden selbst aktiv, nutzen spezielle Dienste und soziale Medien. Es stellen sich viele Fragen: Wird der Benutzer genügend informiert? Sind ihm alle Konsequenzen des Vorgangs klar? Was ist, wenn Inhalte als verdächtig angesehen und Informationen an Behörden weitergereicht werden? Wie können lebenswichtige und personenbezogene Daten geschützt werden? Der Beitrag stellt Probleme rund um Cloud Computing für Privatkunden aus Sicht des Verbraucherschutzes und der Informationsethik systematisch dar, mit Fokus auf Bild und Text. Aus der Unternehmensethik heraus werden Vorschläge für Anbieter unterbreitet.” (Abstract) Weitere Informationen und Bestellung über www.springer.com/de/book/9783658209667.

Abb.: Das Cover des Herausgeberbands (Foto: Springer)

KI ist hier, um zu bleiben

In der Automation & Robotics vom März 2018, einer Beilage im Manager Magazin, findet sich ein Beitrag von Jan Philipp Albrecht (innen- und justizpolitischer Sprecher der Grünen-Fraktion im Europäischen Parlament). Er schreibt: “Wir stehen an der Schwelle zu einer Ära, in der immer höher entwickelte Technologien eine neue industrielle Revolution entfesseln können. Künstliche Intelligenz ist allgegenwärtig, und sie ist hier, um zu bleiben.” Unter dem Stichwort “Simplexity” führt Prof. Dr. Andreas Dengel (DFKI) aus: “KI definiert die neue Arbeitsteilung von Mensch und Maschine”. Im Interview erklärt Oliver Bendel, was Maschinenethik ist und wie sie mit KI und Robotik zusammenhängt. Er ist gegen eine vorschnelle Regulierung in der Entwicklung. Wenn Regulierung stattfinden soll, dann in den Anwendungsgebieten. An anderer Stelle hatte der Informations- und Maschinenethiker eine Roboterquote für öffentliche Räume gefordert, zum einen wegen der Kollisionsgefahr (bei Transport- und Sicherheitsrobotern), zum anderen wegen der Gefahr der Überwachung (bei Servicerobotern aller Art). Das Interview kann hier heruntergeladen werden.

Abb.: KI ist hier, um zu bleiben

Im smarten Shuttle unterwegs

“Der automatisierte Verkehr fasziniert und irritiert. Die Meinungen gehen auseinander, auf den Plätzen, auf den Podien, in den Medien. Ich bin überzeugt, dass das autonome Auto nichts in den Innenstädten verloren hat. Zu viele Dinge, Lebewesen und Ereignisse, die es zu beurteilen hat, zu viele Situationen, in denen Kommunikation gefragt ist, ein Handzeichen, ein Blickkontakt. Der hoch- und vollautomatische bzw. autonome PKW gehört auf die Autobahn. Dort trägt er dazu bei, die Zahl der Unfälle zu reduzieren. Und gerät kaum in Situationen, in denen er moralische Urteile fällen und z.B. zwischen menschlichen Opfern entscheiden müsste.” (ICTkommunikation, 22. März 2018) In den Städten sollten nach der Meinung von Oliver Bendel keine autonomen Autos fahren, aber autonome Busse und Shuttles, mit geringer Geschwindigkeit, auf virtuellen Schienen bzw. auf speziellen Spuren. Der Gastbeitrag “Im smarten Shuttle unterwegs” des Informations- und Maschinenethikers für die ICTkommunikation ist am 22. März 2018 erschienen und kann über ictk.ch/inhalt/im-smarten-shuttle-unterwegs aufgerufen werden.

Abb.: Das SmartShuttle der PostAuto AG

Ein Ungeheuer namens Facebook

“Immer wieder hat Facebook Daten illegal genutzt und herausgegeben. Benutzer und Datenschützer haben das Unternehmen immer wieder erfolgreich zurückgedrängt. Aber es ist wie das Ungeheuer, dem man zwei Köpfe abschlägt und dem gleich vier neue Köpfe wachsen. Niemand scheint Anstoß daran zu nehmen, ein Akteur in einem offenbar illegalen Netzwerk zu sein. Bei Privatpersonen ist das befremdlich genug; aber dass tausende achtbare Unternehmen und Hochschulen auf der Plattform aktiv und auch noch stolz darauf sind, ist erstaunlich. Ein Teil der organisierten Kriminalität zu sein, ist nicht mehr nur in Italien oder in Russland selbstverständlich. Es ist auf der ganzen Welt verbreitet und chic. … Die Meldungen, dass Privatpersonen und Staatsdiener gegen die Unternehmen klagen, nehmen zu. Es sind Jurastudenten darunter, die sich profilieren wollen, und Benutzer, die ernsthaft um ihre Daten besorgt sind. Und Datenschützer verschiedener Länder. Vielleicht resultiert ja eine Massenbewegung daraus, und man kann eines Tages Facebook einen Daumen zeigen, der nach unten weist.” (Oliver Bendel, “Die Rache der Nerds”, 2012)

Abb.: Ein Ungeheuer namens Facebook

Was ist und will Roboterphilosophie?

Roboterphilosophie ist ein Teilgebiet der Philosophie, das sich mit Robotern sowie mit Erweiterungsoptionen wie künstlicher Intelligenz befasst. Dabei geht es vor allem (aber nicht nur) um mehr oder weniger autonome Serviceroboter, Pflege-, Transport- und Kampfroboter eingeschlossen. Beteiligt sind Disziplinen wie Erkenntnistheorie, Ontologie, Ästhetik und Ethik, darunter Roboterethik und Maschinenethik; die Technikphilosophie kann einerseits als übergeordnete Instanz verstanden werden, andererseits auch als gleichgestellte, insofern sie Roboter meist lediglich als technische Hilfsmittel und weniger als künstliche Mitgeschöpfe und Zeitgenossen begreift und die Roboterphilosophie mit ihrer spezifischen Perspektive neben sich braucht. In seinem Beitrag für das Wirtschaftslexikon von Springer Gabler erklärt Oliver Bendel, was Roboterphilosophie ist und will. Der Beitrag ist am 21. März 2018 erschienen und kann über wirtschaftslexikon.gabler.de/definition/roboterphilosophie-54555 aufgerufen werden.

Abb.: Was ist und will Roboterphilosophie?