Das ROBOPROF-Projekt

Im Frühjahr 2014 fragte Oliver Bendel bei der Gebert Rüf Stiftung nach, ob sie das ROBOPROF-Projekt finanzieren würde. „Dieses Projekt soll untersuchen, ob und wann ein relativ einfach, aber programmiertechnisch und allgemeintechnisch erweiterbarer Roboter als Avatar in der Lehre fungieren kann. Der Roboter kann die Studierenden ansprechen, sie beobachten, er kann den Beamer bedienen etc. Es spielen technische Fragen (Bewegung, Interaktion) ebenso eine Rolle wie Akzeptanzfragen. Und es spielen moralische Fragen eine Rolle: Behandelt man über den Avatar die Studierenden anders, und wird man als Professor anders behandelt? Im Projekt wird ein käuflicher, erweiterbarer Roboter eingesetzt. Es sollen Erkenntnisse für den Lehrbetrieb in der Schweiz resultieren.“ (Projektskizze) Die Stiftung lehnte ab, weil das Projekt nicht mehr in ihr Portfolio passe. Inzwischen werden Roboter an verschiedenen Orten als Lehrer und Assistenten eingesetzt, etwa in Schulen in Singapur. Auch Hiroshi Ishiguro nimmt seinen Geminoid in den Unterricht mit. Nun will die FHNW erste Erfahrungen in diesem Bereich sammeln und schreibt eine Teilzeitstelle aus. „Die Entwicklung und forschungs­basierte Erprobung von Lehr-/Lernszenarien, in denen Roboter in der Hoch­schul­lehre und Weiterbildung zum Einsatz kommen, wird im Zentrum Ihrer Auf­gaben stehen.“ (Stellenanzeige)

Abb.: Pepper wird gerne in der Lehre eingesetzt (Foto: Daimler und Benz Stiftung)

Virtuelle Assistenten

„Ein virtueller Assistent ist ein Dialogsystem, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Smartphone ebenso zu finden wie in Unterhaltungsgeräten und in Fahrzeugen.“ Mit diesen Worten beginnt ein am 15. Mai 2018 erschienener Beitrag von Oliver Bendel im Wirtschaftslexikon von Gabler Springer. Erwähnt werden virtuelle Assistenten bzw. Sprachassistenten wie Siri, Cortana, Google Assistant (auch im Zusammenhang mit Google Duplex) und Alexa. Am Ende heißt es: „Mit Systemen wie Google Duplex kehren sich die Verhältnisse in gewisser Hinsicht um. Man nimmt einen Anruf entgegen, kommuniziert wie gewohnt, hat aber vielleicht, ohne es zu wissen, einen Computer am Apparat, keinen Menschen. Für Chatbots wurde bereits früh vorgeschlagen, dass diese klarmachen sollen, dass sie keine Menschen sind. Möglich ist es zudem, die Stimme roboterhaft klingen zu lassen, sodass kaum Verwechslungsgefahr besteht. Dies sind Themen für Informationsethik, Roboterethik und Maschinenethik und allgemein Roboterphilosophie.“ (Gabler Wirtschaftslexikon) Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/virtueller-assistent-99509 aufgerufen werden.

Abb.: Wer ist dran?

Wenn Roboter wählen

Zur Bundestagswahl in Deutschland baten Zeitungen und Zeitschriften zur Online-Abstimmung. „Die Problematik der Online-Abstimmung ist insgesamt zur Zeit technisch nicht befriedigend gelöst, obgleich einige Anbieter wie der Kölner Stadtanzeiger doch einiges dazu investiert haben … Wie grotesk das werden kann, wenn unkontrollierte Abstimmungen durch Roboter, also durch Software-Mechanismen, unterlaufen werden … Wahlen.de hat es zum Glück natürlich nicht gelassen. Der Kontrollmechanismus zur Abstimmung wurde, nachdem die Attacke durch den automatisch wählenden Software-Roboter zunächst drei Tage unbemerkt blieb, verändert. Man konnte danach, wie schon erwähnt, bei wahlen.de nur noch einmal am Tag abstimmen (Meldung: „doppelte Stimmabgabe ist am selben Tag nicht möglich“). Am nächsten Tag konnte man neues Wahlschicksal spielen.“ Das Zitat stammt aus dem Buch „Die Mondlandung des Internet“ (UVK), das Rainer Kuhlen unter der Mitarbeit von Oliver Bendel geschrieben hat. Es ist vor 20 Jahren zur Bundestagswahl 1998 erschienen, was deutlich macht, dass die Probleme von damals mehr oder weniger die Probleme von heute sind.

Abb.: Wenn Roboter wählen

Reading Faces

Face recognition is the automated recognition of a face or the automated identification, measuring and description of features of a face. In the 21st century, it is increasingly attempted to connect to the pseudoscience of physiognomy, which has its origins in ancient times. From the appearance of persons, a conclusion is drawn to their inner self, and attempts are made to identify character traits, personality traits and temperament, or political and sexual orientation. Biometrics plays a role in this concept. It was founded in the eighteenth century, when physiognomy under the lead of Johann Caspar Lavater had its dubious climax. In the paper „The Uncanny Return of Physiognomy“, the basic principles of this topic are elaborated; selected projects from research and practice are presented and, from an ethical perspective, the possibilities of face recognition are subjected to fundamental critique in this context, including the above examples. Oliver Bendel presented his paper on 27 March 2018 at Stanford University („AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“, AAAI 2018 Spring Symposium Series). The entire volume can be downloaded via AAAI.

Fig.: Reading faces

Zehn Regeln für gute virtuelle Assistenten

2013 wurden für eine Maschine mit natürlichsprachlichen Fähigkeiten sieben Metaregeln entwickelt, an die sie sich halten sollte. Diese sind so aktuell wie nie zuvor, seit Google Duplex durch die Medien geistert und Entwickler wie Benutzer beschäftigt. Eine Regel des GOODBOT lautete, er solle dem Benutzer klarmachen, dass er eine Maschine ist, eine andere, er solle nicht lügen. Es folgte, ebenfalls im Kontext der Maschinenethik, das LIEBOT-Projekt (2016), mit dem Erkenntnisse zu Vertrauenswürdigkeit und Verlässlichkeit, auch in Bezug auf Quellen, verbunden waren. Momentan entwickelt Oliver Bendel den BESTBOT. Alle drei Maschinen wurden im Rahmen der AAAI Spring Symposia (2016 – 2018) an der Stanford University sowie auf der ISAIM 2018 in Fort Lauderdale vorgestellt, der LÜGENBOT auch auf Konferenzen in Krakau (2016) und München (2016). Vor dem Hintergrund der bisherigen Projekte und in Anbetracht der jüngsten Entwicklungen – Google Assistant bzw. Duplex wurde erwähnt, aber auch Siri und Alexa haben neuartige Fähigkeiten – verfasste Oliver Bendel zehn Regeln (oder Metaregeln), die eine Diskussionsgrundlage sein sollen, mit Blick auf (auch moralisch) gute virtuelle Assistenten und Chatbots (die sozusagen eine Selbstverpflichtung abgeben). Sie sind insgesamt nicht erschöpfend (so wird etwa nicht auf die Stimme eingegangen), und sie sind jeweils nicht immer ausreichend, aber sie bieten Leitplanken und einen Ausgangspunkt für Richtlinien. Speziell für Sprachassistenten bietet sich das Moralmenü (MOME) an.

Abb.: Zehn Regeln für gute Maschinen

Menschenähnlich aussehen und sprechen

„Dass es nur Kunst war, verdeckte die Kunst“, schrieb Ovid über die von Pygmalion geschaffene, menschenähnliche Elfenbeinskulptur, die dann von Aphrodite, in die er eigentlich verliebt war, zum Leben erweckt wurde. Galatea war sogar fruchtbar, anders als ihre Nachfolgerinnen, Liebespuppen wie Harmony und Sexroboter wie Roxxxy. Die natürliche Sprache ist beiden gegeben, und in den letzten Jahren hat man versucht, diese noch natürlicher wirken zu lassen. Oliver Bendel hat untersucht, wie man die Speech Synthesis Markup Language (SSML) zur Manipulation der synthetischen Stimme von Liebespuppen, Sexrobotern und allgemein Servicerobotern gebrauchen kann. Er schlug neue Tags, Attribute und Werte vor, die eine belegte Stimme und auch ein Seufzen und Stöhnen möglich machen. Amazon hat Alexa das Flüstern beigebracht, ebenfalls mit SSML. Google Assistant soll in Zukunft dazu dienen, in Restaurants und Frisörsalons anzurufen (das Projekt wird Duplex genannt). Damit kann man mit einer High-End-Technologie ganz normale Telefone auf der ganzen Welt bedienen und private Aufgaben automatisieren. Die Stimme klingt sehr lebensecht, und das Sprechen überhaupt, auch weil „Ähs“ und „Mmhs“ vorkommen, wie bei echten Menschen. In der Imperfektion könnte der Schlüssel zur Perfektion liegen. Ein Roboter, der für die Promotion von „Westworld“ geschaffen wurde, mit Unregelmäßigkeiten und Haaren im Gesicht, wirkt besonders authentisch, mehr als Harmony und Co. Dass es nur Kunst ist, wird die Kunst immer mehr und immer besser verdecken.

Abb.: Puppen beim Plantschen und Plaudern

Konferenz bei Heidelberg zu Pflegerobotern

„Pflegeroboter, so die Idee für die Zukunft, unterstützen oder ersetzen menschliche Pflegekräfte bzw. Betreuerinnen und Betreuer. Sie bringen und reichen Kranken und Alten benötigte Nahrungsmittel oder Medikamente, helfen ihnen beim Hinlegen und Aufrichten oder alarmieren den Notdienst. Beispiele für Prototypen mit solchen Fähigkeiten sind die Roboter Jaco, Cody, Robear, Twendy-One und Hobbit. Bei der Entwicklung maschineller Pflegesysteme sind derzeit vor allem Deutschland und Japan führend. Zu diesem aktuellen Thema fand der Ladenburger Diskurs ‚Pflegeroboter‘ statt, den der Informations- und Maschinenethiker Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz leitete.“ So beginnt der Beitrag auf den Seiten 26 und 27 im Jahresbericht 2017 der Daimler und Benz Stiftung, der im Frühjahr 2018 erschienen ist. Die Konferenz wurde vom 12. bis 13. September 2017 im Carl-Benz-Haus in Ladenburg bei Heidelberg durchgeführt. Bereits am 11. September traf man sich zum Abendessen. Der Jahresbericht kann hier heruntergeladen werden. Der Herausgeberband erscheint im Spätsommer 2018 bei Springer (Open Access).

Abb.: Vor dem Carl-Benz-Haus (Foto: Daimler und Benz Stiftung/Dorn)

Beitrag zu Privacy by Default

„Mit Privacy by Default soll durch entsprechende Voreinstellungen bei Diensten, Geräten und Systemen die Privatsphäre bewahrt und der Datenschutz sichergestellt werden. ‚Privacy‘ ist das englische Wort für Privatsphäre und Privatheit. Es wird auch mit Blick auf den Datenschutz verwendet. Der Besitzer bzw. Benutzer kann die Einstellungen in der Regel verändern und dadurch z.B. zusätzliche Funktionen freischalten, mit dem Risiko der Beeinträchtigung der Privatsphäre und der Preisgabe und Verarbeitung personenbezogener Daten.“ So beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler von Oliver Bendel, erschienen am 8. Mai 2018. Es wird der Bezug zu Privacy by Design und zur Datenschutz-Grundverordnung (DSGVO) ebenso hergestellt wie zur Informationsethik. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/privacy-default-99475 aufgerufen werden.

Abb.: Bei Überwachungskameras gibt es kein Privacy by Default

Beitrag zur DSGVO

Im Wirtschaftslexikon von Springer Gabler ist am 8. Mai 2018 ein Beitrag zur Datenschutz-Grundverordnung (DSGVO) erschienen. Er beginnt mit folgenden Worten: „Die Datenschutz-Grundverordnung (DSGVO) vereinheitlicht die Regeln zur Verarbeitung personenbezogener Daten durch Unternehmen, Behörden und Vereine, die innerhalb der Europäischen Union einen Sitz haben. Die englische Entsprechung ist ‚General Data Protection Regulation (GDPR)‘, die offizielle Bezeichnung ‚Verordnung des Europäischen Parlaments und des Rates zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG‘. Der Umgang mit Kunden- und Mitarbeiterdaten, Daten von Bürgern etc. wird im Zusammenhang mit dem Datenschutz in elf Kapiteln mit insgesamt 99 Artikeln geklärt.“ (Gabler Wirtschaftslexikon) Eingenommen wird auch die Perspektive der Informationsethik. Diese ist mit der Datenschutz-Grundverordnung über Begriffe wie „Recht auf Vergessenwerden“, „Informationsfreiheit“ und „informationelle Selbstbestimmung“ bzw. „informationelle Autonomie“ verbunden. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/datenschutz-grundverordnung-99476 aufgerufen werden.

Abb.: Die DSGVO hat Konsequenzen weit über die EU hinaus

Relaunch des Wirtschaftslexikons

Das Gabler Wirtschaftslexikon gilt laut Springer seit Jahrzehnten als Klassiker der Wirtschaftsliteratur. „Seit 2009 gibt es das Werk als frei zugängliches Online-Angebot mit erweitertem Nutzungsangebot. Mit mehr als 25.000 Stichworten steht mit dem Gabler Wirtschaftslexikon die größte deutschsprachige Auswahl an betriebswirtschaftlich-lexikalischem Know-how im Internet zur Verfügung – von über 200 ausgewiesenen Fachexperten geschrieben und kontinuierlich redaktionell geprüft. Springer Gabler stellt damit Expertenwissen online, das wissenschaftlich zitierfähig ist und sich vom wachsenden Angebot ungesicherten Wissens in Form von freien nicht weiter geprüften Inhalten im Internet unterscheidet.“ (Website Gabler Wirtschaftslexikon) Im Frühjahr 2018 erfolgte der visuelle und strukturelle Relaunch. Das Online-Nachschlagewerk wirkt nun aufgeräumter und moderner. Der derzeit am häufigsten aufgerufene Begriff ist „Digitalisierung“ von Prof. Dr. Oliver Bendel (in diesem Beitrag wird auch auf Informationsethik eingegangen), gefolgt von „Benchmarking“ (Prof. Dr. Klaus Wübbenhorst).

Abb.: Hitliste des Wirtschaftslexikons (Quelle: Springer)

Über Gespenster der künstlichen Intelligenz

Im Salzburger Nachtstudio auf Ö1 wird am 16. Mai 2018 die Sendung „Alexa lacht“ mit dem Untertitel „Maschinen und andere Gespenster der künstlichen Intelligenz“ ausgestrahlt. Aus der Beschreibung: „Die Differenz zwischen Mensch und Maschine ist längst kleiner geworden in unserem smarten Alltag. Maschinen, die immer selbständiger handeln und entscheiden, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder Sexroboter, als Überwachungs- und Kampfroboter in die menschliche Lebenswelt ein. Das erfordert Regeln im Umgang zwischen Mensch und Maschine sowie eine ethische Reflexion der Programmierung. Der Maschinenethiker Oliver Bendel, die Philosophin Janina Loh und die Informatikerin Joanna Bryson reflektieren diese Problematik in ihrer Forschungsarbeit. Was ist menschliche Projektion im Umgang mit Technologien, und wie ‚verhält‘ sich die Maschine dazu? Der Spuk von Sprachassistentin Alexa, die zuweilen gestört lacht, lässt sich beheben, aber Alexa wertet längst menschliche Gewohnheiten aus und steuert uns.“ (Website Ö1) Weitere Informationen über oe1.orf.at/programm/20180516/513712.

Abb.: Gespenster der künstlichen Intelligenz

Postdoc Working on Information Ethics

According to the website, the Health Ethics and Policy Lab is a multidisciplinary research group established in 2017 at the Department of Health Sciences and Technology at ETH Zurich. The work focuses on the ethical, legal, societal, and policy implications of artificial intelligence, precision medicine, biotechnology, and digital health. The Health Ethics and Policy Lab is now looking for a postdoctoral researcher to work with Prof. Prof. Dr. Effy Vayena and her team „on a research project examining the legal and ethical challenges related to data sharing in digital health“ (Website). „In particular, the project will explore the applicability of blockchain technology to medical data sharing and its impact on privacy and security. The research project is funded within the Personalized Health and Related Technologies (PHRT) scheme, a strategic focus area of the ETH Domain.“ (Website) More information and application via apply.refline.ch/845721/6202/pub/2/index.html.

Kopflose Roboter

„Die ersten Lieferroboter sind seit einiger Zeit im Einsatz, unter anderem auch hierzulande: Einige rollen …, andere fliegen … Sie haben aber gemeinsam, dass sie nicht in ein oberes Stockwerk liefern können. Das will das US-Unternehmen Agility Robotics ändern.“ Dies schreibt Werner Pluta am 3. Mai 2018 in Golem. Und weiter: „Agility Robotics hat einen Laufroboter entwickelt, der künftig wie ein menschlicher Bote die Pizza oder den Einkauf auch bis in eines der oberen Stockwerke bringen kann. Allerdings muss sich der Belieferte auf einen etwas merkwürdigen Anblick gefasst machen: Cassie, benannt nach dem Laufvogel Kasuar, … besteht nur aus Beinen – und erinnert so an die merkwürdigen Schilderungen aus dem Mittelalter von Acephalen, Menschen, die keinen Kopf haben und stattdessen das Gesicht auf dem Bauch tragen. Ein Lieferroboter ohne Arme macht sich jedoch nicht so gut. Die nächste Version … wird deshalb nicht nur Beine, sondern auch Arme haben.“ (Golem, 3. Mai 2018) Cassie löst ein Problem, das die kleinen, rollenden Paket- und Transportroboter von Starship Technologies haben: Er ist keine Stolperfalle. Dafür kann man mit ihm zusammenprallen wie mit dem K5 von Knightscope, wobei die Verletzungsgefahr, wenn Arme vorhanden sind, noch größer sein könnte. Wie bei jedem Serviceroboter dieser Art wird die Komplexität im öffentlichen Raum erhöht. Einen vielversprechenden Ansatz verfolgt man mit Transportdrohnen, die die Ware auf dem Dach eines Gebäudes ablegen. Dort kann der Empfänger sie abholen, ganz egal, in welchem Stockwerk er wohnt.

Abb.: Eine kopflose Schaufensterpuppe

Gutachten zu ethischen Standards für Big Data

Das Gutachten „Ethische Standards für Big Data und deren Begründung“ (Prof. Dr. Stefan Selke zusammen mit Dr. Peter Biniok, Dr. Johannes Achatz und Elisabeth Späth) ist „der Versuch, eine vorläufige Antwort auf die Frage zu geben, in welchem Umfang die gegenwärtige Debatte über Big Data von Bezügen auf ethische Standards geprägt ist“. „Damit wird zugleich die Frage gestellt, wie ethische Standards in Zukunft zur fairen Ausbalancierung zwischen starrer Regulation einerseits und totale Flexibilisierung andererseits von Nutzen sein könnten. Ethische Standards werden dabei in einer wissenssoziologischen Perspektive sowohl als implizite Begründungsmuster als auch als explizite kommunikative Gattung aufgefasst, deren Funktion sich u. a. darin begründet, Anschlussfähigkeit zwischen unterschiedlichen gesellschaftlichen Teilsystemen herzustellen und dauerhaft zu erhalten.“ (Gutachten Big Data) Als Expertinnen und Experten standen u.a. Prof. Dr. Oliver Bendel, Prof. Dr. Dirk Helbing, Prof. Dr. Petra Grimm, Yvonne Hofstetter, Prof. Dr. Viktor Mayer-Schönberger und Prof. Dr. Oliver Zöllner zur Verfügung. Das Gutachten wurde im Rahmen des ABIDA-Projekts mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) erstellt und kann hier heruntergeladen werden.

Abb.: Oliver Bendel bei einer Veranstaltung in Hamburg

Siri und die Mundart

Im Sommer 2012 erschien der Artikel „Siri ist hier.“, mit dem Untertitel „Der Sprachassistent von Apple in der Schweiz aus linguistischer und ethischer Sicht“. Mit Schweizerdeutsch kam Siri damals nicht zurecht. Oliver Bendel erklärte: „Es wäre sicherlich nicht ganz einfach, dem Sprachassistenten auf der Ebene der Aussprache und Betonung die schweizerischen Gepflogenheiten nahezubringen. Er könnte dazulernen; aber dazu müsste er in der Lage sein, semantische Beziehungen zu knüpfen (und damit zu realisieren, dass das Chuchichäschtli ein kleiner Küchenschrank ist). Wenn der Benutzer in der Schweiz nicht weiß, dass man ‚Serie‘ auch anders aussprechen kann, kann Siri allenfalls eine Menge von mehr oder weniger sinnvollen Alternativen – oder kluge Rückfragen – unterbreiten. Ob man mit diesen immer etwas anfangen kann, sei dahingestellt. Auch auf der lexikalischen Ebene weiß nicht jeder Benutzer, dass Alternativen existieren. Nicht in allen Fällen werden Helvetismen – dies haben mir viele Gespräche gezeigt – als solche erkannt.“ Inzwischen ist man weiter: „Zwei Start-ups aus dem Wallis, Keylemon und recapp, haben zur Entwicklung der neuen Swisscom TV-Box beigetragen, die erstmalig Spracherkennung auch für Deutschschweizer Dialekte bietet.“ (Website recapp) Siri aber beherrscht nach wie vor keine Mundart. Dies hat erst kürzlich die Handelszeitung thematisiert, wobei sie auch erwähnt, dass man das Problem heute mit Lösungen von Firmen wie recapp angehen könnte.

Abb.: Versteht mich Siri?

The Chatbot that Uses Face Recognition

Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. To achieve this, it will use approaches of face recognition. The paper „From GOODBOT to BESTBOT“ describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel presented his paper on 27 March 2018 at Stanford University („AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“, AAAI 2018 Spring Symposium Series). The entire volume can be downloaded via AAAI.

Fig.: The BESTBOT

11. Ulmer Robotertag

Der „11. Ulmer Robotertag“ beleuchtet „Roboter in der digitalen Transformation“. „Als digitale Transformation oder digitaler Wandel wird ein auf digitalen Technologien basierender Veränderungsprozess der Gesellschaft bezeichnet, welcher starken Einfluss auf die industrielle Produktion nimmt.“ (Flyer 11. Ulmer Robotertag) Verbunden mit dem digitalen Wandel seien große Chancen wie zum Beispiel effizientere Produktionsprozesse und Abläufe, aber auch neue Herausforderungen, beispielsweise durch den notwendigen radikalen Strukturwandel. „Als eine Schlüsseltechnologie für die digitale Produktionstransformation werden hierbei Industrie- und Serviceroboter verstanden. Um das Verständnis wie auch den Transfer in der Region zu stärken, widmet sich der diesjährige 11. Ulmer Robotertag diesem Thema. Die Veranstaltung wird in bewährter Weise in Zusammenarbeit von Hochschule Ulm und Mitsubishi Electric Europe durchgeführt.“ (Flyer 11. Ulmer Robotertag) Dr. Alexander Hildebrandt (Festo AG & Co. KG) widmet sich der „Druckluft als Antriebsmedium für die Robotik“, Prof. Dr. Christian Schlegel (Hochschule Ulm) der „Servicerobotik in der Intralogistik“, um nur zwei Vorträge herauszugreifen. Im vergangenen Jahr hatte Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) bei der Jubiläumsveranstaltung zum Thema „Kollege und Kollegin Roboter – schöne neue Welt!“ vorgetragen. Weitere Informationen über de3a.mitsubishielectric.com/UlmerRobotertag.

Abb.: Der Münsterplatz

Wo fängt die Arbeit an, wo hört sie auf?

In der Neuen Osnabrücker Zeitung ist am 25. April 2018 der Artikel „Robotersteuer: Ökonomen sind skeptisch“ erschienen. Im Teaser heißt es: „DHL-Chef Frank Appel und Microsoft-Gründer Bill Gates zählen zu den Befürwortern dieser Idee. Doch Ökonomen sind skeptisch.“ Thomas Straubhaar von der Universität Hamburg wird mit den Worten zitiert: „Der Roboter ist nicht der Feind des Menschen, sondern sein Freund.“ „Die Maschine helfe den Arbeitnehmern, produktiver zu werden.» (NOZ, 25. April 2018) Der Wirtschaftsinformatiker Oliver Bendel von der Fachhochschule Nordwestschweiz gibt laut NOZ zu bedenken, dass bei einer Robotersteuer schwierige Unterscheidungen zu treffen sein werden: „Sprechen wir nur von Hardware- oder auch von Softwarerobotern? Reden wir nur über Fabrikarbeit?“ „Problematisch sei außerdem, dass moderne Roboter oft vernetzte Systeme seien.“ Und: „Sogenannte Kooperations- und Kollaborationsroboter arbeiteten ganz eng mit Menschen zusammen. Das sei ein Problem für die Berechnung einer Steuer: Wo fängt die Arbeit des Roboters an, wo hört sie auf?“ (NOZ, 25. April 2018) Der Artikel kann über www.noz.de/deutschland-welt/wirtschaft/artikel/1198722/robotersteuer-oekonomen-sind-skeptisch aufgerufen werden.

Abb.: Ein Roboter in der Fabrik

Können Roboter Gefühle entwickeln?

Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.“ Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.

Abb.: Robben haben Gefühle, Roboter nicht

Ethik und KI in Kalifornien

Die Technical Reports des AAAI 2018 Spring Symposium „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ sind Ende April 2018 erschienen. Enthalten sind u.a. „From GOODBOT to BESTBOT“ (Oliver Bendel), „The Uncanny Return of Physiognomy“ (Oliver Bendel), „The Heart of the Matter: Patient Autonomy as a Model for the Wellbeing of Technology Users“ (Emanuelle Burton et al.), „Trustworthiness and Safety for Intelligent Ethical Logical Agents via Interval Temporal Logic and Runtime Self-Checking“ (Stefania Costantin et al.), „Ethical Considerations for AI Researchers“ (Kyle Dent), „Interactive Agent that Understands the User“ (Piotr Gmytrasiewicz et al.), „Toward Beneficial Human-Level AI … and Beyond“ (Philip C. Jackson Jr.), „Towards Provably Moral AI Agents in Bottom-Up Learning Frameworks“ (Nolan P. Shaw et al.), „An Architecture for a Military AI System with Ethical Rules“ (Yetian Wang et al.) und „Architecting a Human-Like Emotion-Driven Conscious Moral Mind for Value Alignment and AGI Safety“ (Mark R. Waser et al.). Das Symposium fand vom 26. bis zum 28. März 2018 an der Stanford University statt. Für die Maschinenethik wie auch für Informationsethik und Roboterethik ist die Konferenzreihe seit Jahren eine der wichtigsten Plattformen weltweit.

Abb.: Eine Skulptur an der Stanford University

Der Blick der Schweiz auf die Maschinenethik

In seiner Keynote auf der „Minds Mastering Machines“ in Köln am 25. April 2018 hat Oliver Bendel die Teilnehmerinnen und Teilnehmer auf eine Reise mitgenommen, u.a. nach Prag, Krakau, Stanford, Fort Lauderdale und Wien. Auf Konferenzen, die dort stattfanden, präsentierte er in den letzten Jahren Konzepte und Artefakte der Maschinenethik. In Prag waren es das Roboterauto-Problem und die dazugehörige quantifizierende und qualifizierende Formel, die 2012 entwickelt wurden, in Stanford ab 2016 ein tierfreundliches Auto, ein tierfreundlicher Staubsaugerroboter und gute und böse Chatbots. In Krakau diskutierte er mit Ron Arkin vom Georgia Tech auf dem Podium, ob man betrügerische Roboter bauen darf. Eine Teilnehmerin der Konferenz, Shirin Glander, protokollierte in Köln mit und twitterte das Ergebnis über @ShirinGlander … Sie hat in ihrer Zeichnung sozusagen den Blick der Schweiz auf die Maschinenethik eingefangen. „Die Minds Mastering Machines wendet sich mit ihrem technischen Fokus an Softwareentwickler und -architekten, Data Scientists, Projekt- und Teamleiter sowie Forscher.“ (Website MMM)

Abb.: Die Zeichnung von Shirin Glander

Über die Schönheit weiblicher Roboter

Die Hersteller humanoider Roboter ahmen gerne Frauen nach. Es gibt mehrere Gründe dafür, und manche hat auch Hiroshi Ishiguro genannt, der in Wien bei der Konferenz „Robophilosophy“ neben Joanna Bryson und Oliver Bendel eine Keynote gegeben hat. Frauen wirken, so eine Annahme, vertrauenswürdiger und anziehender auf uns als Männer. Gerade Kinder erschrecken nicht vor ihnen, selbst wenn es gar keine Menschen sind. Eine andere Annahme ist, dass Frauen und ihre künstlichen Ebenbilder vieles gemeinsam haben, weil Frauen selbst künstliche Elemente in sich und auf sich tragen. Die meisten Frauen schminken sich, überdecken Unreinheiten und Farbveränderungen, entfernen Haare, manche korrigieren scheinbare Mängel und Fehler mit Hilfe von Einspritzungen und Schönheitsoperationen. Tatsächlich sehen manche Frauen, die viel an sich gemacht haben und haben machen lassen, ein wenig aus wie Roboter, und genau das ist günstig für die Hersteller. Das Resultat sind Maschinen wie Sophia und Erica (die von Ishiguro geschaffen wurde). Sie sind künstliche Geschöpfe, gestaltet nach der künstlichen Schönheit der Frau. Dass es auch anders geht, zeigt ein männlicher humanoider Roboter, der Werbung für „Westworld“ macht. Mit viel Akribie hat man ihm Haare verpasst, auf den Armen, im Gesicht, kleine Warzen und Male. Gerade dadurch sieht er besonders real (und interessant) aus. Es wäre an der Zeit, einen weiblichen Roboter zu schaffen, der sich an der natürlichen Schönheit der Frau orientiert. Nicht, um das eine oder das andere Verhalten zu kritisieren, sondern um Stereotype aufzubrechen. Künstlerisch und technisch möglich ist das allemal. Ishiguros Geminoid ist übrigens ein eigener Fall. Er orientiert sich an der künstlichen Schönheit des Mannes.

Abb.: Roboter können Stereotype festigen und aufbrechen