KI in der Serengeti

“Forscher mehrerer US-Universitäten haben ein System entwickelt, mit dem sich der Bestand von Wildtieren einfach, schnell und zuverlässig überwachen lässt, ohne diese in ihrer natürlichen Umgebung zu stören. Hierfür verknüpfen die Experten Künstliche Intelligenz (KI) mit Ansätzen des maschinellen Lernens, um Löwen, Elefanten und Co in der Serengeti ohne menschliches Zutun über Fotos und Videos identifizieren, zählen und beschreiben zu können. Die Methode erreichte eine Genauigkeit von 96,6 Prozent und konnte 99,3 Prozent der Bilder auswerten.” (ICTkommunikation, 7. Juni 2018) Es gab in den letzten Jahren immer wieder Bestrebungen, eine Disziplin der Tier-Computer-Interaktion bzw. der Tier-Maschine-Interaktion zu begründen, um das Verhältnis zwischen Tier und Maschine so zu erforschen und zu gestalten, dass diese in autonomer Weise betrieben und jenem in der Wildnis (oder in anderer Umgebung) – ohne Störung oder Verletzung – geholfen werden kann. Das genannte Projekt kann in diesem Kontext gesehen werden. Der Artikel in der ICTkommunikation kann hier aufgerufen werden.

Abb.: Ein Elefant in der Serengeti

Menschen müssen Cobots nicht fürchten

In der Netzwoche 10/2018 findet sich ein ganzseitiges Interview mit Oliver Bendel zu Kooperations- und Kollaborationsrobotern, auch Co-Robots oder Cobots genannt. Der Informations- und Maschinenethiker hält die Teams oder Tandems aus Mensch und Maschine für nützlich und hilfreich. Mensch und Maschine spielen jeweils ihre Stärken aus. Der Mensch wird entlastet. Ein Problem könnte in Zukunft allerdings die Überwachung sein. Die Maschine kommt uns sehr nahe, und mit Hilfe ihrer Sensoren und ihrer Software könnte sie uns ausspionieren. Dies hat Oliver Bendel in einem anderen Interview, mit der SonntagsZeitung, betont. Im Moment überwiegen für ihn klar die Vorteile. Interessant findet er zudem, dass Kooperations- und Kollaborationsroboter nicht nur in Produktion und Logistik, sondern auch in Pflege und Therapie eingesetzt werden. Damit schlagen sie eine Brücke zwischen Industrie- und Servicerobotern. Das Interview kann mit freundlicher Genehmigung der Zeitschrift als PDF hier heruntergeladen oder auch online gelesen werden.

Abb.: Hier wird die Maschine noch bedient

Mensch und Maschine kommen sich nahe

In der Titelgeschichte der Netzwoche 10/2018 geht es um Kooperations- und Kollaborationsroboter, auch Co-Robots oder Cobots genannt. Zu Wort kommen Steven Wyatt, Head of Marketing & Sales bei ABB Robotics, und Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW. Kooperations- und Kollaborationsroboter sind moderne Industrieroboter, die mit uns Schritt für Schritt an einem gemeinsamen Ziel (Kooperationsroboter) bzw. Hand in Hand an einer gemeinsamen Aufgabe arbeiten, wobei wiederum ein bestimmtes Ziel gegeben ist (Kollaborationsroboter). Sie nutzen dabei ihre mechanischen und sensorischen Fähigkeiten und treffen Entscheidungen mit Blick auf Produkte und Prozesse im Unternehmen bzw. in der Einrichtung. Mensch und Maschine kommen sich in der Produktion und in der Logistik inzwischen also unter Umständen sehr nahe. Sie sind dabei in der Lage, ihre jeweiligen Stärken auszuspielen. Zudem entlastet der Co-Robot den Menschen. Der Artikel mit dem Titel “Cobots: Roboter und Menschen arbeiten Hand in Hand” kann mit freundlicher Genehmigung der Netzwoche als PDF hier heruntergeladen oder auch online gelesen werden.

Abb.: Auch hier kommen sich Mensch und Maschine nahe

Sex Robots are Coming

“Sex robots are coming, but the argument that they could bring health benefits, including offering paedophiles a ‘safe’ outlet for their sexual desires, is not based on evidence, say researchers. The market for anthropomorphic dolls with a range of orifices for sexual pleasure – the majority of which are female in form, and often boast large breasts, tiny waists and sultry looks – is on the rise, with such dummies selling for thousands of pounds a piece.” (Guardian, 5 June 2018) These are the initial words of an article in the well-known British daily newspaper Guardian, published on 5 June 2018. It quotes Susan Bewley, professor of women’s health at Kings College London, and Oliver Bendel, professor at the School of Business FHNW. Oliver Bendel is not in favor of a ban on the development of sex robots and love dolls. However, he can imagine that the area of application could be limited. He calls for empirical research in the field. The article can be accessed via www.theguardian.com/science/2018/jun/04/claims-about-social-benefits-of-sex-robots-greatly-overstated-say-experts.

Fig.: A love doll

Wenn der Mensch zur Maschine wird

“Ein Chip unter der Haut kann heute Haustüren öffnen oder die Visitenkarte speichern. In Zukunft soll man mit ihm bezahlen oder sich sogar direkt mit dem Internet verbinden können. Eine Technologie mit vielen Chancen – aber mit welchen Risiken?” So fängt die Beschreibung einer Sendung von Lionel Mattmüller an, die am 30. Mai 2018 ab 9 Uhr auf SRF Kultur (Kontext) ausgestrahlt wird. Sie trägt den Titel “Cyborg – wenn der Mensch zur Maschine wird”. Und weiter: “Intelligente Prothesen, künstliche Hände – sie erleichtern Menschen mit einer Behinderung oder Krankheit das Leben. Aber die Technik geht weiter: Immer häufiger ergänzen auch gesunde Menschen ihren Körper mit Technik, beispielweise mit einem Chip-Implantat. Der Mensch vollzieht ein Upgrade an sich selbst. ‘Kontext’ beleuchtet dieses Phänomen und fragt auch: Brauchen wir das?” (Website SRF) “Im Studio diskutiert Moderator Bernard Senn mit Oliver Bendel, Philosoph und Dozent an der Fachhochschule Nordwestschweiz, und mit Jannes Jegminat, Neuroinformatiker.” (Website SRF)

Abb.: Wenn der Mensch zur Maschine wird

Angela Merkel trifft KI-Experten

Die Deutsche Welle war Ende Mai 2018 im Gespräch mit Oliver Bendel. Anlass war ein Treffen zwischen Angela Merkel und Experten für Künstliche Intelligenz. Der Informations- und Maschinenethiker empfiehlt eine Unterscheidung zwischen Forschung und Entwicklung auf der einen Seite und Anwendung auf der anderen. Er ist für die Freiheit der Forschung. Für ihn endet sie erst da, wo die Freiheit und Unversehrtheit von anderen beginnt, von Menschen und Tieren. Dagegen muss man nach seiner Ansicht die eine oder andere Anwendung von KI bereits jetzt einschränken, etwa dann, wenn Massenüberwachung stattfindet. Die Deutsche Welle über sich selbst auf ihrer Website: “Die Deutsche Welle (DW) ist der Auslandssender Deutschlands. In journalistischer Unabhängigkeit vermitteln wir ein umfassendes Deutschlandbild, stellen weltweite Ereignisse und Entwicklungen aus europäischer Perspektive dar, greifen deutsche und andere Sichtweisen auf. So fördern wir das Verständnis zwischen den Kulturen und Völkern. Zugleich schaffen wir einen Zugang zur deutschen Sprache.” (Website Deutsche Welle) Das Interview kann über www.dw.com/de/jetzt-machen-wir-gro%C3%9Fartige-spr%C3%BCnge/a-43964092 aufgerufen werden.

Abb.: Das Bundeskanzleramt

Alexa verschickt Privatgespräch

“Amazon spricht von einer ‘unwahrscheinlichen’ Verkettung von Ereignissen: Ein Paar aus den USA berichtet, ihr Alexa-Lautsprecher habe ein Gespräch in seiner Wohnung aufgenommen und dann ungefragt an einen Kontakt im Adressbuch verschickt.” (SPON, 25. Mai 2018) In Wirklichkeit ist diese Verkettung von Ereignissen gar nicht so unwahrscheinlich. Es fängt an beim Codewort. Oliver Bendel hat 2015 in seinem Artikel “Der kleine Lauschangriff: Auditive Systeme aus Sicht der Ethik” für Telepolis geschrieben: “Das Codewort ist der nicht ganz ungebräuchliche Mädchenname ‘Alexa’.” Dass man das System versehentlich aktivieren kann, weil man diesen Namen (oder ein ähnliches Wort) sagt, war jederzeit klar. Was dann kam, hat man schon bei verschiedenen Konferenzen beobachtet. Wenn der Redner dort Alexa oder Google Assistant erwähnt, setzen sich im Zuschauerraum mehrere Smartphones in Betrieb. Die Assistenten werden durch die Begriffe aufgeweckt und werten die Rede laufend aus. Dann beginnen sie selbst zu sprechen. Und warten auf Aussagen, die sie als Anweisungen verstehen. Es kann sich alles Mögliche daraus ergeben. Alexa hat eben ein Privatgespräch aufgezeichnet und verschickt. Zum Glück ging es nur um “Holzfußböden” (SPON, 25. Mai 2018).

Abb.: Gespräche konnte man schon immer belauschen

Handbuch zur Maschinenethik erscheint

Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an Beiträgen für das “Handbuch Maschinenethik” von Springer. Ende 2018 soll das gedruckte Werk erscheinen. Herausgeber ist der Informations- und Maschinenethiker und Roboterphilosoph Oliver Bendel. Die ersten Beiträge wurden im Frühjahr 2018 in elektronischer Form publiziert. Mit dabei sind etwa Luís Moniz Pereira, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag der Stuttgarter Philosophin Catrin Misselhorn, die ebenfalls einen hervorragenden Ruf in der Disziplin hat, kommt in wenigen Tagen heraus. In ein paar Monaten folgen Julian Nida-Rümelin und Eric Hilgendorf, um nur zwei weitere Namen zu nennen. Der Philosoph war einst Kulturstaatsminister, und der Roboterrechtler fehlt bei kaum einer Debatte über autonome Autos und künstliche Intelligenz. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 … Oliver Bendel wird selbst mit sechs Beiträgen vertreten sein, vor allem zu Artefakten der Maschinenethik, also zu konkreten Umsetzungen. Er hat sich in mehreren Büchern und in über 100 Artikeln und Buchbeiträgen der Maschinenethik und den moralischen Maschinen gewidmet.

Abb.: Was ist Maschinenethik?

Drittes Meeting der Audi-KI-Initiative

“Künstliche Intelligenz (KI) wird unsere Mobilität, unsere Arbeitswelt und unser Leben substanziell verändern.” (Website Beyond) So beginnt ein Text auf der Website zur Beyond-Initiative von Audi, die von Rupert Stadler ausgeht. Das Ziel sei es, dass KI zum Wohl der Gesellschaft eingesetzt wird. “Im Fokus stehen die ethischen, rechtlichen und gesellschaftlichen Aspekte beim autonomen Fahren und die Zukunft der Arbeit im KI-Zeitalter.” (Website Beyond) Man hat “ein interdisziplinäres Netzwerk aus internationalen KI-Experten aufgebaut”. “Philosophen und Psychologen treffen auf Software-Ingenieure, Start-Up-Unternehmer und Rechtsexperten.” (Website Beyond) Bei Audi zeigt man sich überzeugt: Um die “KI-Transformation” (Website Beyond) zu gestalten, müssen Wirtschaft, Wissenschaft, Politik und Gesellschaft zusammenspielen. Teil des Netzwerks sind u.a. Luciano Floridi, Kate Darling, Iyad Rahwan, Walter Brenner, Wendell Wallach und Oliver Bendel. Das nächste Treffen mit Rupert Stadler findet am 10. Juli 2018 statt. Nachtrag vom 26. Juni 2018: Wegen der Verhaftung des Vorstandsvorsitzenden wurde die Beyond-Initiative-Konferenz verschoben.

Abb.: KI und philosophische Ethik haben nichts mit Göttern zu tun

 

Google und das Böse

Wie Golem und Gizmodo melden, hat Google im Frühjahr 2018 den Satz “Don’t be evil” aus seinem Verhaltenskodex entfernt. Das Motto war von Anfang an umstritten. Es klingt zunächst einmal pathetisch und naiv. Zudem kollidiert es mit der gelebten Praxis. Google hat immer wieder systematisch Recht gebrochen und moralische Standards nicht eingehalten, etwa im Zusammenhang mit seiner Suchmaschine, mit seinem E-Mail-Dienst, mit Google Street View und Google Books. Das Unternehmen hat Persönlichkeits- und Grundrechte missachtet und ist mit einer gut gefüllten Kriegskasse gegen Gegner vorgegangen. Zugleich wurden wertvolle Projekte wie Google Arts & Culture (vormals Google Art Project) lanciert, die Menschen auf der ganzen Welt den virtuellen Zugang zu Museen und zur Kunst ermöglichen. Anfang April 2018 protestierten Mitarbeiter gegen das Militärprojekt Maven. Die Streitfrage ist, ob die im Unternehmen entwickelte künstliche Intelligenz für militärische Zwecke verwendet werden soll. In ihrem offenen Brief beziehen sich die Verfasser auch auf das Motto ”Don’t be evil”. Also auf ein Motto, das es nun nicht mehr gibt.

Abb.: Googles böser Blick?

Co-Robots in der Moral

Die Konferenz “Smarte Maschinen im Einsatz – Künstliche Intelligenz in der Produktion” fand am 15. Mai 2018 am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart statt. Schirmherrin war Dr. Nicole Hoffmeister-Kraut MdL (Ministerin für Wirtschaft, Arbeit und Wohnungsbau des Landes Baden-Württemberg). Prof. Dr. Oliver Bendel bildete mit seinem Vortrag über “Co-Robots aus Sicht von Informations- und Maschinenethik” den Schlusspunkt der Veranstaltung. Der schweizerischen SonntagsZeitung, deren Wissenschaftsredakteur angereist war, stand er Rede und Antwort. Das Interview wurde am 20. Mai 2018 als zentraler Bestandteil eines Einseiters veröffentlicht, der hier heruntergeladen werden kann. Vor allem geht es um Co-Robots aus Sicht der Ethik. Am Ende wird auch Kapitalismuskritik geäußert. Oliver Bendel ist für eine Reichensteuer und für ein bedingungsloses Grundeinkommen. Die Robotersteuer muss nach seiner Ansicht diskutiert werden, hat aber mehr Nach- als Vorteile.

Abb.: Beitrag in der SonntagsZeitung

Das Moralmenü

Im Kontext des LADYBIRD-Projekts (2014/2017) wurde ein Menü vorgeschlagen, mit welchem der Benutzer die Moral des Staubsaugerroboters einstellen kann. Dieser verschont, wie der Name andeutet, Marienkäfer. Auch Spinnen sollte er am Leben lassen. Wer aber zum Beispiel partout bestimmte Insekten einsaugen lassen will, könnte dies über ein Menü festlegen. Wichtig ist, dass LADYBIRD insgesamt tierfreundlich bleibt und sich nicht ins Gegenteil verkehrt (und Marienkäfer sind auf jeden Fall tabu). Über das Menü wird eine Stellvertretermoral entwickelt. Der Staubsaugerroboter macht das, was der Besitzer auch machen würde. Andere Maschinen wie Sprachassistenten bzw. virtuelle Assistenten haben in der Regel keine grundsätzliche moralische Ausrichtung, eignen sich aber ebenso für den Einsatz eines Moralmenüs. Google Assistant soll in Zukunft mit Hilfe der Audiofunktion alle möglichen Reservierungen vornehmen (das Projekt wird Duplex genannt). Damit automatisiert er Vorgänge, die privaten und sozialen Charakter haben. Viele Benutzer werden es schätzen, wenn der Telefonassistent die eigenen Wertvorstellungen vertritt, da er ja in ihrem Namen bzw. Auftrag spricht. Die Designstudie MOME stellt ein Moralmenü beispielhaft für virtuelle Assistenten dieser Art vor. Die erste Option lautet: “Ich sage, dass ich eine Maschine bin.” Eine solche Funktion war schon beim GOODBOT von 2013, einem moralisch adäquat agierenden und reagierenden Chatbot, umgesetzt.

Abb.: Das Moralmenü

Die Mängelmaschine

“Die Mängelmaschine” ist der Titel eines Beitrags auf Ö1, ausgestrahlt am 14. Mai 2018. Zu Wort kommen Hiroshi Ishiguro, Mark Coeckelbergh, Janina Loh und Oliver Bendel. Aus der Beschreibung: Der japanische Robotiker hat einen Doppelgänger geschaffen: “Der Roboter Geminoid sieht genauso aus wie sein Schöpfer – und vertritt ihn bisweilen sogar bei Vorlesungen. Für Ishiguro ist sein künstlicher Klon eine Person, eine nicht ganz perfekte und liebenswerte Kopie seiner selbst. Aber die Frage ist für ihn nicht besonders wichtig.” Denn, so wird Ishiguro zitiert: “Warum müssen wir zwischen Menschen und Maschinen unterscheiden? Der Mensch ist ein Tier, das sich der Technologie bedient. Ohne Maschinen wären wir bloß Affen – und unfähig in dieser Welt zu überleben.” (Website Ö1) Es gibt viele Gründe, zwischen Menschen und Maschinen zu unterscheiden. Einer davon: Während wir empfinden und leiden und glücklich sind, tun die Maschinen dies nicht. Und das ist eine gewaltige Differenz mit gewaltigen Implikationen: Wir müssen Menschen und Maschinen völlig unterschiedlich behandeln. Man kann von einem Mangel sprechen, den auch der Zwilling von Ishiguro aufweist: “Forscher/innen aus dem Westen … halten Geminoid für nicht mehr als eine aufwändig gestaltete Puppe.” (Website Ö1)

Abb.: Hiroshi Ishiguro im Februar 2018 in Wien

Das ROBOPROF-Projekt

Im Frühjahr 2014 fragte Oliver Bendel bei der Gebert Rüf Stiftung nach, ob sie das ROBOPROF-Projekt finanzieren würde. “Dieses Projekt soll untersuchen, ob und wann ein relativ einfach, aber programmiertechnisch und allgemeintechnisch erweiterbarer Roboter als Avatar in der Lehre fungieren kann. Der Roboter kann die Studierenden ansprechen, sie beobachten, er kann den Beamer bedienen etc. Es spielen technische Fragen (Bewegung, Interaktion) ebenso eine Rolle wie Akzeptanzfragen. Und es spielen moralische Fragen eine Rolle: Behandelt man über den Avatar die Studierenden anders, und wird man als Professor anders behandelt? Im Projekt wird ein käuflicher, erweiterbarer Roboter eingesetzt. Es sollen Erkenntnisse für den Lehrbetrieb in der Schweiz resultieren.” (Projektskizze) Die Stiftung lehnte ab, weil das Projekt nicht mehr in ihr Portfolio passe. Inzwischen werden Roboter an verschiedenen Orten als Lehrer und Assistenten eingesetzt, etwa in Schulen in Singapur. Auch Hiroshi Ishiguro nimmt seinen Geminoid in den Unterricht mit. Nun will die FHNW erste Erfahrungen in diesem Bereich sammeln und schreibt eine Teilzeitstelle aus. “Die Entwicklung und forschungs­basierte Erprobung von Lehr-/Lernszenarien, in denen Roboter in der Hoch­schul­lehre und Weiterbildung zum Einsatz kommen, wird im Zentrum Ihrer Auf­gaben stehen.” (Stellenanzeige)

Virtuelle Assistenten

“Ein virtueller Assistent ist ein Dialogsystem, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Smartphone ebenso zu finden wie in Unterhaltungsgeräten und in Fahrzeugen.” Mit diesen Worten beginnt ein am 15. Mai 2018 erschienener Beitrag von Oliver Bendel im Wirtschaftslexikon von Gabler Springer. Erwähnt werden virtuelle Assistenten bzw. Sprachassistenten wie Siri, Cortana, Google Assistant (auch im Zusammenhang mit Google Duplex) und Alexa. Am Ende heißt es: “Mit Systemen wie Google Duplex kehren sich die Verhältnisse in gewisser Hinsicht um. Man nimmt einen Anruf entgegen, kommuniziert wie gewohnt, hat aber vielleicht, ohne es zu wissen, einen Computer am Apparat, keinen Menschen. Für Chatbots wurde bereits früh vorgeschlagen, dass diese klarmachen sollen, dass sie keine Menschen sind. Möglich ist es zudem, die Stimme roboterhaft klingen zu lassen, sodass kaum Verwechslungsgefahr besteht. Dies sind Themen für Informationsethik, Roboterethik und Maschinenethik und allgemein Roboterphilosophie.” (Gabler Wirtschaftslexikon) Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/virtueller-assistent-99509 aufgerufen werden.

Abb.: Wer ist dran?

Wenn Roboter wählen

Zur Bundestagswahl in Deutschland baten Zeitungen und Zeitschriften zur Online-Abstimmung. “Die Problematik der Online-Abstimmung ist insgesamt zur Zeit technisch nicht befriedigend gelöst, obgleich einige Anbieter wie der Kölner Stadtanzeiger doch einiges dazu investiert haben … Wie grotesk das werden kann, wenn unkontrollierte Abstimmungen durch Roboter, also durch Software-Mechanismen, unterlaufen werden … Wahlen.de hat es zum Glück natürlich nicht gelassen. Der Kontrollmechanismus zur Abstimmung wurde, nachdem die Attacke durch den automatisch wählenden Software-Roboter zunächst drei Tage unbemerkt blieb, verändert. Man konnte danach, wie schon erwähnt, bei wahlen.de nur noch einmal am Tag abstimmen (Meldung: “doppelte Stimmabgabe ist am selben Tag nicht möglich”). Am nächsten Tag konnte man neues Wahlschicksal spielen.” Das Zitat stammt aus dem Buch “Die Mondlandung des Internet” (UVK), das Rainer Kuhlen unter der Mitarbeit von Oliver Bendel geschrieben hat. Es ist vor 20 Jahren zur Bundestagswahl 1998 erschienen, was deutlich macht, dass die Probleme von damals mehr oder weniger die Probleme von heute sind.

Abb.: Wenn Roboter wählen

Reading Faces

Face recognition is the automated recognition of a face or the automated identification, measuring and description of features of a face. In the 21st century, it is increasingly attempted to connect to the pseudoscience of physiognomy, which has its origins in ancient times. From the appearance of persons, a conclusion is drawn to their inner self, and attempts are made to identify character traits, personality traits and temperament, or political and sexual orientation. Biometrics plays a role in this concept. It was founded in the eighteenth century, when physiognomy under the lead of Johann Caspar Lavater had its dubious climax. In the paper “The Uncanny Return of Physiognomy”, the basic principles of this topic are elaborated; selected projects from research and practice are presented and, from an ethical perspective, the possibilities of face recognition are subjected to fundamental critique in this context, including the above examples. Oliver Bendel presented his paper on 27 March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series). The PDF is available here.

Fig.: Reading faces

Zehn Regeln für gute virtuelle Assistenten

2013 wurden für eine Maschine mit natürlichsprachlichen Fähigkeiten sieben Metaregeln entwickelt, an die sie sich halten sollte. Diese sind so aktuell wie nie zuvor, seit Google Duplex durch die Medien geistert und Entwickler wie Benutzer beschäftigt. Eine Regel des GOODBOT lautete, er solle dem Benutzer klarmachen, dass er eine Maschine ist, eine andere, er solle nicht lügen. Es folgte, ebenfalls im Kontext der Maschinenethik, das LIEBOT-Projekt (2016), mit dem Erkenntnisse zu Vertrauenswürdigkeit und Verlässlichkeit, auch in Bezug auf Quellen, verbunden waren. Momentan entwickelt Oliver Bendel den BESTBOT. Alle drei Maschinen wurden im Rahmen der AAAI Spring Symposia (2016 – 2018) an der Stanford University sowie auf der ISAIM 2018 in Fort Lauderdale vorgestellt, der LÜGENBOT auch auf Konferenzen in Krakau (2016) und München (2016). Vor dem Hintergrund der bisherigen Projekte und in Anbetracht der jüngsten Entwicklungen – Google Assistant bzw. Duplex wurde erwähnt, aber auch Siri und Alexa haben neuartige Fähigkeiten – verfasste Oliver Bendel zehn Regeln (oder Metaregeln), die eine Diskussionsgrundlage sein sollen, mit Blick auf (auch moralisch) gute virtuelle Assistenten und Chatbots (die sozusagen eine Selbstverpflichtung abgeben). Sie sind insgesamt nicht erschöpfend (so wird etwa nicht auf die Stimme eingegangen), und sie sind jeweils nicht immer ausreichend, aber sie bieten Leitplanken und einen Ausgangspunkt für Richtlinien. Speziell für Sprachassistenten bietet sich das Moralmenü (MOME) an.

Abb.: Zehn Regeln für gute Maschinen

Menschenähnlich aussehen und sprechen

“Dass es nur Kunst war, verdeckte die Kunst”, schrieb Ovid über die von Pygmalion geschaffene, menschenähnliche Elfenbeinskulptur, die dann von Aphrodite, in die er eigentlich verliebt war, zum Leben erweckt wurde. Galatea war sogar fruchtbar, anders als ihre Nachfolgerinnen, Liebespuppen wie Harmony und Sexroboter wie Roxxxy. Die natürliche Sprache ist beiden gegeben, und in den letzten Jahren hat man versucht, diese noch natürlicher wirken zu lassen. Oliver Bendel hat untersucht, wie man die Speech Synthesis Markup Language (SSML) zur Manipulation der synthetischen Stimme von Liebespuppen, Sexrobotern und allgemein Servicerobotern gebrauchen kann. Er schlug neue Tags, Attribute und Werte vor, die eine belegte Stimme und auch ein Seufzen und Stöhnen möglich machen. Amazon hat Alexa das Flüstern beigebracht, ebenfalls mit SSML. Google Assistant soll in Zukunft dazu dienen, in Restaurants und Frisörsalons anzurufen (das Projekt wird Duplex genannt). Damit kann man mit einer High-End-Technologie ganz normale Telefone auf der ganzen Welt bedienen und private Aufgaben automatisieren. Die Stimme klingt sehr lebensecht, und das Sprechen überhaupt, auch weil “Ähs” und “Mmhs” vorkommen, wie bei echten Menschen. In der Imperfektion könnte der Schlüssel zur Perfektion liegen. Ein Roboter, der für die Promotion von “Westworld” geschaffen wurde, mit Unregelmäßigkeiten und Haaren im Gesicht, wirkt besonders authentisch, mehr als Harmony und Co. Dass es nur Kunst ist, wird die Kunst immer mehr und immer besser verdecken.

Abb.: Puppen beim Plantschen und Plaudern

Konferenz bei Heidelberg zu Pflegerobotern

“Pflegeroboter, so die Idee für die Zukunft, unterstützen oder ersetzen menschliche Pflegekräfte bzw. Betreuerinnen und Betreuer. Sie bringen und reichen Kranken und Alten benötigte Nahrungsmittel oder Medikamente, helfen ihnen beim Hinlegen und Aufrichten oder alarmieren den Notdienst. Beispiele für Prototypen mit solchen Fähigkeiten sind die Roboter Jaco, Cody, Robear, Twendy-One und Hobbit. Bei der Entwicklung maschineller Pflegesysteme sind derzeit vor allem Deutschland und Japan führend. Zu diesem aktuellen Thema fand der Ladenburger Diskurs ‘Pflegeroboter’ statt, den der Informations- und Maschinenethiker Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz leitete.” So beginnt der Beitrag auf den Seiten 26 und 27 im Jahresbericht 2017 der Daimler und Benz Stiftung, der im Frühjahr 2018 erschienen ist. Die Konferenz wurde vom 12. bis 13. September 2017 im Carl-Benz-Haus in Ladenburg bei Heidelberg durchgeführt. Bereits am 11. September traf man sich zum Abendessen. Der Jahresbericht kann über www.daimler-benz-stiftung.de/cms/images/dbs-bilder/publikationen/Jahresbericht-2017.pdf heruntergeladen werden. Der Herausgeberband erscheint im Spätsommer 2018 bei Springer (Open Access).

Abb.: Vor dem Carl-Benz-Haus (Foto: Daimler und Benz Stiftung/Dorn)