Fiktionale und reale Hologramme

Leia, die in „Star Wars“ als Hologramm eine Nachricht überbringt, Darth Vader, der mit dem Imperator Pläne schmiedet, obwohl beide weit entfernt voneinander sind, William Riker in „Star Trek“, der sich – Stichwort „Holodeck“ – durch virtuelle Landschaften bewegt, Officer K in „Blade Runner 2049“, der mit einer holografischen Gefährtin namens Joi zusammenwohnt und auf holografische Tänzerinnen und Sänger (Frank Sinatra unter Glas und Elvis Presley auf der Bühne) trifft – in all diesen Fällen kommen fiktionale Hologramme zum Einsatz. Aber auch in der Realität tut sich etwas, und man kann nicht nur Hologramme mit Holografiepyramiden erzeugen, ob für den Privatgebrauch mit dem Smartphone oder zur Produktpräsentation auf Messen, sondern sie sich auch, gefangen in einer Art Kaffeemaschine (Gatebox genannt), in das Schlaf- oder Wohnzimmer stellen. In seinem Beitrag „Hologramm“ für das Wirtschaftslexikon von Springer Gabler – abrufbar über wirtschaftslexikon.gabler.de/definition/hologramm-99480 – geht Oliver Bendel auf den Begriff der Holografie und auf fiktionale und reale Hologramme ein. Auch Fragen der Ethik werden aufgeworfen.

Abb.: Hologrammen gehört die Zukunft (Foto: Katharina Kühne)

Handbuch zur Maschinenethik

Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum „Handbuch Maschinenethik“, das von Oliver Bendel herausgegeben wird. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden (elf sind bereits online), findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 … Ende 2018 soll das gedruckte Werk erscheinen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, Julian Nida-Rümelin, deutscher Philosoph und ehemaliger Kulturstaatsminister, Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet, die Stuttgarter Philosophin Catrin Misselhorn, die ebenfalls einen hervorragenden Ruf in der Disziplin hat, und die Technikethiker Karsten Weber und Thomas Zoglauer. Oliver Bendel selbst steuert sieben Beiträge bei. Er klärt die Frage, wozu wir Maschinenethik brauchen, geht auf Pflegeroboter und Sexroboter aus Sicht der Maschinenethik ein und stellt Projekte zu moralischen und unmoralischen Maschinen vor.

Abb.: Die Erschaffung der Maschine

Ethische Leitlinien der GI

Die Ethischen Leitlinien der Gesellschaft für Informatik e.V. (GI) wurden in einer neuen Version am 29. Juni 2018 vom Präsidium verabschiedet. An den alten Versionen von 1994 und 2004 hatte es einige Kritik gegeben, die teilweise unerhört verhallte. Nun hat die Ethik einen hohen Stellenwert und die Fachgruppe „Informatik und Ethik“, die federführend bei der Weiterentwicklung war, mit Dr. Stefan Ullrich einen kompetenten Vertreter beider Disziplinen. In der Präambel wird betont, dass man den Willen hat, das „Handeln an den Werten auszurichten, die dem Grundgesetz der Bundesrepublik Deutschland und der Charta der Grundrechte der Europäischen Union zu Grunde liegen“. „Die GI-Mitglieder fühlen sich insbesondere dazu verpflichtet, die Menschenwürde zu achten und zu schützen. Wenn staatliche, soziale oder private Normen im Widerspruch zu diesen Werten stehen, muss dies von den GI-Mitgliedern thematisiert werden.“ (Website GI) Die Leitlinien können über gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien/ heruntergeladen werden.

Abb.: GI-Mitglieder sollen den Werten des Grundgesetzes verpflichtet sein

Die Moral der Roboter

In der neuen Ausgabe der Zeitschrift cooperativ (2/18) widmet man sich der Frage, ob Roboter Moral brauchen. Oliver Bendel zeigt seit einigen Jahren, wie maschinelle Moral entsteht, aus der Maschinenethik heraus, in Zusammenarbeit mit Künstlicher Intelligenz und Robotik. Ob Roboter Moral brauchen, muss von Fall zu Fall entschieden werden. Es bieten sich Stellvertretermaschinen mit einer Stellvertretermoral an, die der Besitzer oder Benutzer mit Hilfe eines Moralmenüs erzeugen kann, mit einer gewissen Freiheit, die auf der einen Seite von Voreinstellungen, auf der anderen Seite von Verordnungen und Gesetzen eingeschränkt wird. Stellvertretermaschinen dieser Art können in geschlossenen oder halboffenen Umgebungen unterwegs sein, etwa als Staubsaugerroboter im Haushalt oder als Sicherheitsroboter auf dem Betriebsgelände. Oliver Bendel kommt in dem Beitrag von Hermann Fritzl ebenso zu Wort wie Matthias Scheutz von der Tufts University School of Engineering und Bertram F. Malle von der Brown University. Der Artikel mit dem Titel „Brauchen Roboter Moral?“ kann über issuu.com/cooperativ_oegv/docs/cooperativ_02_18_web aufgerufen werden. Zudem steht er hier als PDF zur Verfügung.

Abb.: Elektro hat noch keine künstliche Moral

Geplante Social-Media-Richtlinien des ORF

ORF-Generaldirektor Alexander Wrabetz hat einen Entwurf für Social-Media-Richtlinien vorgelegt. Ist das Dokument, das derzeit in den sozialen Medien kursiert, echt, ist man beim Sender nicht in der Lage, den Begriff richtig zu schreiben. Mehrmals ist von „ORF Social Media-Richtlinien“ die Rede. In den Medien wird die falsche Schreibweise teils stillschweigend korrigiert, was eine Verfälschung des Originals darstellt, teils kommentarlos übernommen. Aber weg vom Formalen, hin zum Inhaltlichen. Der Spiegel fasst zusammen, dass bei Inkrafttreten der Dienstanweisung die Mitarbeiter des ORF sich „nicht mehr politisch kommentierend äußern“ dürfen – „auch nicht als Privatpersonen“ (SPON, 27. Juni 2018). Sogar „Likes, Dislikes, Recommends, Retweets oder Shares“ seien zu unterlassen, denn eine „Meinungsbekundung“ (SPON, 27. Juni 2018) könne auch indirekt erfolgen. Die Zeitschrift spricht in der Überschrift ihres Artikels von einem „Maulkorb“. In ihrer Analyse stellt sie fest, dass sich mit der geplanten Verordnung „Vertreter der Regierungsparteien ÖVP und FPÖ im Stiftungsrat … durchgesetzt haben“ (SPON, 27. Juni 2018). SRF hatte ebenfalls rigide Richtlinien, die vor der No-Billag-Initiative etwas gelockert wurden, damit sich die Journalisten gegen diese aussprechen konnten. Grundsätzlich handelt es sich bei Social-Media-Richtlinien dieser Art um einen massiven Eingriff in die Meinungsfreiheit, der von Medien- und Informationsethik untersucht werden kann.

Abb.: Müssen ORF-Mitarbeiter künftig schweigen?

A Morality Menu for a Domestic Robot

LADYBIRD, the animal-friendly vacuum cleaning robot, was conceived in 2014 by Oliver Bendel and introduced at Stanford University (AAAI Spring Symposia) in 2017 and then implemented as a prototype at the School of Business FHNW. In the context of the project, a menu was proposed with which the user can set the morale of the vacuum cleaner robot. As the name implies, it spares ladybirds. It should also let spiders live. But if you want to have certain insects sucked in, you could define this via a menu. It is important that LADYBIRD remains animal-friendly overall. The idea was to develop a proxy morality in detail via the menu. The vacuum cleaner robot as a proxy machine does what the owner would do. In 2018 the morality menu (MOME) for LADYBIRD was born as a design study. It can be combined with other approaches and technologies. In this way, the user could learn how others have decided and how the personal morality that he has transferred to the machine is assessed. He could also be warned and enlightened if he wants to suck in not only vermin but also spiders.

Fig.: Morality menu for LADYBIRD

I Hurt Myself Today

Niemand sang das Lied von Schmerz und Leid so schön wie Johnny Cash: „I hurt myself today/To see if I still feel/I focus on the pain/The only thing that’s real“. Die Philosophie hat sich immer wieder mit dem Leiden beschäftigt, und dieses rückte bei Jeremy Bentham in den Mittelpunkt, mit der Aussage, „the question is not, Can they reason? nor, Can they talk? but, Can they suffer?“ – sein Modell der normativen Ethik umfasste Menschen wie Tiere. Niemand will leiden, sich geißelnde Mönche ausgenommen, aber wenn die Fähigkeit zu leiden fehlt, ist dies ein Mangel. Forscher der Johns Hopkins School of Medicine haben nun, wie ICTkommunikation meldet, „eine neue Prothesenhaut entwickelt, die Schmerz und Berührungsintensität fühlen lässt“. Sie generiere elektrische Impulse, welche die Nerven im Oberarm stimulieren. „Es handelt sich bei der Haut um eine dünne Schicht aus Gummi und Stoff, die über den Fingerspitzen einer Prothese getragen wird.“ (ICTkommunikation, 25. Juni 2018) Das neue Gadget wurde laut der Zeitschrift bereits an Amputierten getestet, die den Einsatz als „belebend“ beschrieben haben. „Schmerz ist natürlich unerfreulich. Dennoch ist er essenziell und fehlt bei Prothesen, die Amputierten derzeit zur Verfügung stehen“, wird Luke Osborn von der amerikanischen Hochschule zitiert. Bei Johnny Cash ging es weiter mit den Worten: „The needle tears a hole/The old familiar sting/Try to kill it all away/But I remember everything.“ Der Beitrag kann hier abgerufen werden.

Abb.: Hier überstrahlt das Glück der Zukunft den Schmerz der Gegenwart

Therapie- und Pflegeroboter im Spiegel

Bei Spiegel Plus ist am 24. Mai 2018 der Artikel „Roboter als Altenpfleger – hier ist es bereits Realität“ von Stefan Schultz erschienen. Es wird auf Therapie- und Pflegeroboter eingegangen, wie sie etwa in der Schweiz eingesetzt werden. „Sie spielen mit Dementen und heben Senioren aus dem Bett: Was passiert, wenn Roboter immer mehr Aufgaben in der Pflege übernehmen? Eine Reportage aus einem der fortschrittlichsten Altersheime der Welt.“ (Spiegel, 24. Mai 2018) Dabei wird auch die Perspektive des Patienten eingenommen: „Für Irène Brehm, 65, ist es Liebe auf den ersten Blick. Fest hält sie die kleine Robbe im Arm, streichelt ihr Fell, liebkost ihre Schnurrhaare. Lacht, als die Robbe plötzlich losquiekt.“ (Spiegel, 24. Mai 2018) Zu Wort kommt mehrmals der in Zürich lebende Wirtschaftsinformatiker und Roboterphilosoph Oliver Bendel. Er hat im September 2017 für die Daimler und Benz Stiftung den Ladenburger Diskurs zu Pflegerobotern ausgerichtet – der dazugehörige Herausgeberband (Open Access) erscheint bei Springer im Herbst 2018. Der Artikel ist kostenpflichtig. Der Teaser kann hier gelesen werden.

Abb.: Demente werden immer häufiger mit Therapierobotern konfrontiert

 

Bücher zur Ethik der Informationstechnik

Ariane Rüdiger hat in der iX 05/2018 die Bücher „300 Keywords Informationsethik: Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik“ und „3TH1CS – Die Ethik der digitalen Zeit“ rezensiert: „Wer Literatur zum Einstieg in die Recherche zu Fragen rund um die Ethik der Informationstechnik sucht, kann beispielsweise auf die zwei folgenden Publikationen zurückgreifen. Sie befassen sich mit grundlegenden Debatten und Begriffen aus diesem weiten Feld. Zum einen das kurz und präzise gefasste Handbuch ‚300 Keywords Informationsethik‘ von Oliver Bendel, einem Vordenker der Roboterethik, der sich als Dozent für Wirtschaftsinformatik, Wirtschafts- und Informationsethik … seit Langem mit diesen Themen befasst. Das Handbuch beschreibt kurz und leicht verständlich, manchmal auch amüsant, alphabetisch geordnet und oft garniert mit praktischen, greifbaren Beispielen, was bestimmte informationsethische Begriffe in der Fachdiskussion genau bedeuten. Das reicht von Roboterethik bis zur informationellen Notwehr und von virtueller Realität bis zu Social-Media-Richtlinien. Bendel macht nicht den Fehler, seine Auffassungen zu bestimmten ethischen Fragen als allgemeinverbindlich zu erklären, sondern erwähnt stets auch abweichende Meinungen, was das broschierte Buch zu einer guten Grundlage für Diskussionen macht. Dazu trägt auch der übersichtliche Umfang bei. Wer einzelne Themen vertiefen möchte, über die gerade intensiv diskutiert wird, findet in der Veröffentlichung ‚3TH1CS – Die Ethik der digitalen Zeit‘ eine interessante, vielseitige und teilweise durchaus unterhaltsame Lektüre.“ (iX, 05/2018)

Abb.: Die Rezension in der iX (Quelle: iX)

Über die Rechte von Robotern

Der Artikel „Haben Roboter Rechte?“ von Oliver Bendel aus der Zeitschrift Edison (Ausgabe 2/2018) kann hier heruntergeladen werden. Die zuständige Disziplin für diese Frage ist die Roboterethik (bzw. die Roboterphilosophie). Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Er erwähnt in „Haben Roboter Rechte?“ auch Sophia, den humanoiden Roboter, dem in Saudi-Arabien die Staatsbürgerschaft verliehen wurde. Ihr wird in Edison zudem ein eigener Beitrag gewidmet.

Abb.: Haben Roboter Rechte?

Post-Drohne bringt Laborproben

„Nach Lugano und Bern steigen ab Ende Juni auch in der Stadt Zürich Drohnen mit Paketsendungen in die Luft.“ Dies meldet der Tages-Anzeiger vom 13. Juni 2018. Es gehe dabei um Transporte im medizinischen Bereich. Bei der Drohne der Post, die in Zürich zum Einsatz kommt, handelt es sich um einen Quadrokopter „mit einem Durchmesser von 80 Zentimetern, hergestellt von der amerikanischen Firma Matternet“ (Tages-Anzeiger, 13. Juni 2018). „Ihre Durchschnittsgeschwindigkeit beträgt 10 Meter pro Sekunde, die Flughöhe liegt bei 100 bis 120 Metern über dem Boden. Die Drohne fliegt autonom auf einer vom Bundesamt für Zivilluftfahrt zertifizierten Route. Dank dem sogenannten Flarm-System ist sie für die Skyguides auf den Flughäfen Dübendorf und Kloten erkennbar.“ (Tages-Anzeiger, 13. Juni 2018) Medizinische Transporte in den Innenstädten können meist schneller als mit dem Auto durchgeführt werden, was etwa bei Laborproben von Bedeutung ist. Es kann allerdings Kollisionen mit anderen Drohnen und mit Vögeln geben, und ein Absturz kann für Fußgänger, Fahrradfahrer und Autofahrer gefährlich sein. Chancen und Risiken von privaten Drohnen arbeitet ein Beitrag von Oliver Bendel aus dem Jahre 2015 heraus.

Abb.: Eine Drohne bringt ein Paket

KI in der Serengeti

„Forscher mehrerer US-Universitäten haben ein System entwickelt, mit dem sich der Bestand von Wildtieren einfach, schnell und zuverlässig überwachen lässt, ohne diese in ihrer natürlichen Umgebung zu stören. Hierfür verknüpfen die Experten Künstliche Intelligenz (KI) mit Ansätzen des maschinellen Lernens, um Löwen, Elefanten und Co in der Serengeti ohne menschliches Zutun über Fotos und Videos identifizieren, zählen und beschreiben zu können. Die Methode erreichte eine Genauigkeit von 96,6 Prozent und konnte 99,3 Prozent der Bilder auswerten.“ (ICTkommunikation, 7. Juni 2018) Es gab in den letzten Jahren immer wieder Bestrebungen, eine Disziplin der Tier-Computer-Interaktion bzw. der Tier-Maschine-Interaktion zu begründen, um das Verhältnis zwischen Tier und Maschine so zu erforschen und zu gestalten, dass diese in autonomer Weise betrieben und jenem in der Wildnis (oder in anderer Umgebung) – ohne Störung oder Verletzung – geholfen werden kann. Das genannte Projekt kann in diesem Kontext gesehen werden. Der Artikel in der ICTkommunikation kann hier aufgerufen werden.

Abb.: Ein Elefant in der Serengeti

Menschen müssen Cobots nicht fürchten

In der Netzwoche 10/2018 findet sich ein ganzseitiges Interview mit Oliver Bendel zu Kooperations- und Kollaborationsrobotern, auch Co-Robots oder Cobots genannt. Der Informations- und Maschinenethiker hält die Teams oder Tandems aus Mensch und Maschine für nützlich und hilfreich. Mensch und Maschine spielen jeweils ihre Stärken aus. Der Mensch wird entlastet. Ein Problem könnte in Zukunft allerdings die Überwachung sein. Die Maschine kommt uns sehr nahe, und mit Hilfe ihrer Sensoren und ihrer Software könnte sie uns ausspionieren. Dies hat Oliver Bendel in einem anderen Interview, mit der SonntagsZeitung, betont. Im Moment überwiegen für ihn klar die Vorteile. Interessant findet er zudem, dass Kooperations- und Kollaborationsroboter nicht nur in Produktion und Logistik, sondern auch in Pflege und Therapie eingesetzt werden. Damit schlagen sie eine Brücke zwischen Industrie- und Servicerobotern. Das Interview kann mit freundlicher Genehmigung der Zeitschrift als PDF hier heruntergeladen oder auch online gelesen werden.

Abb.: Hier wird die Maschine noch bedient

Mensch und Maschine kommen sich nahe

In der Titelgeschichte der Netzwoche 10/2018 geht es um Kooperations- und Kollaborationsroboter, auch Co-Robots oder Cobots genannt. Zu Wort kommen Steven Wyatt, Head of Marketing & Sales bei ABB Robotics, und Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW. Kooperations- und Kollaborationsroboter sind moderne Industrieroboter, die mit uns Schritt für Schritt an einem gemeinsamen Ziel (Kooperationsroboter) bzw. Hand in Hand an einer gemeinsamen Aufgabe arbeiten, wobei wiederum ein bestimmtes Ziel gegeben ist (Kollaborationsroboter). Sie nutzen dabei ihre mechanischen und sensorischen Fähigkeiten und treffen Entscheidungen mit Blick auf Produkte und Prozesse im Unternehmen bzw. in der Einrichtung. Mensch und Maschine kommen sich in der Produktion und in der Logistik inzwischen also unter Umständen sehr nahe. Sie sind dabei in der Lage, ihre jeweiligen Stärken auszuspielen. Zudem entlastet der Co-Robot den Menschen. Der Artikel mit dem Titel „Cobots: Roboter und Menschen arbeiten Hand in Hand“ kann mit freundlicher Genehmigung der Netzwoche als PDF hier heruntergeladen oder auch online gelesen werden.

Abb.: Auch hier kommen sich Mensch und Maschine nahe

Sex Robots are Coming

„Sex robots are coming, but the argument that they could bring health benefits, including offering paedophiles a ’safe‘ outlet for their sexual desires, is not based on evidence, say researchers. The market for anthropomorphic dolls with a range of orifices for sexual pleasure – the majority of which are female in form, and often boast large breasts, tiny waists and sultry looks – is on the rise, with such dummies selling for thousands of pounds a piece.“ (Guardian, 5 June 2018) These are the initial words of an article in the well-known British daily newspaper Guardian, published on 5 June 2018. It quotes Susan Bewley, professor of women’s health at Kings College London, and Oliver Bendel, professor at the School of Business FHNW. Oliver Bendel is not in favor of a ban on the development of sex robots and love dolls. However, he can imagine that the area of application could be limited. He calls for empirical research in the field. The article can be accessed via www.theguardian.com/science/2018/jun/04/claims-about-social-benefits-of-sex-robots-greatly-overstated-say-experts.

Fig.: A love doll

Handbuch zur Maschinenethik erscheint

Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an Beiträgen für das „Handbuch Maschinenethik“ von Springer. Ende 2019 soll das gedruckte Werk erscheinen. Herausgeber ist der Informations- und Maschinenethiker und Roboterphilosoph Oliver Bendel. Die ersten Beiträge wurden im Frühjahr 2018 in elektronischer Form publiziert. Mit dabei sind etwa Luís Moniz Pereira, einer der bekanntesten Maschinenethiker der Welt, und Roboterethikerin Janina Loh, die mit Mark Coeckelbergh zusammenarbeitet. Ein Beitrag der Stuttgarter Philosophin Catrin Misselhorn, die ebenfalls einen hervorragenden Ruf in der Disziplin hat, kommt in wenigen Tagen heraus. In ein paar Monaten folgen Julian Nida-Rümelin und Eric Hilgendorf, um nur zwei weitere Namen zu nennen. Der Philosoph war einst Kulturstaatsminister, und der Roboterrechtler fehlt bei kaum einer Debatte über autonome Autos und künstliche Intelligenz. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden, findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 … Oliver Bendel wird selbst mit sechs Beiträgen vertreten sein, vor allem zu Artefakten der Maschinenethik, also zu konkreten Umsetzungen. Er hat sich in mehreren Büchern und in über 100 Artikeln und Buchbeiträgen der Maschinenethik und den moralischen Maschinen gewidmet.

Google und das Böse

Wie Golem und Gizmodo melden, hat Google im Frühjahr 2018 den Satz „Don’t be evil“ aus seinem Verhaltenskodex entfernt. Das Motto war von Anfang an umstritten. Es klingt zunächst einmal pathetisch und naiv. Zudem kollidiert es mit der gelebten Praxis. Google hat immer wieder systematisch Recht gebrochen und moralische Standards nicht eingehalten, etwa im Zusammenhang mit seiner Suchmaschine, mit seinem E-Mail-Dienst, mit Google Street View und Google Books. Das Unternehmen hat Persönlichkeits- und Grundrechte missachtet und ist mit einer gut gefüllten Kriegskasse gegen Gegner vorgegangen. Zugleich wurden wertvolle Projekte wie Google Arts & Culture (vormals Google Art Project) lanciert, die Menschen auf der ganzen Welt den virtuellen Zugang zu Museen und zur Kunst ermöglichen. Anfang April 2018 protestierten Mitarbeiter gegen das Militärprojekt Maven. Die Streitfrage ist, ob die im Unternehmen entwickelte künstliche Intelligenz für militärische Zwecke verwendet werden soll. In ihrem offenen Brief beziehen sich die Verfasser auch auf das Motto „Don’t be evil“. Also auf ein Motto, das es nun nicht mehr gibt.

Abb.: Don’t be evil

Co-Robots in der Moral

Die Konferenz „Smarte Maschinen im Einsatz – Künstliche Intelligenz in der Produktion“ fand am 15. Mai 2018 am Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA in Stuttgart statt. Schirmherrin war Dr. Nicole Hoffmeister-Kraut MdL (Ministerin für Wirtschaft, Arbeit und Wohnungsbau des Landes Baden-Württemberg). Prof. Dr. Oliver Bendel bildete mit seinem Vortrag über „Co-Robots aus Sicht von Informations- und Maschinenethik“ den Schlusspunkt der Veranstaltung. Der schweizerischen SonntagsZeitung, deren Wissenschaftsredakteur angereist war, stand er Rede und Antwort. Das Interview wurde am 20. Mai 2018 als zentraler Bestandteil eines Einseiters veröffentlicht, der hier heruntergeladen werden kann. Vor allem geht es um Co-Robots aus Sicht der Ethik. Am Ende wird auch Kapitalismuskritik geäußert. Oliver Bendel ist für eine Reichensteuer und für ein bedingungsloses Grundeinkommen. Die Robotersteuer muss nach seiner Ansicht diskutiert werden, hat aber mehr Nach- als Vorteile.

Abb.: Beitrag in der SonntagsZeitung

Die Mängelmaschine

„Die Mängelmaschine“ ist der Titel eines Beitrags auf Ö1, ausgestrahlt am 14. Mai 2018. Zu Wort kommen Hiroshi Ishiguro, Mark Coeckelbergh, Janina Loh und Oliver Bendel. Aus der Beschreibung: Der japanische Robotiker hat einen Doppelgänger geschaffen: „Der Roboter Geminoid sieht genauso aus wie sein Schöpfer – und vertritt ihn bisweilen sogar bei Vorlesungen. Für Ishiguro ist sein künstlicher Klon eine Person, eine nicht ganz perfekte und liebenswerte Kopie seiner selbst. Aber die Frage ist für ihn nicht besonders wichtig.“ Denn, so wird Ishiguro zitiert: „Warum müssen wir zwischen Menschen und Maschinen unterscheiden? Der Mensch ist ein Tier, das sich der Technologie bedient. Ohne Maschinen wären wir bloß Affen – und unfähig in dieser Welt zu überleben.“ (Website Ö1) Es gibt viele Gründe, zwischen Menschen und Maschinen zu unterscheiden. Einer davon: Während wir empfinden und leiden und glücklich sind, tun die Maschinen dies nicht. Und das ist eine gewaltige Differenz mit gewaltigen Implikationen: Wir müssen Menschen und Maschinen völlig unterschiedlich behandeln. Man kann von einem Mangel sprechen, den auch der Zwilling von Ishiguro aufweist: „Forscher/innen aus dem Westen … halten Geminoid für nicht mehr als eine aufwändig gestaltete Puppe.“ (Website Ö1)

Abb.: Hiroshi Ishiguro im Februar 2018 in Wien

Virtuelle Assistenten

„Ein virtueller Assistent ist ein Dialogsystem, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Smartphone ebenso zu finden wie in Unterhaltungsgeräten und in Fahrzeugen.“ Mit diesen Worten beginnt ein am 15. Mai 2018 erschienener Beitrag von Oliver Bendel im Wirtschaftslexikon von Gabler Springer. Erwähnt werden virtuelle Assistenten bzw. Sprachassistenten wie Siri, Cortana, Google Assistant (auch im Zusammenhang mit Google Duplex) und Alexa. Am Ende heißt es: „Mit Systemen wie Google Duplex kehren sich die Verhältnisse in gewisser Hinsicht um. Man nimmt einen Anruf entgegen, kommuniziert wie gewohnt, hat aber vielleicht, ohne es zu wissen, einen Computer am Apparat, keinen Menschen. Für Chatbots wurde bereits früh vorgeschlagen, dass diese klarmachen sollen, dass sie keine Menschen sind. Möglich ist es zudem, die Stimme roboterhaft klingen zu lassen, sodass kaum Verwechslungsgefahr besteht. Dies sind Themen für Informationsethik, Roboterethik und Maschinenethik und allgemein Roboterphilosophie.“ (Gabler Wirtschaftslexikon) Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/virtueller-assistent-99509 aufgerufen werden.

Abb.: Wer ist dran?

Wenn Roboter wählen

Zur Bundestagswahl in Deutschland baten Zeitungen und Zeitschriften zur Online-Abstimmung. „Die Problematik der Online-Abstimmung ist insgesamt zur Zeit technisch nicht befriedigend gelöst, obgleich einige Anbieter wie der Kölner Stadtanzeiger doch einiges dazu investiert haben … Wie grotesk das werden kann, wenn unkontrollierte Abstimmungen durch Roboter, also durch Software-Mechanismen, unterlaufen werden … Wahlen.de hat es zum Glück natürlich nicht gelassen. Der Kontrollmechanismus zur Abstimmung wurde, nachdem die Attacke durch den automatisch wählenden Software-Roboter zunächst drei Tage unbemerkt blieb, verändert. Man konnte danach, wie schon erwähnt, bei wahlen.de nur noch einmal am Tag abstimmen (Meldung: „doppelte Stimmabgabe ist am selben Tag nicht möglich“). Am nächsten Tag konnte man neues Wahlschicksal spielen.“ Das Zitat stammt aus dem Buch „Die Mondlandung des Internet“ (UVK), das Rainer Kuhlen unter der Mitarbeit von Oliver Bendel geschrieben hat. Es ist vor 20 Jahren zur Bundestagswahl 1998 erschienen, was deutlich macht, dass die Probleme von damals mehr oder weniger die Probleme von heute sind.

Abb.: Wenn Roboter wählen

Reading Faces

Face recognition is the automated recognition of a face or the automated identification, measuring and description of features of a face. In the 21st century, it is increasingly attempted to connect to the pseudoscience of physiognomy, which has its origins in ancient times. From the appearance of persons, a conclusion is drawn to their inner self, and attempts are made to identify character traits, personality traits and temperament, or political and sexual orientation. Biometrics plays a role in this concept. It was founded in the eighteenth century, when physiognomy under the lead of Johann Caspar Lavater had its dubious climax. In the paper „The Uncanny Return of Physiognomy“, the basic principles of this topic are elaborated; selected projects from research and practice are presented and, from an ethical perspective, the possibilities of face recognition are subjected to fundamental critique in this context, including the above examples. Oliver Bendel presented his paper on 27 March 2018 at Stanford University („AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“, AAAI 2018 Spring Symposium Series). The entire volume can be downloaded via AAAI.

Fig.: Reading faces