Kategorie: Diskussionen

AI love you

Unter der Überschrift “AI love you” berichtete die Süddeutsche Zeitung am 29. September 2018 über den zunehmenden Gebrauch von Liebespuppen und die Weiterentwicklung von Sexrobotern. Vorausgegangen war ein einstündiges Interview mit Oliver Bendel, der als Informations- und Maschinenethiker dieses Phänomen erforscht. Der Journalist und er trafen sich im Münchner Excelsior am Hauptbahnhof und reisten von dort in Gedanken nach Dortmund, wo sich das Bordoll befindet, und nach Barcelona und Moskau. Auch in der Schweiz, erzählte der Ethiker, legt sich das eine oder andere Etablissement eine Liebespuppe zu. So weit wie das Bordoll, wo es keine Menschen mehr gibt, die Besitzerin und die Kunden ausgenommen, treibt es aber noch niemand. Im Bordoll interessieren sich die meist jungen Männer auch für Fantasyfiguren, für Elfen und Manga- und Animemädchen. So etwas muss erforscht werden, wie auch die Frage, ob man Liebespuppen in Pflege und Therapie einsetzen kann. Dieser Frage widmet sich wiederum ein aktueller Beitrag von Oliver Bendel in der IT for Health. Der Beitrag in der Süddeutschen kann hier kostenpflichtig abgerufen werden.

Abb.: Eine Liebespuppe

Das Ah-Erlebnis

VRODO hat ein Interview mit dem Roboterphilosophen, Informations- und Maschinenethiker Oliver Bendel geführt. Es ging um moralische Maschinen und am Rande auch um die Frage, ob Maschinen eines Tages Bewusstsein oder Selbstbewusstsein haben können. Für Oliver Bendel gehört zum Bewusstsein, dass eine innere Stimme ausruft: Ah, das ist ja die Welt! Diese innere Stimme kann seiner Meinung auch ein Tier haben. Jeder Igel, jede Kröte hat Bewusstsein. Zum Selbstbewusstsein gehört, dass die innere Stimme ausruft: Ah, das bin ja ich! Ein Affe hat Selbstbewusstsein. Der Roboterphilosoph denkt nicht, dass man ein echtes Bewusstsein von Maschinen wird schaffen können. Auf jeden Fall werde der Roboter nie mit seiner inneren Stimme ausrufen: Ah, das bin ja ich, der Roboter! “I, Robot” – das sei Science-Fiction. Die Forschung über maschinelles Bewusstsein hält Oliver Bendel dennoch für wichtig. Bei einem der Symposien der AAAI Spring Symposia an der Stanford University wird es um dieses Thema gehen. Das Interview wurde von Maximilan Schreiner geführt und kann über vrodo.de/was-ein-roboterphilosoph-ueber-maschinenmoral-denkt/ nachgelesen werden.

Abb.: Wie kommt Bewusstsein zustande?

Die Moral der Roboter

In der neuen Ausgabe der Zeitschrift cooperativ (2/18) widmet man sich der Frage, ob Roboter Moral brauchen. Oliver Bendel zeigt seit einigen Jahren, wie maschinelle Moral entsteht, aus der Maschinenethik heraus, in Zusammenarbeit mit Künstlicher Intelligenz und Robotik. Ob Roboter Moral brauchen, muss von Fall zu Fall entschieden werden. Es bieten sich Stellvertretermaschinen mit einer Stellvertretermoral an, die der Besitzer oder Benutzer mit Hilfe eines Moralmenüs erzeugen kann, mit einer gewissen Freiheit, die auf der einen Seite von Voreinstellungen, auf der anderen Seite von Verordnungen und Gesetzen eingeschränkt wird. Stellvertretermaschinen dieser Art können in geschlossenen oder halboffenen Umgebungen unterwegs sein, etwa als Staubsaugerroboter im Haushalt oder als Sicherheitsroboter auf dem Betriebsgelände. Oliver Bendel kommt in dem Beitrag von Hermann Fritzl ebenso zu Wort wie Matthias Scheutz von der Tufts University School of Engineering und Bertram F. Malle von der Brown University. Der Artikel mit dem Titel “Brauchen Roboter Moral?” kann über issuu.com/cooperativ_oegv/docs/cooperativ_02_18_web aufgerufen werden. Zudem steht er hier als PDF zur Verfügung.

Abb.: Elektro hat noch keine Moral

Geplante Social-Media-Richtlinien des ORF

ORF-Generaldirektor Alexander Wrabetz hat einen Entwurf für Social-Media-Richtlinien vorgelegt. Ist das Dokument, das derzeit in den sozialen Medien kursiert, echt, ist man beim Sender nicht in der Lage, den Begriff richtig zu schreiben. Mehrmals ist von “ORF Social Media-Richtlinien” die Rede. In den Medien wird die falsche Schreibweise teils stillschweigend korrigiert, was eine Verfälschung des Originals darstellt, teils kommentarlos übernommen. Aber weg vom Formalen, hin zum Inhaltlichen. Der Spiegel fasst zusammen, dass bei Inkrafttreten der Dienstanweisung die Mitarbeiterinnen und Mitarbeiter des ORF sich “nicht mehr politisch kommentierend äußern” dürfen – “auch nicht als Privatpersonen” (SPON, 27. Juni 2018). Sogar “Likes, Dislikes, Recommends, Retweets oder Shares” seien zu unterlassen, denn eine “Meinungsbekundung” (SPON, 27. Juni 2018) könne auch indirekt erfolgen. Die Zeitschrift spricht in der Überschrift ihres Artikels von einem “Maulkorb”. In ihrer Analyse stellt sie fest, dass sich mit der geplanten Verordnung “Vertreter der Regierungsparteien ÖVP und FPÖ im Stiftungsrat … durchgesetzt haben” (SPON, 27. Juni 2018). SRF hatte ebenfalls rigide Richtlinien, die vor der No-Billag-Initiative etwas gelockert wurden, damit sich die Journalisten gegen diese aussprechen konnten. Grundsätzlich handelt es sich bei Social-Media-Richtlinien dieser Art um einen massiven Eingriff in die Meinungsfreiheit, der von Medien- und Informationsethik untersucht werden kann.

Abb.: Müssen ORF-Mitarbeitende künftig schweigen?

Understanding AI & Us

The international workshop “Understanding AI & Us” will take place in Berlin (Alexander von Humboldt Institute for Internet and Society) on 30 June 2018. It is hosted by Joanna Bryson (MIT), Janina Loh (University of Vienna), Stefan Ullrich (Weizenbaum Institute Berlin) and Christian Djeffal (IoT and Government, Berlin). Birgit Beck, Oliver Bendel and Pak-Hang Wong are invited to the panel on the ethical challenges of artificial intelligence. The aim of the workshop is to bring together experts from the field of research reflecting on AI. The event is funded by the Volkswagen Foundation (VolkswagenStiftung). The project “Understanding AI & Us” furthers and deepens the understanding of artificial intelligence (AI) in an interdisciplinary way. “This is done in order to improve the ways in which AI-systems are invented, designed, developed, and criticised.” (Invitation letter) “In order to achieve this, we form a group that merges different abilities, competences and methods. The aim is to provide space for innovative and out-of-the-box-thinking that would be difficult to pursue in ordinary academic discourse in our respective disciplines. We are seeking ways to merge different disciplinary epistemological standpoints in order to increase our understanding of the development of AI and its impact upon society.” (Invitation letter)

Fig.: The Humboldt Box in Berlin

Therapie- und Pflegeroboter im Spiegel

Bei Spiegel Plus ist am 24. Mai 2018 der Artikel “Roboter als Altenpfleger – hier ist es bereits Realität” von Stefan Schultz erschienen. Es wird auf Therapie- und Pflegeroboter eingegangen, wie sie etwa in der Schweiz eingesetzt werden. “Sie spielen mit Dementen und heben Senioren aus dem Bett: Was passiert, wenn Roboter immer mehr Aufgaben in der Pflege übernehmen? Eine Reportage aus einem der fortschrittlichsten Altersheime der Welt.” (Spiegel, 24. Mai 2018) Dabei wird auch die Perspektive des Patienten eingenommen: “Für Irène Brehm, 65, ist es Liebe auf den ersten Blick. Fest hält sie die kleine Robbe im Arm, streichelt ihr Fell, liebkost ihre Schnurrhaare. Lacht, als die Robbe plötzlich losquiekt.” (Spiegel, 24. Mai 2018) Zu Wort kommt mehrmals der in Zürich lebende Wirtschaftsinformatiker und Roboterphilosoph Oliver Bendel. Er hat im September 2017 für die Daimler und Benz Stiftung den Ladenburger Diskurs zu Pflegerobotern ausgerichtet – der dazugehörige Herausgeberband (Open Access) erscheint bei Springer im Herbst 2018. Der Artikel ist kostenpflichtig. Der Teaser kann hier gelesen werden.

Abb.: Demente werden immer häufiger mit Therapierobotern konfrontiert

 

SRF 2 Kultur zu Erotik 4.0

“Erotik 4.0 – Gedankenspiel Sexroboter” lautet der Titel einer Sendung bei SRF 2 Kultur, die am 13. Juni 2018 ab 9 Uhr ausgestrahlt wird. “In Dortmund gibt es ein Sexpuppen-Bordell, in Barcelona sogar schon ein Sexroboter-Bordell. Der Roboterphilosoph Oliver Bendel findet diese Entwicklung gefährlich. Denn noch wissen wir nicht, welche Folgen Sexroboter für uns Menschen haben, die empirische Forschung fehlt noch.” (Website SRF) Er spricht sich nicht gegen die Entwicklung aus, sondern ist eben dafür, Forschung in diesem Bereich zu betreiben und die Anwendung genau im Auge zu behalten. In der “Kontext”-Sendung geht es zunächst um Harmony. “Wer ist sie und was kann sie?” Dann wird die Frage gestellt: “Wie soll der Sexroboter aussehen?” Oliver Bendel denkt laut über das Aussehen von Sexrobotern abseits der Stereotype nach. Schließlich findet ein “Gedankenspiel” statt, und KI-Experte und Schachmeister David Levy, Roboterethikerin Kathleen Richardson und Roboterphilosoph Oliver Bendel kommen zu Wort. Weitere Informationen über www.srf.ch/sendungen/kontext/erotik-4-0-gedankenspiel-sexroboter.

Abb.: Wer ist sie und was kann sie?

Sex Robots are Coming

“Sex robots are coming, but the argument that they could bring health benefits, including offering paedophiles a ‘safe’ outlet for their sexual desires, is not based on evidence, say researchers. The market for anthropomorphic dolls with a range of orifices for sexual pleasure – the majority of which are female in form, and often boast large breasts, tiny waists and sultry looks – is on the rise, with such dummies selling for thousands of pounds a piece.” (Guardian, 5 June 2018) These are the initial words of an article in the well-known British daily newspaper Guardian, published on 5 June 2018. It quotes Susan Bewley, professor of women’s health at Kings College London, and Oliver Bendel, professor at the School of Business FHNW. Oliver Bendel is not in favor of a ban on the development of sex robots and love dolls. However, he can imagine that the area of application could be limited. He calls for empirical research in the field. The article can be accessed via www.theguardian.com/science/2018/jun/04/claims-about-social-benefits-of-sex-robots-greatly-overstated-say-experts.

Fig.: A love doll

Wenn der Mensch zur Maschine wird

“Ein Chip unter der Haut kann heute Haustüren öffnen oder die Visitenkarte speichern. In Zukunft soll man mit ihm bezahlen oder sich sogar direkt mit dem Internet verbinden können. Eine Technologie mit vielen Chancen – aber mit welchen Risiken?” So fängt die Beschreibung einer Sendung von Lionel Mattmüller an, die am 30. Mai 2018 ab 9 Uhr auf SRF Kultur (Kontext) ausgestrahlt wird. Sie trägt den Titel “Cyborg – wenn der Mensch zur Maschine wird”. Und weiter: “Intelligente Prothesen, künstliche Hände – sie erleichtern Menschen mit einer Behinderung oder Krankheit das Leben. Aber die Technik geht weiter: Immer häufiger ergänzen auch gesunde Menschen ihren Körper mit Technik, beispielweise mit einem Chip-Implantat. Der Mensch vollzieht ein Upgrade an sich selbst. ‘Kontext’ beleuchtet dieses Phänomen und fragt auch: Brauchen wir das?” (Website SRF) “Im Studio diskutiert Moderator Bernard Senn mit Oliver Bendel, Philosoph und Dozent an der Fachhochschule Nordwestschweiz, und mit Jannes Jegminat, Neuroinformatiker.” (Website SRF)

Abb.: Wenn der Mensch zur Maschine wird

Angela Merkel trifft KI-Experten

Die Deutsche Welle war Ende Mai 2018 im Gespräch mit Oliver Bendel. Anlass war ein Treffen zwischen Angela Merkel und Experten für Künstliche Intelligenz. Der Informations- und Maschinenethiker empfiehlt eine Unterscheidung zwischen Forschung und Entwicklung auf der einen Seite und Anwendung auf der anderen. Er ist für die Freiheit der Forschung. Für ihn endet sie erst da, wo die Freiheit und Unversehrtheit von anderen beginnt, von Menschen und Tieren. Dagegen muss man nach seiner Ansicht die eine oder andere Anwendung von KI bereits jetzt einschränken, etwa dann, wenn Massenüberwachung stattfindet. Die Deutsche Welle über sich selbst auf ihrer Website: “Die Deutsche Welle (DW) ist der Auslandssender Deutschlands. In journalistischer Unabhängigkeit vermitteln wir ein umfassendes Deutschlandbild, stellen weltweite Ereignisse und Entwicklungen aus europäischer Perspektive dar, greifen deutsche und andere Sichtweisen auf. So fördern wir das Verständnis zwischen den Kulturen und Völkern. Zugleich schaffen wir einen Zugang zur deutschen Sprache.” (Website Deutsche Welle) Das Interview kann über www.dw.com/de/jetzt-machen-wir-gro%C3%9Fartige-spr%C3%BCnge/a-43964092 aufgerufen werden.

Abb.: Das Bundeskanzleramt

Alexa verschickt Privatgespräch

“Amazon spricht von einer ‘unwahrscheinlichen’ Verkettung von Ereignissen: Ein Paar aus den USA berichtet, ihr Alexa-Lautsprecher habe ein Gespräch in seiner Wohnung aufgenommen und dann ungefragt an einen Kontakt im Adressbuch verschickt.” (SPON, 25. Mai 2018) In Wirklichkeit ist diese Verkettung von Ereignissen gar nicht so unwahrscheinlich. Es fängt an beim Codewort. Oliver Bendel hat 2015 in seinem Artikel “Der kleine Lauschangriff: Auditive Systeme aus Sicht der Ethik” für Telepolis geschrieben: “Das Codewort ist der nicht ganz ungebräuchliche Mädchenname ‘Alexa’.” Dass man das System versehentlich aktivieren kann, weil man diesen Namen (oder ein ähnliches Wort) sagt, war jederzeit klar. Was dann kam, hat man schon bei verschiedenen Konferenzen beobachtet. Wenn der Redner dort Alexa oder Google Assistant erwähnt, setzen sich im Zuschauerraum mehrere Smartphones in Betrieb. Die Assistenten werden durch die Begriffe aufgeweckt und werten die Rede laufend aus. Dann beginnen sie selbst zu sprechen. Und warten auf Aussagen, die sie als Anweisungen verstehen. Es kann sich alles Mögliche daraus ergeben. Alexa hat eben ein Privatgespräch aufgezeichnet und verschickt. Zum Glück ging es nur um “Holzfußböden” (SPON, 25. Mai 2018).

Abb.: Gespräche konnte man schon immer belauschen

Google und das Böse

Wie Golem und Gizmodo melden, hat Google im Frühjahr 2018 den Satz “Don’t be evil” aus seinem Verhaltenskodex entfernt. Das Motto war von Anfang an umstritten. Es klingt zunächst einmal pathetisch und naiv. Zudem kollidiert es mit der gelebten Praxis. Google hat immer wieder systematisch Recht gebrochen und moralische Standards nicht eingehalten, etwa im Zusammenhang mit seiner Suchmaschine, mit seinem E-Mail-Dienst, mit Google Street View und Google Books. Das Unternehmen hat Persönlichkeits- und Grundrechte missachtet und ist mit einer gut gefüllten Kriegskasse gegen Gegner vorgegangen. Zugleich wurden wertvolle Projekte wie Google Arts & Culture (vormals Google Art Project) lanciert, die Menschen auf der ganzen Welt den virtuellen Zugang zu Museen und zur Kunst ermöglichen. Anfang April 2018 protestierten Mitarbeiter gegen das Militärprojekt Maven. Die Streitfrage ist, ob die im Unternehmen entwickelte künstliche Intelligenz für militärische Zwecke verwendet werden soll. In ihrem offenen Brief beziehen sich die Verfasser auch auf das Motto ”Don’t be evil”. Also auf ein Motto, das es nun nicht mehr gibt.

Abb.: Googles böser Blick?

Wenn Roboter wählen

Zur Bundestagswahl in Deutschland baten Zeitungen und Zeitschriften zur Online-Abstimmung. “Die Problematik der Online-Abstimmung ist insgesamt zur Zeit technisch nicht befriedigend gelöst, obgleich einige Anbieter wie der Kölner Stadtanzeiger doch einiges dazu investiert haben … Wie grotesk das werden kann, wenn unkontrollierte Abstimmungen durch Roboter, also durch Software-Mechanismen, unterlaufen werden … Wahlen.de hat es zum Glück natürlich nicht gelassen. Der Kontrollmechanismus zur Abstimmung wurde, nachdem die Attacke durch den automatisch wählenden Software-Roboter zunächst drei Tage unbemerkt blieb, verändert. Man konnte danach, wie schon erwähnt, bei wahlen.de nur noch einmal am Tag abstimmen (Meldung: “doppelte Stimmabgabe ist am selben Tag nicht möglich”). Am nächsten Tag konnte man neues Wahlschicksal spielen.” Das Zitat stammt aus dem Buch “Die Mondlandung des Internet” (UVK), das Rainer Kuhlen unter der Mitarbeit von Oliver Bendel geschrieben hat. Es ist vor 20 Jahren zur Bundestagswahl 1998 erschienen, was deutlich macht, dass die Probleme von damals mehr oder weniger die Probleme von heute sind.

Abb.: Wenn Roboter wählen

Zehn Regeln für gute virtuelle Assistenten

2013 wurden für eine Maschine mit natürlichsprachlichen Fähigkeiten sieben Metaregeln entwickelt, an die sie sich halten sollte. Diese sind so aktuell wie nie zuvor, seit Google Duplex durch die Medien geistert und Entwickler wie Benutzer beschäftigt. Eine Regel des GOODBOT lautete, er solle dem Benutzer klarmachen, dass er eine Maschine ist, eine andere, er solle nicht lügen. Es folgte, ebenfalls im Kontext der Maschinenethik, das LIEBOT-Projekt (2016), mit dem Erkenntnisse zu Vertrauenswürdigkeit und Verlässlichkeit, auch in Bezug auf Quellen, verbunden waren. Momentan entwickelt Oliver Bendel den BESTBOT. Alle drei Maschinen wurden im Rahmen der AAAI Spring Symposia (2016 – 2018) an der Stanford University sowie auf der ISAIM 2018 in Fort Lauderdale vorgestellt, der LÜGENBOT auch auf Konferenzen in Krakau (2016) und München (2016). Vor dem Hintergrund der bisherigen Projekte und in Anbetracht der jüngsten Entwicklungen – Google Assistant bzw. Duplex wurde erwähnt, aber auch Siri und Alexa haben neuartige Fähigkeiten – verfasste Oliver Bendel zehn Regeln (oder Metaregeln), die eine Diskussionsgrundlage sein sollen, mit Blick auf (auch moralisch) gute virtuelle Assistenten und Chatbots (die sozusagen eine Selbstverpflichtung abgeben). Sie sind insgesamt nicht erschöpfend (so wird etwa nicht auf die Stimme eingegangen), und sie sind jeweils nicht immer ausreichend, aber sie bieten Leitplanken und einen Ausgangspunkt für Richtlinien. Speziell für Sprachassistenten bietet sich das Moralmenü (MOME) an.

Abb.: Zehn Regeln für gute Maschinen

Können Roboter Gefühle entwickeln?

Können Roboter bald selbstständig Gefühle wie Hass oder Liebe entwickeln? Dies hat der WDR im April 2018 den Informations- und Maschinenethiker Oliver Bendel gefragt. Der Kontext war die Angst, die wir vor Maschinen haben oder haben können. Er antwortete: Maschinen werden solche Gefühle meines Erachtens nicht entwickeln können, da diese biologisch-chemische und genetisch-hormonelle Grundlagen brauchen. Die Vorstellung, dass sie solche Gefühle haben, kann natürlich Angst machen. Und emotionale Roboter wie Pepper zeigen Gefühle – aber haben eben keine. Eine wichtige Frage ist, ob sie überhaupt Gefühle zeigen sollen. Und ob sie uns weismachen sollen, dass sie Menschen oder ähnlich wie Menschen sind.” Uns ist in Europa die Angst vor künstlichen Kreaturen gleichsam eingepflanzt. Diese dachten wir uns bereits vor tausenden Jahren aus. Bei Homer und Ovid finden sich Schreckensgestalten wie Talos und Pandora, wobei die künstliche Frau in der Literatur einige Wandlungen erlebt hat. Später ging es ähnlich weiter, mit der Eisernen Jungfrau, dem Golem, Frankensteins Monster. Auch Ausnahmen gibt es, bereits in der Antike, wie Galatea, von Pygmalion erschaffen und von Aphrodite zum Leben erweckt. Das Interview kann über www1.wdr.de/wissen/technik/roboter-maschinenethik-interview-100.html nachgelesen werden.

Abb.: Robben haben Gefühle, Roboter nicht

Über die Schönheit weiblicher Roboter

Die Hersteller humanoider Roboter ahmen gerne Frauen nach. Es gibt mehrere Gründe dafür, und manche hat auch Hiroshi Ishiguro genannt, der in Wien bei der Konferenz “Robophilosophy” neben Joanna Bryson und Oliver Bendel eine Keynote gegeben hat. Frauen wirken, so eine Annahme, vertrauenswürdiger und anziehender auf uns als Männer. Gerade Kinder erschrecken nicht vor ihnen, selbst wenn es gar keine Menschen sind. Eine andere Annahme ist, dass Frauen und ihre künstlichen Ebenbilder vieles gemeinsam haben, weil Frauen selbst künstliche Elemente in sich und auf sich tragen. Die meisten Frauen schminken sich, überdecken Unreinheiten und Farbveränderungen, entfernen Haare, manche korrigieren scheinbare Mängel und Fehler mit Hilfe von Einspritzungen und Schönheitsoperationen. Tatsächlich sehen manche Frauen, die viel an sich gemacht haben und haben machen lassen, ein wenig aus wie Roboter, und genau das ist günstig für die Hersteller. Das Resultat sind Maschinen wie Sophia und Erica (die von Ishiguro geschaffen wurde). Sie sind künstliche Geschöpfe, gestaltet nach der künstlichen Schönheit der Frau. Dass es auch anders geht, zeigt ein männlicher humanoider Roboter, der Werbung für “Westworld” macht. Mit viel Akribie hat man ihm Haare verpasst, auf den Armen, im Gesicht, kleine Warzen und Male. Gerade dadurch sieht er besonders real (und interessant) aus. Es wäre an der Zeit, einen weiblichen Roboter zu schaffen, der sich an der natürlichen Schönheit der Frau orientiert. Nicht, um das eine oder das andere Verhalten zu kritisieren, sondern um Stereotype aufzubrechen. Künstlerisch und technisch möglich ist das allemal. Ishiguros Geminoid ist übrigens ein eigener Fall. Er orientiert sich an der künstlichen Schönheit des Mannes.

Abb.: Roboter können Stereotype festigen und aufbrechen

Diskussion um die elektronische Person

Haben Roboter Rechte bzw. soll man sie mit Rechten ausstatten? Die eine Frage ist ethisch, die andere rechtlich deutbar. Oliver Bendel hält als Ethiker nichts von Rechten für Roboter. Dies können weder empfinden noch leiden, sie haben kein Bewusstsein, sie sind keine echten Personen, aber auch keine echten Lebewesen. Im Zivilrecht kann man, so seine Meinung, ohne weiteres eine elektronische Person konstruieren, die man verklagen kann und die dann haften muss (etwa über ein Budget, das sie hat, oder einen Fonds, mit dem sie verbunden ist). Einerseits ist das die Lösung für das Problem, dass sich in vielen Fällen kaum mehr eindeutig verantwortliche natürliche oder juristische Personen ausmachen lassen. Andererseits eben nicht, denn woher sollte das Geld kommen – wenn nicht von natürlichen und juristischen Personen, die mit dem Roboter in irgendeiner Verbindung stehen? Und bei selbstlernenden Systemen wie Tay wird es vollends kompliziert, wobei dieser Fall ins Strafrechtliche hineinreicht. Eine Gruppe von KI-Forschern, Philosophen, Theologen und Rechtswissenschaftlern hat sich in einem offenen Brief gegen die Schaffung des Status einer elektronischen Person gewandt, wie eine Arbeitsgruppe des Europäischen Parlaments sie dieses Jahr vorgeschlagen hat. Der Artikel “Streit um Rechte von Robotern” stellt die unterschiedlichen Positionen dar. Er ist am 21. April 2018 in der Aargauer Zeitung erschienen und kann über www.aargauerzeitung.ch/leben/forschung-technik/streit-um-rechte-von-robotern-wer-haftet-wenn-etwas-schief-geht-132457958 aufgerufen werden.

Abb.: Braucht es eine elektronische Person?

Black Ducks

Eine kleine schwarze Ente ist seit vielen Jahren das Favicon der Website von Oliver Bendel. Die NZZ schreibt in einem Beitrag vom 20. April 2018: “Als schwarze Enten werden im Arabischen schwarze Schafe, also ausgegrenzte Gruppenmitglieder bezeichnet.” (NZZ, 20. April 2018) In “Jenseits von Himmel und Hölle” von Daniel Steinvorth geht es um eine Sendung auf YouTube, die von den Betreibern wie folgt beschrieben wird: “Black Ducks is a talk show on YouTube that interviews atheists, humanists, and non-religious individuals from the Arab world … to achieve a secular society in the Middle East and North Africa. Another goal is to offer solace and courage to those who are atheists and humanists in secret so they may know they are not alone in the world.” (YouTube-Channel The Black Ducks) Die Betreiber und Mitwirkenden, die sich Vernunft und Aufklärung verschrieben haben, setzen sich Lebensgefahr aus. Der Gründer der Sendung, Ismail Mohamed, wurde in Alexandria fast erschossen und in Kairo vom Mob bedrängt und mit dem Messer bedroht. Im Teaser des NZZ-Beitrags heißt es: “Wer in der arabischen Welt nicht an Gott glaubt, gilt wahlweise als Extremist oder als psychisch gestört. Auch in Ägypten steht Atheismus womöglich bald unter Strafe.” Am Rande sind Begriffe und Methoden von Wirtschafts- und Informationsethik gefragt: “2015 bewirkte eine Beschwerde gegenüber Google …, dass die Sendung zweimal für mehrere Monate eingestellt werden musste. Mohamed verlor auf einen Schlag seine Follower und seine Werbeeinnahmen …” (NZZ, 20. April 2018)

Abb.: Eine kleine gelbe Ente in Sevilla

Der Niedergang der Sexualwissenschaft

Die Deutsche Presse-Agentur (dpa) war vor einiger Zeit im Gespräch mit Oliver Bendel, für den Beitrag “Sexroboter – Hype oder Trend?”. Am Rande erwähnte der Informations- und Maschinenethiker aus Zürich, dass die Sexualwissenschaft in Deutschland kaum noch eine Bedeutung habe. Nach seiner Einschätzung tut man sich an den Hochschulen schwer mit dem Thema. Die dpa ging dem Hinweis nach und verfasste einen Beitrag, der in der ÄrzteZeitung veröffentlicht wurde. Im Teaser heißt es: “Deutschland hat nur zwei große sexualwissenschaftliche Zentren. Der Westen sei geradezu prüde bei dem Thema, bemängeln Forscher – dabei würden sexuelle Krankheiten medizinisch oft auf andere Probleme hindeuten.” (ÄrzteZeitung, 12. Februar 2018) “Die aktuelle Situation in Deutschland ist ein Armutszeugnis”, wird Heinz-Jürgen Voß von der Gesellschaft für Sexualwissenschaft zitiert. “Überall dort, wo Menschen mit Menschen zu tun haben, in Kitas, Schulen, Einrichtungen der Sozialen Arbeit sowie Bildungseinrichtungen für Erwachsene, spielten Fragen zu Körper, Geschlecht und Sexualität eine Rolle.” Das bedeutet, so Voß, “dass Fachkräfte ausgebildet sein sollten, professionell mit den entsprechenden Fragen umzugehen” (ÄrzteZeitung, 12. Februar 2018). Der Artikel “Sex auf dem Abstellgleis” ist über www.aerztezeitung.de/panorama/article/957332/50-jahre-nach-1968-sex-abstellgleis.html abrufbar.

Abb.: Der Niedergang der Sexualwissenschaft

KI ist hier, um zu bleiben

In der Automation & Robotics vom März 2018, einer Beilage im Manager Magazin, findet sich ein Beitrag von Jan Philipp Albrecht (innen- und justizpolitischer Sprecher der Grünen-Fraktion im Europäischen Parlament). Er schreibt: “Wir stehen an der Schwelle zu einer Ära, in der immer höher entwickelte Technologien eine neue industrielle Revolution entfesseln können. Künstliche Intelligenz ist allgegenwärtig, und sie ist hier, um zu bleiben.” Unter dem Stichwort “Simplexity” führt Prof. Dr. Andreas Dengel (DFKI) aus: “KI definiert die neue Arbeitsteilung von Mensch und Maschine”. Im Interview erklärt Oliver Bendel, was Maschinenethik ist und wie sie mit KI und Robotik zusammenhängt. Er ist gegen eine vorschnelle Regulierung in der Entwicklung. Wenn Regulierung stattfinden soll, dann in den Anwendungsgebieten. An anderer Stelle hatte der Informations- und Maschinenethiker eine Roboterquote für öffentliche Räume gefordert, zum einen wegen der Kollisionsgefahr (bei Transport- und Sicherheitsrobotern), zum anderen wegen der Gefahr der Überwachung (bei Servicerobotern aller Art). Das Interview kann hier heruntergeladen werden.

Abb.: KI ist hier, um zu bleiben