Schlagworte: Maschinenethik

The LADYBIRD Project

The LADYBIRD project starts in March 2017. More and more autonomous and semi-autonomous machines make decisions that have moral implications. Machine ethics as a discipline examines the possibilities and limits of moral machines. In this context, Prof. Dr. Oliver Bendel developed various design studies and thus submitted proposals for their appearance and functions. He focused on animal-friendly machines which make morally sound decisions, and chatbots with specific skills. The project is about a service robot, which shall spare beneficial insects – a vacuum cleaner called LADYBIRD. An annotated decision tree modelled for this objective and a set of sensors will be used. Three students work from March to October in the practice project at the School of Business FHNW. Since 2013, the principal Oliver Bendel published several articles on LADYBIRD and other animal-friendly machines, e.g., “Ich bremse auch für Tiere (I also brake for animals)” in the Swiss magazine inside.it. The robot will be the third prototype in the context of machine ethics at the School of Business FHNW. The first one was the GOODBOT (2013), the second one the LIEBOT (2016). All these machines can be described as simple moral machines.

Fig.: The robot should spare the ladybird

Der Roboter im Recht

Anfang des Jahres war im Europäischen Parlament der Bericht “Civil Law Rules on Robotics” vorgelegt und die Regulierung von Künstlicher Intelligenz und Robotik gefordert worden. Am 23. Februar 2017 fragte sich Zündfunk (Bayern 2) deshalb: “Welche Gesetze brauchen Roboter?” Gregor Schmalzried hatte bereits am Morgen den Informations- und Maschinenethiker Oliver Bendel von der Hochschule für Wirtschaft FHNW zum Thema befragt, der das Dokument im Detail kannte, weil er es im vergangenen Jahr für einen Abgeordneten in Brüssel kommentiert hatte. Auch der Informatiker Matthias Althoff von der Technischen Universität München kam zu Wort. Der Beitrag stieg ein mit dem Vorschlag von Bill Gates, eine Robotersteuer einzuführen (wozu Oliver Bendel wiederholt seine Meinung geäußert hatte, auch im Deutschen Bundestag), und es wurde aus dem genannten Bericht zitiert. Matthias Althoff nahm Stellung zur elektronischen Person, die er im Moment für Science-Fiction hält, Oliver Bendel zu den Robotergesetzen von Asimov, darauf hinweisend, dass diese für die Fiktionalität, nicht die Realität entwickelt wurden. Die Sendung kann über www.br.de/radio/bayern2 nachgehört werden.

Abb.: Wo muss man den Einsatz von Robotern regulieren?

Industrieroboter in der Einstein-Stadt

In Ulm wurde nicht nur Albrecht Ludwig Berblinger geboren, der einen der ersten Flugapparate gebaut hat, sondern auch, über hundert Jahre später, Albert Einstein. Heute sind in der Großstadt am Fuße der Schwäbischen Alb mehrere renommierte Hochschulen und Forschungseinrichtungen angesiedelt. Am 22. Februar 2017 findet dort zum 10. Mal der Ulmer Robotertag statt. Veranstalter sind die Hochschule Ulm und Mitsubishi Electric Europe. “Auf der Jubiläumsveranstaltung präsentieren unsere Referenten nicht nur neueste Trends der Greifertechnik und der Servicerobotik, sondern setzen sich auch mit den ethischen Aspekten einer sich rasant verändernden Arbeitswelt auseinander.” (Flyer Ulmer Robotertag) “Industrie-Anwendungen und Vorstellung der Applikationen im Foyer” – damit beginnt Wolfram Zielke von Mitsubishi Electric Europe B.V. den Kongress. Daran schließt der Vortrag “Kollege und Kollegin Roboter – schöne neue Welt!” von Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) an. “Robotergestützte Rauheits- und Formmessung mit einem Streulichtsensor” ist der Titel des nächsten Beitrags (Rainer Brodmann, OptoSurf GmbH), gefolgt von “Entwicklung und Herstellung einer vollautomatischen Regen-/Lichtsensor-Montagelinie unter Anwendung von Mitsubishi-Robotern” (Dieter Süß, Schiller Automation). Nach dem Mittagessen werden weitere Vorträge, Vorführungen und Ausstellungen geboten. Detaillierte Informationen über www.hs-ulm.de.

Abb.: Das Stadthaus in Ulm

Machinery and Jealousy

PlayGround is a Spanish online magazine, founded in 2008, with a focus on culture, future and food. Astrid Otal asked the ethicist Oliver Bendel about the conference in London (“Love and Sex with Robots”) and in general about sex robots and love dolls. One issue was: “In love, a person can suffer. But in this case, can robots make us suffer sentimentally?” The reply to it: “Of course, they can make us suffer. By means of their body, body parts and limbs, and by means of their language capabilities. They can hurt us, they can kill us. They can offend us by using certain words and by telling the truth or the untruth. In my contribution for the conference proceedings, I ask this question: It is possible to be unfaithful to the human love partner with a sex robot, and can a man or a woman be jealous because of the robot’s other love affairs? We can imagine how suffering can emerge in this context … But robots can also make us happy. Some years ago, we developed the GOODBOT, a chatbot which can detect problems of the user and escalate on several levels. On the highest level, it hands over an emergency number. It knows its limits.” Some statements of the interview have been incorporated in the article “Última parada: después del sexo con autómatas, casarse con un Robot” (February 11, 2017) which is available via www.playgroundmag.net/futuro/sexo-robots-matrimonio-legal-2050-realdolls_0_1918608121.html.

Fig.: Is the bitch a robot or not?

Max Bill und Steve Jobs

Ein Interview mit Oliver Bendel ist in der neuen Mac Life (3/2017) erschienen, unter dem Titel “Die Diskussion um die elektronische Person hat eben erst begonnen!”. Grundlage war ein intensiver Austausch über Smartphones, Handyromane, die lange vor diesen existierten, die Vorbilder für das Design von Apple und virtuelle Assistenten wie Siri und Cortana. Publiziert wurden vor allem die Aussagen, die sich auf Smartphones und Assistenten bezogen. Zum Design führte der in der Schweiz lebende Wissenschaftler ursprünglich aus, dieses habe ihn an seine Kindheit erinnert: “In unserer Wohnung in Ulm stand der Schneewittchensarg von Braun. In meiner Studienzeit jobbte ich im Café Ulmer Brettle, wie es damals hieß. Mein Chef balancierte gerne mit dem stapelbaren Geschirr TC 100, das er sich geleistet hatte. Das stammte alles aus der Hochschule für Gestaltung in Ulm, der HfG, die von Otl Aicher und Max Bill geleitet und geprägt wurde. Inge Scholl hat sie mitbegründet. Sie habe ich mehrmals getroffen. Wir haben im Stadtarchiv Bilder von Hans und Sophie gesichtet und ausgesucht. In der Geburtsstadt von Max Bill habe ich auch eine Weile gewohnt, in Winterthur.” Er wünscht sich eine Renaissance guten Designs, wie er auch mit Blick auf Steve Jobs äußerte. Was würde der heute machen, wenn er noch leben würde? “Vielleicht würde er sich … Bügeleisen und Rasierapparate vorknöpfen. Damit steht es ja designmäßig nicht zum Besten.” Der finale Text kann auch online abgerufen werden, über medium.com/mac-life/interview-mac-life-oliver-bendel-aebde2c2a39b#.2qqwmthqv.

Abb.: Ein Tablet im Gebrauch

Die Macht der Meinungsroboter

Der Artikel “So erkennen Sie Meinungsroboter” von Teresa Sickert widmet sich dem Phänomen der Social Bots. “Social Bots sind Programme, die in sozialen Netzwerken menschliche Nutzer simulieren – etwa zur politischen Stimmungsmache. Das klappt mal mehr und mal weniger gut. Diese Tipps helfen, Bots zu entlarven.” (Spiegel Online, 19. Januar 2017) Und weiter: “Meinungsroboter haben ein Imageproblem. Seit dem US-Wahlkampf wird lebhaft über sogenannte Social Bots diskutiert, über Accounts, die nur so wirken, als stecke ein menschlicher Nutzer dahinter. Auf Plattformen wie Twitter tweeten, liken und retweeten mittlerweile ganze Netze von automatisierten Accounts.” (Spiegel Online, 19. Januar 2017) Zitiert wird mehrmals Oliver Bendel, der sich als Maschinenethiker mit guten und bösen Chatbots befasst und solche auch baut. 2013 ist der GOODBOT entstanden, 2016 der LÜGENBOT. Diesen rechnet er zu den Münchhausen-Maschinen. Am Rande befasst er sich mit Vervielfältigungs- und Meinungsmaschinen wie den Social Bots. Bei einem Vortrag an der Universität Zürich Ende 2016 hat er deren Chancen und Risiken skizziert. Der Artikel ist abrufbar über www.spiegel.de/netzwelt/web/social-bots-entlarven-so-erkennen-sie-meinungsroboter-a-1129539.html.

Abb.: Die Bots lachen sich tot

Einblicke in aktuelle Praxisfelder der Ethik

Im Rahmen der Ringvorlesung “Angewandte Ethik – Transdisziplinäre Einblicke in aktuelle Praxisfelder der Ethik” fanden seit 11. Oktober 2016 an der Hochschule Konstanz bereits einige Vorträge statt. Prof. Dr. Regine Kather (Philosophisches Seminar, Albert-Ludwigs-Universität Freiburg) berichtete am 22. November 2016 “Von der Würde des Menschen und der Würde der Kreatur” und entwickelte “Grundprinzipien einer integrativen Bioethik”, PD Dr. Claudia Pawlenka (Philosophisches Institut, Heinrich-Heine-Universität Düsseldorf) ging am 20. Dezember auf “Ethische Fragen im Sport” ein und konkret auf “Perfektionierung und Kommodifizierung des Menschen”. Der Vortrag von PD Dr. Joachim Boldt (Institut für Ethik und Geschichte der Medizin, Albert-Ludwigs-Universität Freiburg) trug den Titel “Künstliches Leben – Perspektiven der synthetischen Biologie” (10. Januar 2017). Prof. Dr. Oliver Bendel (Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft FHNW) spricht am 17. Januar über “Die Moral in der Maschine – Maschinenethik”. Zudem geht er kurz auf die Informationsethik und die Roboterethik ein und auf die Vorschläge des Europäischen Parlaments und des IEEE zur Regelung von Robotik und KI. Weitere Informationen über www.htwg-konstanz.de.

Abb.: Von künstlichem Leben und natürlicher Technik

Maschinelle Moral im aktuellen P.M. Magazin

In der Februarausgabe von P.M. Magazin ist ein langes Interview mit Oliver Bendel abgedruckt. Am 9. September trafen sich der Redakteur Rüdiger Barth und der Wissenschaftler auf dem Campus Brugg-Windisch der FHNW und sprachen über Maschinenethik, Künstliche Intelligenz und Robotik. P.M. ist eine populärwissenschaftliche Zeitschrift und hat eine Auflage von ca. 163.000 Exemplaren. Der Titel des sechsseitigen Beitrags – neben dem Interview finden sich noch Informationen zu Oliver Bendel und zu den Robotikgesetzen von Isaac Asimov – lautet “Ich würde das Auto ein bisschen dumm lassen”. Der Informationsethiker und Maschinenethiker kann sich vorstellen, dass Autos klug genug sind, für bestimmte Tiere zu bremsen, wenn die Luft rein ist, sie aber zu dumm dafür sind, Menschen zu qualifizieren, auf ihre Eigenschaften zu schauen, um sie dann bei einem Unfall zu verschonen oder nicht zu verschonen, was man wiederum als klug bezeichnen könnte, da es keine befriedigenden Lösungen für solche Entscheidungen gibt. Auch das Quantifizieren ist, zumindest bei kleinen Zahlen, nicht angemessen. Warum sollte jemand getötet werden, nur weil zwei Passanten in der Nähe stehen? Kaum jemand würde das akzeptieren, der Betroffene nicht, die Familie nicht, die Freunde nicht. Die zwei Passanten wären natürlich aufgeschlossener für solche Abwägungen, aber auch nur, wenn sie zusammen unterwegs sind und nicht alleine, was wiederum die Ungerechtigkeit zeigt. Solche Gedankenspiele dürfen nicht mit der Wirklichkeit verwechselt werden. Sie sind aber ein klassisches Mittel, um Grundannahmen und Widersprüche zu erkennen und am Ende die Wirklichkeit auch gestalten zu können.

Abb.: Künstliche Intelligenz und maschinelle Moral

Regeln für Roboter

“EU plant erstmals Regeln für Roboter” – so der Titel eines Beitrags auf EurActiv von Daniel Mützel vom 10. Januar 2017. Im Teaser heißt es: “Am Donnerstag entscheidet der Rechtsausschuss des Europäischen Parlaments über einen Resolutionsentwurf, der den Einsatz ziviler Roboter reglementieren soll. Der Text könnte die Grundlage für die ersten europäischen Robotergesetze werden.” (Website EurActiv) Bereits im Sommer 2016 hat Oliver Bendel von der Hochschule für Wirtschaft FHNW auf Bitte eines Abgeordneten den Entwurf in seiner damaligen Fassung im Detail kommentiert. In seiner Zusammenfassung schrieb er: “Die Robotertypen sind sehr unterschiedlich und müssen auseinandergehalten werden. Im Speziellen vermisse ich auch die Unterscheidung zwischen Hardware- und Softwarerobotern. Wichtig ist auch die Unterscheidung zwischen dem, was bereits der Fall ist, und dem, was vielleicht oder wahrscheinlich der Fall sein wird. Bewusstsein bei Robotern halte ich für Science-Fiction.” Für den Artikel wurden Oliver Bendel und Eric Hilgendorf von der Universität Würzburg, Experte für Roboterrecht, zu den Auswirkungen des Einsatzes von Industrie- und Servicerobotern befragt. Er kann über www.euractiv.de/section/innovation/news/eu-plant-erstmals-regeln-fuer-roboter aufgerufen werden.

Abb.: Welche Regeln sollen für Roboter gelten?

Der Roboterkopf Flobi

Bei den VDI-Konferenzen “Humanoide Roboter” und “Assistenzroboter in der Produktion”, die zeitgleich am 13. und 14. Dezember 2016 in Aschheim bei München stattfanden, gab es zahlreiche hochkarätige Vorträge und mehrere Exponate. Zu letzteren gehörte Flobi, der “intelligente Roboterkopf”. Er gemahnt an den orakelnden Kopf des Vergil, der vor allem durch seinen doppeldeutigen Ratschlag berühmt geworden ist, an dem der Dichter der Legende nach verstarb, und an den sprechenden Kopf, der angeblich Gerbert von Aurillac (den Erzbischof von Reims und späteren Papst Silvester II.) beriet. Auf einer Informationskarte der Forscher des Exzellenzclusters Kognitive Interaktionstechnologie (CITEC) an der Universität Bielefeld steht geschrieben: “Er kann Emotionen ausdrücken und reagiert mimisch auf sein Gegenüber. Mithilfe von 16 Antriebselementen lächelt Flobi beispielsweise, schaut verschmitzt oder ernst. CITEC erforscht, wie und unter welchen Bedingungen Flobis Mimik Menschen motivieren kann – etwa zu längerem Durchhalten beim Ausdauertraining.” Am 14. Dezember wurden in Vorträgen der Konferenz “Humanoide Roboter” zwei weitere besondere Wesen vorgestellt. Der frischgebackene Doktor Daniel Kühn erläuterte die zwei- und vierbeinigen Posen des hominiden Roboters Charlie, Prof. Dr. Oliver Bendel die Lügenstrategien des Lügenbots, einer virtuellen Münchhausen-Maschine.

Abb.: Flobi macht Pause

Virtuelle Realität im Funkhaus Europa

Bei “Funkhaus Europa – Cosmo” war Claudia D’Avino am 6. Dezember 2016 im Gespräch mit Oliver Bendel. Im ersten Interview unterschied der Technikphilosoph und Wirtschaftsinformatiker, der live aus dem SRF-Studio in Zürich zugeschaltet war, in Virtual Reality, Augmented Reality und eine Realität, in der Software- und Hardwareroboter zugegen sind. Er berichtete von eigenen Erfahrungen mit Oculus Rift. Im zweiten erklärte er, was moralische und unmoralische Maschinen sind, und gab Beispiele für Prototypen. Im dritten ging es um Gewalt im Virtuellen, mit Hilfe von Waffen oder über Formen der Sexualität. Oliver Bendel wies auf den Unterschied zwischen Büchern und Filmen auf der einen Seite und Computerspielen und VR-Anwendungen auf der anderen Seite hin. Dort sei man eher passiv, man konsumiere und lasse die Phantasie schweifen, hier sei man eher aktiv, man agiere und lebe die Phantasien aus. Als Ethiker würde er hier gerne zurücktreten und die Mediziner und Psychologen vortreten lassen. Wenn etwa Therapien möglich seien mit Hilfe der virtuellen Realität, dürfe es nicht zu vorschneller Ächtung von Gewalt in dieser kommen. Weitere Informationen zur Sendung und der Podcast über www.wdr.de/programmvorschau/funkhauseuropa/uebersicht/2016-12-06/.

Abb.: Das Funkhaus Europa sitzt in Köln

Podiumsdiskussion über täuschende Maschinen

“Should we develop robots that deceive?” Diese Frage diskutierten Ron Arkin (Georgia Tech), Oliver Bendel (Hochschule für Wirtschaft FHNW), Jaap Hage (Universiteit Maastricht) und Mojca Plesnicar (Inštitut za kriminologijo pri Pravni fakulteti v Ljubljani) auf dem Podium der Konferenz “Machine Ethics and Machine Law”. Ron Arkin forschte wiederholt für das Pentagon an Robotern, die Maschinen und Personen täuschen und Personen und Einrichtungen schützen. Er stellte Tiere vor, die andere Tiere täuschen, und skizzierte, wie dieses Verhalten auf Roboter übertragen werden kann. Oliver Bendel, der Vater des LIEBOT, formulierte sechs Thesen. Die fünfte lautete: “We should … develop deceptive and lying machines to be able to fight against deceptive and lying machines.” Und er kam zum Schluss: “After all, deceptive and lying machines are important for the improvement of artificial intelligence.” Nach den Statements von Jaap Haage und Mojca Plesnicar diskutierte man miteinander und mit dem Publikum, angeleitet und vermittelt von Amit Kumar Pandey (SoftBank Robotics). Die Konferenz am 18. und 19. November 2016 in Krakau dürfte nach dem Symposium “Ethical and Moral Considerations in Non-Human Agents” (21. – 23. März in Stanford) die wichtigste internationale Konferenz für Maschinenethik im Jahre 2016 gewesen sein. An den zwei Tagen trugen u.a. Ron Arkin, Oliver Bendel (zusammen mit Kevin Schwegler), Elizabeth Kinne, Lily Frank, Joanna Bryson und Kathleen Richardson vor. Es liegt ein Proceedingsband mit den Extended Abstracts vor.

Abb.: Nach der Podiumsdiskussion

Machine Ethics and Machine Law

Die Konferenz “Machine Ethics and Machine Law” am 18. und 19. November in Krakau dürfte nach dem Symposium “Ethical and Moral Considerations in Non-Human Agents” (21. – 23. März in Stanford) die wichtigste internationale Konferenz für Maschinenethik im Jahre 2016 sein. Die Keynotes am 19. November stammen von Ron Arkin (“Lethal Autonomous Robots and the Plight of the Noncombatant”) und Amit Pandey (“Contemporary Issues on Ethical Intelligence of a Socially Intelligent Consumer Robot”). In der darauffolgenden Podiumsdiskussion geht es um die Frage: “Should we develop robots that deceive?” Es diskutieren Ron Arkin, Oliver Bendel, Jaap Hage und Mojca Plesnicar. In den Sessions am Nachmittag referieren u.a. Oliver Bendel, Lily Frank und Kathleen Richardson. Jaap Hage hält am 19. November seine Keynote zur Frage “Under which circumstances can we hold a machine responsible for its acts?”, Ewa Lukasik ihre Keynote über “Human Autonomy and the Hazards of Principle Agency in an Era of Expanding AI”. Es folgen eine weitere Podiumsdiskussion und Vorträge u.a. von Luís Moniz Pereira und Georgi Stojanov. Das gesamte Programm kann über die Website der Konferenz (machinelaw.philosophyinscience.com/technical-program/) eingesehen werden; dort findet sich auch der Proceedingsband mit den Abstracts.

Abb.: Ist Obelix so freundlich, wie er tut?

Gibt es Algorithmen für Empathie?

Am 28. Oktober 2016 fand im Paul-Löbe-Haus in Berlin der 3. Netzpolitische Kongress unter dem Motto “Für eine Ethik der digitalen Gesellschaft” statt. Der wirtschaftspolitische Sprecher der Fraktion der Bundestagsfraktion der Grünen, Dieter Janecek, schreibt auf seiner Website: “Gemeinsam mit Olivia Klose (Software Development Engineer bei Microsoft) und Prof. Dr. Oliver Bendel (Wirtschaftsinformatiker, Wissenschaftler und Autor) haben wir uns mit ‘Deep Learning’ auseinandergesetzt: Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?” Und weiter: “Eines der zentralen Ziele des Workshops war, die Unterschiede zwischen rein regelbasierten und selbstlernenden Systemen sowohl technisch als auch mit Blick auf die später zu beantwortenden Fragen der Maschinenethik deutlich zu machen. Rein regelbasierten Systemen lassen sich Verhaltensweisen, die man moralisch nennen kann, anhand von annotierten Entscheidungsbäumen beibringen, die Prof. Oliver Bendel maßgeblich entwickelt hat.” (Website Janecek) Angespielt wird damit auf den Beitrag “Annotated Decision Trees for Simple Moral Machines”, erschienen 2016 im Proceedingsband der AAAI Spring Symposium Series. “Aus ethischer Perspektive stellt sich aber nicht nur die Frage, nach welchen Prinzipien diese Maschinen handeln sollen, sondern auch, welche Maschinen wir durch entsprechende Programmierung überhaupt zu moralischen Maschinen machen wollen, wann moralische Vorgaben vielleicht unverhältnismäßige Einschränkungen in der Funktionsweise einer Maschine darstellen, ob wirklich alle denkbaren Szenarien auch immer vorhersehbar sind, und welche Art von Aufgaben wir überhaupt auf Maschinen übertragen möchten.” (Website Janecek) Der ganze Beitrag ist über http://www.dieterjanecek.de/de/article/287.nk16-f%C3%BCr-eine-ethik-der-digitalen-gesellschaft.html abrufbar.

Abb.: Das Paul-Löbe-Haus in Berlin

Beitrag zu Cyborgs

Im Wirtschaftslexikon von Gabler ist seit 3. November 2016 ein neuer Beitrag zu finden, und zwar zu Cyborgs. Es heißt dort: “Ein Cyborg (von engl. ‘cybernetic organism’) ist ein Lebewesen, das technisch ergänzt oder erweitert ist. Damit ist er eine Ausprägung des Human Enhancement. Dieses dient der Vermehrung menschlicher Möglichkeiten und der Steigerung menschlicher Leistungsfähigkeit und damit – aus Sicht der Betroffenen und Anhänger – der Verbesserung und Optimierung des Menschen. Es gibt sowohl menschliche als auch tierische Cyborgs. Die Bewegung des Transhumanismus, von der in diesem Zusammenhang häufig die Rede ist, propagiert die selbstbestimmte Weiterentwicklung des Menschen oder die fremdbestimmte Weiterentwicklung von Tieren in die Richtung verständiger, quasi halbmenschlicher Wesen mithilfe wissenschaftlicher und technischer Mittel. Cyborgs sind ein Topos in Science-Fiction-Büchern und -Filmen.“ Das Thema wird auch aus der Perspektive von Informationsethik und Maschinenethik beleuchtet. Der Beitrag stammt von Oliver Bendel und kann über http://wirtschaftslexikon.gabler.de/Definition/cyborg.html heruntergeladen werden.

Social Bots

Das KLEINE LEXIKON DER INFORMATIONSETHIK hat einen neuen Eintrag, nämlich zu Social Bots. Diese ziehen derzeit die Aufmerksamkeit auf sich. Social Bots sind Bots, die in sozialen Medien, etwa Microblogs und sozialen Netzwerken, Profile nutzen, die für sie eingerichtet wurden, oder selbst Profile einrichten, und die Kommentare schreiben und Informationen verbreiten, bei denen es sich oft um Gerüchte, Halbwahrheiten und Falschinformationen handelt. Dadurch, dass man sie beliebig vervielfältigen kann, entstehen regelrechte Armeen von künstlichen Meinungsmachern. Die meisten Experten halten Social Bots für eine problematische Erscheinung. Und man kann wenig dagegen tun. Überhaupt wird immer mehr Robocontent generiert, in Form von automatisch erstellten Büchern, auf Newsportalen, auf denen Informationen automatisiert veröffentlicht werden, über Chatbots und virtuelle Assistenten. Das KLEINE LEXIKON DER INFORMATIONSETHIK enthält inzwischen ca. 200 Begriffe. Die meisten von ihnen wurden von Oliver Bendel eigens für die Plattform verfasst. Mehrere Definitionen sind angelehnt an das Online-Glossar der Learntec aus dem Jahre 2008 von Oliver Bendel und Stefanie Hauske. Manche finden sich in stark erweiterter Form im Wirtschaftslexikon von Gabler (wirtschaftslexikon.gabler.de) bei den Beiträgen von Oliver Bendel. Weitere verwendete Publikationen sind auf www.oliverbendel.net und in der Literaturliste von informationsethik.net aufgeführt. Das Lexikon ist ein kostenloses Angebot für Schülerinnen und Schüler, Studierende, Lehrkräfte, Mitarbeitende von Unternehmen und Non-Profit-Organisationen sowie Journalistinnen und Journalisten.

Abb.: Social Bots sind die Papageien der sozialen Medien

Algorithmen als eigenständige Akteure

“Algorithmische Auswahl- und Entscheidungsprozesse prägen unseren Alltag, unsere Wahrnehmung der Welt und unser tägliches Handeln. Ihre Bedeutung steigt in einer durch Automatisierung und Big Data gekennzeichneten digitalen Gesellschaft in sämtlichen Lebensbereichen rasant an. Damit werden sowohl die Frage nach der Machtausübung mittels Algorithmen als Instrumente als auch jene nach der Macht von Algorithmen als eigenständige Akteure virulent. Inwieweit handeln Algorithmen autonom, selbstbestimmt und intentional? Sind sie kontrollier- und ihre Ergebnisse vorhersehbar? Können Algorithmen moralisch handeln? Welche gesellschaftlichen Herausforderungen ergeben sich aus einer ethischen Perspektive und wie können diese bewältigt werden?” So ein Flyer zu einer Veranstaltung, die den Titel “Die Macht der Algorithmen: Werkzeuge oder Akteure?” trägt und am 22. November 2016 von 18:15 – 19:45 Uhr an der Universität Zürich stattfindet. Und weiter: “Nach einer thematischen Einführung durch Prof. Dr. Michael Latzer (IPMZ – Abt. Medienwandel & Innovation, UZH) folgen Inputreferate zur Einschätzung der Macht der Algorithmen aus technischer und ethischer Perspektive durch Prof. Dr. Thomas Hofmann (Data Analytics Lab, Departement Informatik, ETH Zürich) und Prof. Dr. Oliver Bendel (Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft, FHNW).”

Abb.: Bestimmen Algorithmen, wohin wir laufen?

Ethik und KI

Das Paul-Löbe-Haus ist ein Veranstaltungs- und Diskussionsort des Deutschen Bundestags, gelegen am Südrand des Spreebogenparks. Dort fand am 29. Oktober 2016 ab 9 Uhr der 3. Netzpolitische Kongress von Bündnis 90/Die Grünen mit dem Titel “Für eine Ethik der digitalen Gesellschaft” statt. Ein Schwerpunkt war der Zusammenhang zwischen Künstlicher Intelligenz (KI) und Ethik. Dr. Anton Hofreiter hielt um 10 Uhr die Eröffnungsrede. Dann war Sascha Lobo zugeschaltet. In sechs Workshops ging man Fragen der Informations-, Technik- und Maschinenethik nach. Workshop Nr. 5, moderiert von Christian Ströbele, galt dem Thema “Drohnen – eine Ethik für neue Formen der Überwachung und des Krieges”. Es diskutierten Anja Dahlmann von der Stiftung Wissenschaft und Politik und Malte Spitz, Datenschutzexperte. Workshop Nr. 6, moderiert von Dieter Janecek, war dem Thema “Deep Learning – Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?” gewidmet. Olivia Klose von Microsoft erklärte den Unterschied zwischen schwacher und starker KI. Oliver Bendel von der Hochschule für Wirtschaft FHNW verortete seine eigenen Projekte in der schwachen KI und erklärte, warum selbstlernende Systeme in offenen Welten nicht immer eine gute Idee sind. Weitere Informationen über www.gruene-bundestag.de/termin/3-netzpolischer-kongress-nk16-fuer-eine-ethik-der-digitalen-gesellschaft.html.

Abb.: Klose, Janecek und Bendel vor dem Workshop (Foto: Kai Wargalla)

Darf ein Sexroboter einen Orgasmus vortäuschen?

“Soll ein Sexroboter einen Orgasmus vortäuschen dürfen?” So lautet der Titel eines Artikels von Tom Strohschneider im Neuen Deutschland. Angelehnt ist er an eine Frage in einem Buchbeitrag von Oliver Bendel, aus dem mehrmals zitiert wird und der im Sammelband “Programmierte Ethik” (Heise Medien, 2016) enthalten ist. Im Teaser des Artikels heißt es: “Darf ein Sexroboter einen Orgasmus vortäuschen? Sollte er vielleicht sogar? Die Frage mag auf den ersten Blick wie eine seltsame, nur für einen eher kleinen Teil der Öffentlichkeit interessante anmuten. Doch es steckt mehr dahinter: Je näher sich Mensch und Maschine durch die technologische Entwicklung kommen (können), desto drängender wird nach ethischen Antworten für die Beziehungen zwischen Robotern und uns gesucht.” (Neues Deutschland, 21. Oktober 2016) Zitiert werden u.a. Kathleen Richardson, Charles Ess und eben Oliver Bendel. Die beiden Erstgenannten lehnen Robotersex ab. Richardson hat vor einiger Zeit eine Petition verfasst für ein Verbot von Sexmaschinen. Sie glaubt, dass echten Frauen durch ihre künstlichen Kopien eine weitere Reduktion droht. Faktisch findet diese allerdings bei Dildos und Vibratoren statt, und diese Reduktion gilt nicht Frauen, sondern Männern. Ess ist ebenso kritisch: “Wer sich nur noch auf die Suche nach dem vollkommenen Sex mit Maschinen mache, werde nicht nur im Bett mit Zombies landen, sondern selbst ein solcher werden.” (Neues Deutschland, 21. Oktober 2016) Oliver Bendel sieht sowohl die Risiken als auch die Chancen. Für ihn bleibt die Zustimmung oder Ablehnung gegenüber Robotersex letztlich die Privatsache urteilsfähiger Menschen.

Abb.: Darf ein Sexroboter einen Orgasmus vortäuschen?

Maschinenethik in der Fabrikhalle

“Programmierte Moral für autonome Maschinen” – so der Titel einer Diskussionsveranstaltung von Telepolis und Westendverlag am Rande der Buchmesse in Frankfurt. Auf der Website der Zeitschrift heißt es: “Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen den Umgang mit den neuen Mitbewohnern lernen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert werden. Autonome Fahrzeuge könnten bald massenhaft auf den Straßen fahren. Dass sie keine hundertprozentige Sicherheit bei ihren Entscheidungen bieten, zumal wenn sie mit menschlichen Fahrern konfrontiert sind, hat sich bereits an Unfällen gezeigt.” (Website Telepolis) Die Gäste in der ehemaligen Fabrikhalle der Firma Naxos-Union namens Naxoshalle, Prof. Dr. Catrin Misselhorn, Direktorin des Instituts für Philosophie der Universität Stuttgart, Prof. Dr. Oliver Bendel, Professor am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW, und Peter Weibel, Medienkünstler und Medientheoretiker, Vorstand des Zentrums für Kunst und Medien Karlsruhe, diskutieren über moralische Maschinen und maschinelle Moral. Vorgestellt werden auch zwei Bücher, “Die Moral in Maschine” von Oliver Bendel (erschienen bereits im Februar) und “Programmierte Ethik”, herausgegeben von Florian Rötzer, mit Beiträgen u.a. von Oliver Bendel, Catrin Misselhorn, Raúl Rojas und Hans-Arthur Marsiske. Es moderiert Florian Rötzer, Chefredakteur von Telepolis. Weitere Informationen über www.heise.de/tp/artikel/49/49560/1.html.

Abb.: Nicht die Halle, aber Naxos