Die Erfahrung des Eintauchens

Im Wirtschaftslexikon von Springer Gabler ist am 1. Februar 2017 ein neuer Beitrag erschienen. Die Kurzfassung lautet: „Virtuelle Realität (Virtual Reality, VR) ist eine computergenerierte Wirklichkeit mit Bild (3D) und in vielen Fällen auch Ton. Sie wird über Großbildleinwände, in speziellen Räumen (Cave Automatic Virtual Environment, kurz CAVE) oder über ein Head-Mounted-Display (Video- bzw. VR-Brille) übertragen. Bei Mixed Reality wird entweder Realität erweitert (Augmented Reality), wobei für die Darstellung und Wahrnehmung eine AR-Brille (oft Datenbrille genannt) benötigt wird, oder aber Virtualität, im Sinne der Kopplung mit der Realität.“ In der Langfassung finden sich auch Aussagen aus den Bereichsethiken heraus: „Die Immersion, die Erfahrung des Eintauchens in die virtuelle Realität, kann bereichernd und verstörend sein. Während ihrer Dauer wird die normale Wirklichkeit je nach Grad mehr oder weniger zurückgedrängt, und es kann schwierig und aufwendig sein, in diese zurückzukehren und sich wieder in dieser zurechtzufinden, was Thema von Technik- und Informationsethik sein mag.“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/Definition/virtuelle-realitaet.html aufgerufen werden.

Abb.: Die Erfahrung des Eintauchens kann verwirrend sein

Was sind Fake News?

„Ein Fake ist nach der Bedeutung im Englischen eine Fälschung, eine Täuschung, eine Attrappe, oder ein Hochstapler und ein Simulant (Faker). Fake News sind Falsch- und Fehlinformationen, die häufig über elektronische Kanäle (vor allem soziale Medien) verbreitet werden. Sie gehen von Einzelnen oder Gruppen aus, die in eigenem oder fremdem Auftrag handeln. Es gibt persönliche, politische und wirtschaftliche Motive für die Erstellung. Algorithmen verschiedener Art und Social Bots spielen eine zentrale Rolle bei der Verbreitung, zudem die Posts, Likes und Retweets der Benutzer.“ So lautet die Kurzfassung eines neuen Beitrags von Oliver Bendel im Wirtschaftslexikon von Springer Gabler. Auch die Perspektive der Ethik wird eingenommen: „Es entstehen bei den Medien und Parteien spezielle Einrichtungen, die Fake News identifizieren und eliminieren sollen. Damit ist freilich die Gefahr der Zensur gegeben. Informations- und Medienethik untersuchen die moralischen Implikationen von Fake News. Die Wirtschaftsethik interessiert sich ebenfalls für diese, insofern sie Unternehmen, Mitarbeitern und Konsumenten Vorteile und Nachteile bringen können.“ Der Beitrag ist am 1. Februar 2017 erschienen und kann über wirtschaftslexikon.gabler.de/Definition/fake-news.html aufgerufen werden.

Abb.: Fake News verbreiten sich schnell

Social Bots und Chatbots

„Social Bots sind Bots, also Softwareroboter bzw. -agenten, die in sozialen Medien (Social Media) vorkommen. Sie liken und retweeten, und sie texten und kommentieren, können also natürlichsprachliche Fähigkeiten haben. Sie können auch als Chatbots fungieren und damit mit Benutzern synchron kommunizieren. Social Bots werden zur Sichtbarmachung und Verstärkung von Aussagen und Meinungen eingesetzt. Dabei können sie werbenden Charakter besitzen bzw. politische Wirkung entfalten.“ So lautet die Kurzfassung eines neuen Beitrags im Wirtschaftslexikon von Springer Gabler. Dazu passt ein anderer Text von Oliver Bendel über Chatbots, der wie folgt zusammengefasst wird: „Chatbots oder Chatterbots sind Dialogsysteme mit natürlichsprachlichen Fähigkeiten textueller oder auditiver Art. Sie werden, oft in Kombination mit statischen oder animierten Avataren, auf Websites verwendet, wo sie die Produkte und Dienstleistungen ihrer Betreiber erklären und bewerben respektive sich um Anliegen der Interessenten und Kunden kümmern.“ Es wird jeweils auch auf die Perspektive der Informationsethik und der Maschinenethik eingegangen. Die beiden Beiträge, die am 1. Februar 2017 erschienen sind, können über wirtschaftslexikon.gabler.de/Definition/social-bots.html bzw. wirtschaftslexikon.gabler.de/Definition/chatbot.html aufgerufen werden.

Abb.: Social Bots sind in den Social Media zu finden

Max Bill und Steve Jobs

Ein Interview mit Oliver Bendel ist in der neuen Mac Life (3/2017) erschienen, unter dem Titel „Die Diskussion um die elektronische Person hat eben erst begonnen!“. Grundlage war ein intensiver Austausch über Smartphones, Handyromane, die lange vor diesen existierten, die Vorbilder für das Design von Apple und virtuelle Assistenten wie Siri und Cortana. Publiziert wurden vor allem die Aussagen, die sich auf Smartphones und Assistenten bezogen. Zum Design führte der in der Schweiz lebende Wissenschaftler ursprünglich aus, dieses habe ihn an seine Kindheit erinnert: „In unserer Wohnung in Ulm stand der Schneewittchensarg von Braun. In meiner Studienzeit jobbte ich im Café Ulmer Brettle, wie es damals hieß. Mein Chef balancierte gerne mit dem stapelbaren Geschirr TC 100, das er sich geleistet hatte. Das stammte alles aus der Hochschule für Gestaltung in Ulm, der HfG, die von Otl Aicher und Max Bill geleitet und geprägt wurde. Inge Scholl hat sie mitbegründet. Sie habe ich mehrmals getroffen. Wir haben im Stadtarchiv Bilder von Hans und Sophie gesichtet und ausgesucht. In der Geburtsstadt von Max Bill habe ich auch eine Weile gewohnt, in Winterthur.“ Er wünscht sich eine Renaissance guten Designs, wie er auch mit Blick auf Steve Jobs äußerte. Was würde der heute machen, wenn er noch leben würde? „Vielleicht würde er sich … Bügeleisen und Rasierapparate vorknöpfen. Damit steht es ja designmäßig nicht zum Besten.“ Der finale Text kann auch online abgerufen werden, über medium.com/mac-life/interview-mac-life-oliver-bendel-aebde2c2a39b#.2qqwmthqv.

Abb.: Ein Tablet im Gebrauch

14.000 Tweets

Am 26. Januar 2017 wurde von @Infoethik der 14.000 Tweet abgesetzt. In der Kurzbeschreibung heißt es: „Infos zur Informationsethik (Computer-, Netz- und Neue-Medien-Ethik) sowie zu Maschinen-, Technik-, Wirtschafts-, Politik-, Medizin- und Tierethik.“ Auch Religionskritik und Geschlechterforschung kommen nicht zu kurz. Es handelt sich um einen klassischen Kurznachrichtendienst, über den auf Artikel, Studien und Veranstaltungen hingewiesen wird. Die Tweets von Oliver Bendel haben einen strengen Aufbau: Auf den zitierten Titel folgt der Link zum Beitrag, darauf eine Zusammenfassung, die häufig ein weiteres Zitat enthält. In seltenen Fällen steht anstelle der Zusammenfassung ein Kommentar. Jeder Tweet wird verschlagwortet, i.d.R. mit Hashtags zu den Bereichsethiken (oder zur Disziplin der Maschinenethik). „Informationsethik“ ist wie die Plattformen informationsethik.net und maschinenethik.net der philosophischen Ethik verpflichtet und eine Alternative zu religiösen und wirtschaftlichen Vereinnahmungen der Ethik. Diese finden nicht nur in Wirtschaftsethik und Medizinethik statt, sondern zunehmend auch mit Blick auf die Informationsethik und die Maschinenethik. So finanzieren z.B. kirchliche Einrichtungen wissenschaftliche Tagungen zu Informations- und Technikethik sowie Maschinenethik und benutzen bzw. vermarkten sie für unwissenschaftliche Zwecke. Es gibt Hochschulen, die aus finanziellen oder ideologischen Gründen mit den Kirchen kooperieren.

Abb.: Es wird gefeiert wie bei der Nelkenrevolution

Alternative Fakten

Mit „300 Keywords Informationsethik“ (Springer Gabler, 2016) von Oliver Bendel besteht ein umfangreiches Nachschlagewerk zu Informationsethik und Maschinenethik. Dennoch werden das KLEINE LEXIKON DER INFORMATIONSETHIK und das KLEINE LEXIKON DER MASCHINENETHIK, die als Keimzellen gelten können, nach und nach erweitert und verbessert. Seit 23. Januar 2017 ist auf informationsethik.net ein weiterer Eintrag zu finden: „Der Begriff der alternativen Fakten („alternative facts“) wurde 2017 von Kellyanne Conway geprägt, einer der Beraterinnen von Donald Trump. Ausgangspunkt waren die Zuschauerzahlen bei der Vereidigung des 45. US-Präsidenten. Dessen Sprecher Sean Spicer machte zu diesen falsche Angaben. Alternative Fakten haben in der Politik durchaus Tradition, wenn man an die Unwahrheiten denkt, mit denen der Irakkrieg 2003 begründet wurde. Sie bilden auch den Kern des Geschäftsmodells kreationistischer und überhaupt religiöser Bewegungen und Einrichtungen. Unter Donald Trump wurde in der Politik die Verbreitung von Lügen nach religiösem Vorbild bewusst positiv besetzt. Mit ihm begann auch die Aufweichung des Begriffs der Fake News. Der LÜGENBOT manipuliert für wahr gehaltene Aussagen und produziert so automatisch alternative (selten auch originale) Fakten.“

Abb.: Dieses Schild in Kalifornien übertreibt nur ein bisschen

Die Macht der Meinungsroboter

Der Artikel „So erkennen Sie Meinungsroboter“ von Teresa Sickert widmet sich dem Phänomen der Social Bots. „Social Bots sind Programme, die in sozialen Netzwerken menschliche Nutzer simulieren – etwa zur politischen Stimmungsmache. Das klappt mal mehr und mal weniger gut. Diese Tipps helfen, Bots zu entlarven.“ (Spiegel Online, 19. Januar 2017) Und weiter: „Meinungsroboter haben ein Imageproblem. Seit dem US-Wahlkampf wird lebhaft über sogenannte Social Bots diskutiert, über Accounts, die nur so wirken, als stecke ein menschlicher Nutzer dahinter. Auf Plattformen wie Twitter tweeten, liken und retweeten mittlerweile ganze Netze von automatisierten Accounts.“ (Spiegel Online, 19. Januar 2017) Zitiert wird mehrmals Oliver Bendel, der sich als Maschinenethiker mit guten und bösen Chatbots befasst und solche auch baut. 2013 ist der GOODBOT entstanden, 2016 der LÜGENBOT. Diesen rechnet er zu den Münchhausen-Maschinen. Am Rande befasst er sich mit Vervielfältigungs- und Meinungsmaschinen wie den Social Bots. Bei einem Vortrag an der Universität Zürich Ende 2016 hat er deren Chancen und Risiken skizziert. Der Artikel ist abrufbar über www.spiegel.de/netzwelt/web/social-bots-entlarven-so-erkennen-sie-meinungsroboter-a-1129539.html.

Abb.: Die Bots lachen sich tot

Generation Z im Roman

Vor zehn Jahren – also im Jahre 2007 – ist „Nachrückende Generationen“ von Oliver Bendel im Leipziger Literaturverlag (Edition ERATA) erschienen. Sozusagen ein Roman über die Generation Y, fast schon die Generation Z. Es tauchen darin moderne Phänomene auf, die auch in der Informationsethik behandelt werden, etwa Cyber- und Telefonsex. Der Roman wird dabei an keiner Stelle moralisch, so wie auch die Ethik nicht moralisch werden sollte, außer wenn man aus ihr heraus zur Diskussion anregen und deshalb Position beziehen will. Aus dem Klappentext: „Nelli ist 14. Sie und ihre Freundin Sara gehen ins Café, ins Kino, klauen in einer Boutique. Sie haben Cyber- und Telefonsex, langweilen sich auf Partys und begehen beinahe einen Raubüberfall auf offener Straße. Als Nelli den gleichaltrigen Robert kennenlernt, spürt sie so etwas wie Glück – aber zur gleichen Zeit entgleitet ihr das Leben. Sie und Sara verabreden sich im Chat mit einem Mann, der sie zu Hause fast vergewaltigt. Als Nelli schließlich Robert Gewalt antut, scheint dies für beide das Ende zu sein. Und doch geht es irgendwie weiter, ganz anders, als man vermutet.“ Das Buch ist als Printausgabe vergriffen, kann aber als E-Book über alle bekannten Kanäle bezogen werden.

Abb.: Der gesamte Umschlag des gedruckten Romans

Maschinelle Moral im aktuellen P.M. Magazin

In der Februarausgabe von P.M. Magazin ist ein langes Interview mit Oliver Bendel abgedruckt. Am 9. September trafen sich der Redakteur Rüdiger Barth und der Wissenschaftler auf dem Campus Brugg-Windisch der FHNW und sprachen über Maschinenethik, Künstliche Intelligenz und Robotik. P.M. ist eine populärwissenschaftliche Zeitschrift und hat eine Auflage von ca. 163.000 Exemplaren. Der Titel des sechsseitigen Beitrags – neben dem Interview finden sich noch Informationen zu Oliver Bendel und zu den Robotikgesetzen von Isaac Asimov – lautet „Ich würde das Auto ein bisschen dumm lassen“. Der Informationsethiker und Maschinenethiker kann sich vorstellen, dass Autos klug genug sind, für bestimmte Tiere zu bremsen, wenn die Luft rein ist, sie aber zu dumm dafür sind, Menschen zu qualifizieren, auf ihre Eigenschaften zu schauen, um sie dann bei einem Unfall zu verschonen oder nicht zu verschonen, was man wiederum als klug bezeichnen könnte, da es keine befriedigenden Lösungen für solche Entscheidungen gibt. Auch das Quantifizieren ist, zumindest bei kleinen Zahlen, nicht angemessen. Warum sollte jemand getötet werden, nur weil zwei Passanten in der Nähe stehen? Kaum jemand würde das akzeptieren, der Betroffene nicht, die Familie nicht, die Freunde nicht. Die zwei Passanten wären natürlich aufgeschlossener für solche Abwägungen, aber auch nur, wenn sie zusammen unterwegs sind und nicht alleine, was wiederum die Ungerechtigkeit zeigt. Solche Gedankenspiele dürfen nicht mit der Wirklichkeit verwechselt werden. Sie sind aber ein klassisches Mittel, um Grundannahmen und Widersprüche zu erkennen und am Ende die Wirklichkeit auch gestalten zu können.

Abb.: Künstliche Intelligenz und maschinelle Moral

Regeln für Roboter

„EU plant erstmals Regeln für Roboter“ – so der Titel eines Beitrags auf EurActiv von Daniel Mützel vom 10. Januar 2017. Im Teaser heißt es: „Am Donnerstag entscheidet der Rechtsausschuss des Europäischen Parlaments über einen Resolutionsentwurf, der den Einsatz ziviler Roboter reglementieren soll. Der Text könnte die Grundlage für die ersten europäischen Robotergesetze werden.“ (Website EurActiv) Bereits im Sommer 2016 hat Oliver Bendel von der Hochschule für Wirtschaft FHNW auf Bitte eines Abgeordneten den Entwurf in seiner damaligen Fassung im Detail kommentiert. In seiner Zusammenfassung schrieb er: „Die Robotertypen sind sehr unterschiedlich und müssen auseinandergehalten werden. Im Speziellen vermisse ich auch die Unterscheidung zwischen Hardware- und Softwarerobotern. Wichtig ist auch die Unterscheidung zwischen dem, was bereits der Fall ist, und dem, was vielleicht oder wahrscheinlich der Fall sein wird. Bewusstsein bei Robotern halte ich für Science-Fiction.“ Für den Artikel wurden Oliver Bendel und Eric Hilgendorf von der Universität Würzburg, Experte für Roboterrecht, zu den Auswirkungen des Einsatzes von Industrie- und Servicerobotern befragt. Er kann über www.euractiv.de/section/innovation/news/eu-plant-erstmals-regeln-fuer-roboter aufgerufen werden.

Abb.: Welche Regeln sollen für Roboter gelten?

Brandolinis Gesetz

„Das Widerlegen von Schwachsinn erfordert eine Zehnerpotenz mehr Energie als dessen Produktion.“ So besagt es nach der SonntagsZeitung das „Bullshit-Asymmetrie-Gesetz“, das nach dessen Erfinder, dem italienischen Informatiker Alberto Brandolini, auch „Brandolini-Gesetz“ genannt wird. „Kurz: Fake-News sind kaum totzukriegen.“ (SonntagsZeitung, 1. Januar 2017) Der Artikel von Joachim Laukenmann vom 1. Januar 2017 widmet sich diesem Phänomen. „Viele Wissenschaftler haben schon unliebsame Bekanntschaft mit Brandolinis Gesetz gemacht. Vom längst widerlegten Zusammenhang zwischen Impfung und Autismus über die Verharmlosung der Gesundheitsgefährdung von Softdrinks bis zu fadenscheinigen Argumenten gegen den vom Mensch gemachten Klimawandel kursieren Irrtümer hartnäckig im Netz. Teils imitieren die Kreateure der Fake-News sogar Fachzeitschriften.“ (SonntagsZeitung, 1. Januar 2017) Zu Wort kommen u.a. Sophie Mützel, Soziologin und Medienexpertin an der Universität Luzern, Reto Knutti, Klimaforscher an der ETH Zürich, und Oliver Bendel, Technikphilosoph an der Hochschule für Wirtschaft FHNW. Der Artikel kann mit freundlicher Genehmigung des Verlags und des Autors hier heruntergeladen werden.

Abb.: Der Klimawandel ist Realität

Hello, sagt Barbie

„Die gefährlichsten Trends der Digitalisierung“ – so der Titel eines Beitrags in der Handelszeitung vom 12. Dezember 2016. Er beginnt mit den Worten: „Stille Zuhörer und Algorithmen, die Menschen bewerten. Wenn künstliche Intelligenz in die falschen Hände gerät, wie weit ist es dann noch bis zum Desaster? Ein Überblick über beunruhigende Ideen.“ Zitiert wird mehrmals Oliver Bendel, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. „Stephen Hawking und Elon Musk sprechen seit Jahren davon, dass künstliche Intelligenz für die Menschheit zum Desaster werden kann. Tesla-Chef Musk nennt dies die zentrale Frage unserer Zeit: Dass wir einen klugen, bewussten Umgang mit schlauen Maschinen finden. Geht das überhaupt? Oliver Bendel ist da wenig optimistisch.“ (Handelszeitung, 12. Dezember 2016) Er schätzt die Vorteile moderner Technologien und entwickelt selbst sogenannte moralische Maschinen. Für problematisch hält er vor allem das Potenzial mancher Technologien in Bezug auf Überwachung und Ausbeutung. Hello Barbie, Echo von Amazon – gerade im auditiven Bereich ereignet sich eine regelrechte Explosion, die noch Ohrenschmerzen bereiten könnte. Und andere Schmerzen ebenso. Der Beitrag kann hier abgerufen werden.

Abb.: Manche Barbie-Puppen können gucken und horchen

App zur Unterstützung der Peer-Kultur

Der von Mario A. Pfannstiel, Patrick Da-Cruz und Harald Mehlich herausgegebene Band „Digitale Transformation von Dienstleistungen im Gesundheitswesen: Impulse für die Versorgung“ ist Ende 2016 bei Springer Gabler erschienen. Im Abstract zum Beitrag „Companion: Eine App zur Unterstützung der Peer-Kultur“ von Rainer Telesko und Oliver Bendel heißt es: „Entworfen wurde eine auf das Jugendalter zugeschnittene Intervention des Betrieblichen Gesundheitsmanagements (BGM) zur Stärkung der psychischen Gesundheit. Gesundheitsförderung Schweiz entwickelte in Zusammenarbeit mit der Zürcher Hochschule für Angewandte Wissenschaften und der Hochschule für Wirtschaft FHNW eine webbasierte App, die Jugendliche dazu anregt, sich gegenseitig zu helfen und damit die Positive Peer Culture zu stärken. Über die Companion App können Jugendliche eines Betriebs miteinander in Kontakt treten und sich u. a. durch ein Mentoring-System unterstützen. Des Weiteren beinhaltet sie Informationen und Links zum Thema Gesundheit, Beruf und Freizeit.“ Es wird sowohl die Perspektive der Informatik als auch der Ethik eingenommen: „Der Artikel skizziert die Entwicklung der Companion App über die Phasen Analyse, Design, Implementierung und Evaluation. Darüber hinaus wird auf ein begleitendes Konzept eingegangen, das aus der Informationsethik heraus entstanden ist.“ Das Buch hat 359 Seiten und kostet ca. 50 Euro.

Abb.: Website zur App namens Companion

Die Zukunft in den Händen der Roboter

„Die Zukunft in den Händen der Roboter!“ Mit dieser Schlagzeile wird ein Text zu einem Beitrag angeteasert, der am 24. November 2016 in Radio 32 ausgestrahlt wurde. „Es ist eine düstere Zukunft für KV-Angestellte. Bis zu 100‘000 Stellen könnten wegfallen. Dies unter anderem wegen der Digitalisierung und weil Roboter die Arbeit übernehmen. Das zeigt eine Studie im Auftrag des kaufmännischen Verbands Schweiz. Die Arbeit der Roboter sei Fluch und Segen zugleich, sagt Oliver Bendel, Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz.“ (Website Radio 32) Er ist der Meinung, dass uns Corobots in der Fabrik unterstützen können, etwa bei schweren körperlichen Arbeiten. Auch Bots und Agenten können uns helfen, beispielsweise bei Routinetätigkeiten im Büro. Künstliche Intelligenz, die derzeit einen enormen Aufschwung erlebt, ist in der Lage, auch wissenschaftliche und kreative Aufgaben zu übernehmen, von der Diagnose von Krankheiten bis hin zum Design von Autos. Es wird weniger Arbeit geben, und die Gesellschaft muss sich darauf einstellen. Dabei muss sie der Wirtschaft die Pflicht auferlegen, die Gewinne gerecht zu verteilen. Der Beitrag kann über die Website des Solothurner Radiosenders nachgehört werden, über www.radio32.ch?rub=33&newsId=31190.

Abb.: Die Zukunft in den Händen der Roboter

Podiumsdiskussion über täuschende Maschinen

„Should we develop robots that deceive?“ Diese Frage diskutierten Ron Arkin (Georgia Tech), Oliver Bendel (Hochschule für Wirtschaft FHNW), Jaap Hage (Universiteit Maastricht) und Mojca Plesnicar (Inštitut za kriminologijo pri Pravni fakulteti v Ljubljani) auf dem Podium der Konferenz „Machine Ethics and Machine Law“. Ron Arkin forschte wiederholt für das Pentagon an Robotern, die Maschinen und Personen täuschen und Personen und Einrichtungen schützen. Er stellte Tiere vor, die andere Tiere täuschen, und skizzierte, wie dieses Verhalten auf Roboter übertragen werden kann. Oliver Bendel, der Vater des LIEBOT, formulierte sechs Thesen. Die fünfte lautete: „We should … develop deceptive and lying machines to be able to fight against deceptive and lying machines.“ Und er kam zum Schluss: „After all, deceptive and lying machines are important for the improvement of artificial intelligence.“ Nach den Statements von Jaap Haage und Mojca Plesnicar diskutierte man miteinander und mit dem Publikum, angeleitet und vermittelt von Amit Kumar Pandey (SoftBank Robotics). Die Konferenz am 18. und 19. November 2016 in Krakau dürfte nach dem Symposium „Ethical and Moral Considerations in Non-Human Agents“ (21. – 23. März in Stanford) die wichtigste internationale Konferenz für Maschinenethik im Jahre 2016 gewesen sein. An den zwei Tagen trugen u.a. Ron Arkin, Oliver Bendel (zusammen mit Kevin Schwegler), Elizabeth Kinne, Lily Frank, Joanna Bryson und Kathleen Richardson vor. Es liegt ein Proceedingsband mit den Extended Abstracts vor.

Abb.: Nach der Podiumsdiskussion

Die Vielfalt der Drohnen

Drohnen im Sinne von unbemannten Luftfahrzeugen existieren heute in vielfältiger Form, als Quadrokopter genauso wie als Oktokopter, im Betrieb ferngesteuert, teilautonom oder autonom. Man kann den militärischen, politischen, journalistischen, wissenschaftlichen, wirtschaftlichen und privaten Einsatz unterscheiden. Es finden sich etliche spezielle Bezeichnungen, sowohl im Deutschen als auch im Englischen. Eine Grafik, die über maschinenethik.net zur Verfügung gestellt wird, versucht mit Blick auf die Vielfalt der Drohnen etwas Ordnung zu schaffen. Es handelt sich um eine erste Version, die gegebenenfalls aktualisiert und adaptiert werden soll. Sie kann unter Angabe der Quelle und des Autors auf Websites und in Beiträgen verwendet werden. In der Grafik werden nicht zuletzt Beispiele für Anwendungen gegeben. Dutzende Möglichkeiten mussten aus Platzgründen weggelassen werden. So erfreuen sich Drohnen etwa bei Immobilienmaklern großer Beliebtheit, kann man doch Haus und Garten auch von oben und aus neuen Perspektiven zeigen, ohne dass man gleich einen Hubschrauber mieten muss. Überhaupt ist die Kostenersparnis ein wesentlicher Aspekt bei der Verbreitung der Drohnen. Zugleich stellen sich ethische Fragen; darauf geht etwa dieser Artikel im Informatik-Spektrum ein.

Abb.: Einsatzformen und Bezeichnungen von Drohnen

Internationale Konferenz zur Medienethik

Eine internationale Konferenz zur Medienethik veranstaltet die Fakultät für Kommunikation der Universität von Sevilla. Sie findet statt vom 23. bis 24. März 2017. Organisiert wird sie von der Universität von Sevilla, der Nationalen Autonomen Universität von Mexiko und der Pompeu-Fabra-Universität (Barcelona). „Active citizenship and media accountability“ sind laut Call for Papers die Themen. Das Abstract mit maximal 1000 Wörtern muss bis zum 31. Januar 2017 an icmesevilla@gmail.com geschickt werden. Man wird innerhalb von zehn Tagen über Annahme oder Ablehnung benachrichtigt. Der fertige Beitrag muss bis 28. Februar 2017 eingereicht werden. Weitere Informationen über congreso.us.es/mediaethics.

Abb.: In Sevilla

Ein Kodex für die Jugend

Nach der Netiquette 2.0 mit ihren zehn Vorschlägen – von Oliver Bendel zuerst im Blick am Abend vom 17. März 2009 veröffentlicht, dann in der Netzwoche, Ausgabe 5/2010 – ist im November 2016 ein weiterer Kodex erschienen. klicksafe.de meldet: „In Zusammenarbeit mit Masterstudierenden der Hochschule der Medien Stuttgart unter Leitung von Prof. Dr. Petra Grimm und Prof. Dr. Wolfgang Schuster, dem 1. Vorsitzenden der Deutschen Telekom Stiftung, hat juuuport zehn Gebote der Digitalen Ethik entwickelt.“ (klicksafe.de, 8. November 2016) Und weiter: „In der digitalisierten Welt haben Internetnutzerinnen und -nutzer große Freiheiten, aber auch eine große Verantwortung. Wie sie sich verhalten und mit Konflikten umgehen, ist Ausdruck ihrer eigenen ethischen Haltung. Deshalb ist es wichtig, sich darüber zu verständigen, wie ein gutes, gelingendes Leben in der digitalen Gesellschaft aussehen soll. Die zehn Gebote verstehen sich als Leitlinien, die helfen, die Würde des Einzelnen, seine Selbstbestimmung und Handlungsfreiheit wertzuschätzen. Sie richten sich vor allem an Jugendliche und berücksichtigen ihre Formen der digitalen Kommunikation. Sie dienen ihnen als Orientierung und zeigen auf, wie man im Internet gut zusammenleben und rücksichtsvoll miteinander umgehen kann.“ (klicksafe.de, 8. November 2016) Im letzten Vorschlag treffen sich die Kodizes. In der Netiquette 2.0 lautet er: „Du sollst Handy und Computer so oft wie möglich ausschalten und dem Gesang der Vögel lauschen.“ (Version Blick am Abend) In den neuen zehn Geboten heißt es ganz ähnlich: „Schalte hin und wieder ab und gönne dir auch eine Auszeit.“

Abb.: Was kann und soll man mit dem Handy?

Machine Ethics and Machine Law

Die Konferenz „Machine Ethics and Machine Law“ am 18. und 19. November in Krakau dürfte nach dem Symposium „Ethical and Moral Considerations in Non-Human Agents“ (21. – 23. März in Stanford) die wichtigste internationale Konferenz für Maschinenethik im Jahre 2016 sein. Die Keynotes am 19. November stammen von Ron Arkin („Lethal Autonomous Robots and the Plight of the Noncombatant“) und Amit Pandey („Contemporary Issues on Ethical Intelligence of a Socially Intelligent Consumer Robot“). In der darauffolgenden Podiumsdiskussion geht es um die Frage: „Should we develop robots that deceive?“ Es diskutieren Ron Arkin, Oliver Bendel, Jaap Hage und Mojca Plesnicar. In den Sessions am Nachmittag referieren u.a. Oliver Bendel, Lily Frank und Kathleen Richardson. Jaap Hage hält am 19. November seine Keynote zur Frage „Under which circumstances can we hold a machine responsible for its acts?“, Ewa Lukasik ihre Keynote über „Human Autonomy and the Hazards of Principle Agency in an Era of Expanding AI“. Es folgen eine weitere Podiumsdiskussion und Vorträge u.a. von Luís Moniz Pereira und Georgi Stojanov. Das gesamte Programm kann über die Website der Konferenz (machinelaw.philosophyinscience.com/technical-program/) eingesehen werden; dort findet sich auch der Proceedingsband mit den Abstracts.

Abb.: Ist Obelix so freundlich, wie er tut?

Ein locker geflochtener Zopf

Dass Roboter auch Gedichte vortragen können, zeigt ein Projekt von Oliver Bendel, gestartet im November 2016. Benutzt wurde für den ersten Versuch die Text-to-speech-Engine von IBM Watson. Diese kann im Prinzip für Vorlesesysteme, für Chatbots oder für Serviceroboter verwendet werden. Das Gedicht wurde mit Hilfe der Speech Synthesis Markup Language (SSML) angepasst, einer auf XML basierenden Auszeichnungssprache. Die deutsche Stimme „Birgit“ unterstützt diese teilweise. So konnte das Personalpronomen „sie“ an drei Stellen in der Aussprache etwas verlängert werden. Es wurden Pausen am Anfang eingebaut, damit der Titel und die Metainformationen (Autor, System, Stimme, Datum) nicht zu schnell nacheinander gesprochen werden, zudem Pausen zwischen den Strophen. Der Titel des Gedichts lautet „Ein locker geflochtener Zopf“. Es geht um eine Astronautin, die auf einem Planeten, der Atmosphäre besitzt, ihr Haar schüttelt. Ein Roboter ist bei ihr, ein eitler Geck, der sich am liebsten selbst betrachtet. Die Texte aus der Sammlung „Die Astronautin“ kreisen um eine Frau im besten Alter, die allein in den Tiefen des Alls unterwegs ist. Veröffentlicht wurde daraus bisher nur „Auf dem obersten Deck“, und zwar in der Anthologie „Worte reden, Worte schweigen“ von 2013. Das Gedicht kann hier im Format .ogg heruntergeladen und beispielsweise im VLC Media Player angehört werden. In weiteren Versuchen will der Autor die Stimme selbst verändern und die eine oder andere Passage anders betonen lassen.

Abb.: Die Astronautin in jungen Jahren mit einem nicht ganz so locker geflochtenen Zopf

Gibt es Algorithmen für Empathie?

Am 28. Oktober 2016 fand im Paul-Löbe-Haus in Berlin der 3. Netzpolitische Kongress unter dem Motto „Für eine Ethik der digitalen Gesellschaft“ statt. Der wirtschaftspolitische Sprecher der Fraktion der Bundestagsfraktion der Grünen, Dieter Janecek, schreibt auf seiner Website: „Gemeinsam mit Olivia Klose (Software Development Engineer bei Microsoft) und Prof. Dr. Oliver Bendel (Wirtschaftsinformatiker, Wissenschaftler und Autor) haben wir uns mit ‚Deep Learning‘ auseinandergesetzt: Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?“ Und weiter: „Eines der zentralen Ziele des Workshops war, die Unterschiede zwischen rein regelbasierten und selbstlernenden Systemen sowohl technisch als auch mit Blick auf die später zu beantwortenden Fragen der Maschinenethik deutlich zu machen. Rein regelbasierten Systemen lassen sich Verhaltensweisen, die man moralisch nennen kann, anhand von annotierten Entscheidungsbäumen beibringen, die Prof. Oliver Bendel maßgeblich entwickelt hat.“ (Website Janecek) Angespielt wird damit auf den Beitrag „Annotated Decision Trees for Simple Moral Machines“, erschienen 2016 im Proceedingsband der AAAI Spring Symposium Series. „Aus ethischer Perspektive stellt sich aber nicht nur die Frage, nach welchen Prinzipien diese Maschinen handeln sollen, sondern auch, welche Maschinen wir durch entsprechende Programmierung überhaupt zu moralischen Maschinen machen wollen, wann moralische Vorgaben vielleicht unverhältnismäßige Einschränkungen in der Funktionsweise einer Maschine darstellen, ob wirklich alle denkbaren Szenarien auch immer vorhersehbar sind, und welche Art von Aufgaben wir überhaupt auf Maschinen übertragen möchten.“ (Website Janecek) Der ganze Beitrag ist über http://www.dieterjanecek.de abrufbar.

Abb.: Das Paul-Löbe-Haus in Berlin

Beitrag zu Cyborgs

Im Wirtschaftslexikon von Gabler ist seit 3. November 2016 ein neuer Beitrag zu finden, und zwar zu Cyborgs. Es heißt dort: „Ein Cyborg (von engl. ‚cybernetic organism‘) ist ein Lebewesen, das technisch ergänzt oder erweitert ist. Damit ist er eine Ausprägung des Human Enhancement. Dieses dient der Vermehrung menschlicher Möglichkeiten und der Steigerung menschlicher Leistungsfähigkeit und damit – aus Sicht der Betroffenen und Anhänger – der Verbesserung und Optimierung des Menschen. Es gibt sowohl menschliche als auch tierische Cyborgs. Die Bewegung des Transhumanismus, von der in diesem Zusammenhang häufig die Rede ist, propagiert die selbstbestimmte Weiterentwicklung des Menschen oder die fremdbestimmte Weiterentwicklung von Tieren in die Richtung verständiger, quasi halbmenschlicher Wesen mithilfe wissenschaftlicher und technischer Mittel. Cyborgs sind ein Topos in Science-Fiction-Büchern und -Filmen.“ Das Thema wird auch aus der Perspektive von Informationsethik und Maschinenethik beleuchtet. Der Beitrag stammt von Oliver Bendel und kann über http://wirtschaftslexikon.gabler.de/Definition/cyborg.html heruntergeladen werden.

Abb.: Ein Cyborg