Wie 20 Minuten schreibt, soll Pepper von Aldebaran bzw. SoftBank im Glattzentrum bei Zürich eingesetzt werden. Über eine Million Franken habe das Einkaufszentrum für sechs Exemplare ausgegeben. Diese sollen ab Ende des Jahres selbstständig herumrollen. „Die Kunden können die Roboter ansprechen und nach Informationen fragen.“ (20 Minuten, 7. März 2017) Wenn diese nicht weiterwissen, wird über ihren Bildschirm „die Infostelle des Centers zugeschaltet, um die Frage zu beantworten“ (20 Minuten, 7. März 2017). Pepper soll nicht auf ein Sonderangebot eines Geschäfts hinweisen oder Produkte bewerben. In einem Einkaufszentrum ist er sicher gut aufgehoben. Er kann einen Mehrwert bieten, und es ist gewährleistet, dass Kinder im Beisein von Erwachsenen mit ihm kommunizieren und interagieren, anders als in Haushalten in Japan, wo sie oft mit ihm alleine sind und ihn imitieren, wie der Informations- und Maschinenethiker Oliver Bendel kürzlich beim 10. Ulmer Robotertag berichtete. Es besteht allerdings, wie beim K5 in Stanford, die Gefahr, dass man mit ihm zusammenstößt. Zudem kann man über ihn stolpern, und er kann auf kleine Kinder fallen, wobei er recht standfest ist. Schweizerdeutsch versteht Pepper noch nicht, wie die Gratiszeitung schreibt. Es wird nicht einfach sein, ihm die dialektalen Varianten beizubringen.
Abb.: Pepper muss erst noch Schweizerdeutsch lernen
PostAuto gehört beim hochautomatisierten Fahren zu den führenden Unternehmen auf der Welt. Der technische Leiter Ramon Mueller gewährte Prof. Dr. Oliver Bendel von der FHNW und einer kleinen Gruppe von Studierenden am 3. März 2017 einen tiefen Einblick in den Betrieb des SmartShuttle. Man verfolgt eher einen Google- als einen Tesla-Ansatz. Die Strecken werden mit Hilfe von Lidar und Lidarkarten abgefahren. Auch über Kameras verfügt das SmartShuttle. Auf einer neuen, kleinen Teststrecke in Bern wurden die Gäste auf den virtuellen Schienen von Haltestelle zu Haltestelle kutschiert. Bei Personen auf der Fahrbahn wurde in ca. zwei Metern Abstand gehalten. Auch bei plötzlich auftauchenden Hindernissen konnte rechtzeitig gebremst werden. Im Fahrzeug befinden sich Schalter für Notbremsungen, die von allen Passagieren gedrückt werden können. Im Pilotbetrieb in Sion im Wallis ist bei jeder Fahrt ein Begleiter zugegen. Laut einer Umfrage würden die meisten Menschen aber auch ohne ihn mitfahren. Das Shuttle navigiert in Sion an einer Stelle durch eine enge Gasse, die ein Fahrer kaum bewältigen könnte. Im Mischbetrieb mit Fußgängern und Fahrradfahrern fährt es durchschnittlich nur noch 5,7 km/h schnell. Schneeflocken werden mit Hilfe von speziellen Algorithmen „entfernt“. Nach zwei Stunden war die exklusive Vorführung in Bern vorbei, mit der die PostAuto AG ihren Willen zur Bürgernähe und zum Dialog mit der Wissenschaft demonstrierte.
Der 63. Frühjahrskongress der Gesellschaft für Arbeitswissenschaft in der Schweiz findet derzeit (15. bis 17. Februar 2017) an der Fachhochschule Nordwestschweiz FHNW in Brugg-Windisch statt. Veranstalterinnen sind FHNW und ETH Zürich. Die Keynotes am 16. Februar 2017 stammten von Prof. Dr. Heinz Schüpbach, Direktor Hochschule für Angewandte Psychologie FHNW, Prof. Dr. Oliver Bendel, Hochschule für Wirtschaft FHNW, und Patrick Warnking, Country Director Google Switzerland. Schüpbach gab einen Einblick in aktuelle Themen von Psychologie und Arbeitswissenschaft, Bendel stellte Software- und Hardwareroboter wie Überwachungs- und Transportroboter und Pflegeroboter vor und fragte danach, welche Aufgaben dem Menschen bleiben, Warnking erläuterte Geschäftsmodelle und Denkweisen der digitalen Ökonomie – und betonte, man wolle bei Google noch mehr Frauen einstellen. Früher waren viele Programmierer weiblich, und manche Länder haben in der Informatik schon immer ein ausgewogenes Verhältnis gehabt. Leitthemen des Kongresses sind u.a. die Herausforderung des digitalen Wandels, Industrie 4.0 und menschliches Erfahrungswissen, Kreativität in Design- und Produktionsprozessen, Mensch-Maschine-Interaktion und Mensch-Roboter-Kooperation. Grußworte gab es u.a. von PD Dr. Marino Menozzi, ETH Zürich, Prof. Dr. Crispino Bergamaschi, Direktionspräsident FHNW, und Dr. Eric Scheidegger, Co-Direktor beim Staatssekretariat für Wirtschaft SECO. Weitere Informationen über www.gfa2017.de (Link nicht mehr gültig).
Abb.: Oliver Bendel zur Zukunft der Pflege (Foto: Eleni Kougionis)
Es gibt unzählige Formulare für Patientenverfügungen. Allein für die Schweiz führt Kassensturz fünfzehn Organisationen mit eigenen Vorschlägen an. Die Übersichtstabelle kann bei SRF heruntergeladen werden. In der Regel fehlt ein Bezug zum Einsatz von Operations-, Pflege- und Therapierobotern. Dabei sind Operationsroboter weltweit im Einsatz, und Therapieroboter kennt man nicht nur in Japan, sondern auch in Deutschland und in der Schweiz. Offensichtlich müssen die Patienten damit klarkommen, ob sie wollen oder nicht. Gerade bei Therapierobotern wird es zwangsläufig Personen treffen, die urteilsunfähig sind. Bei Operationsrobotern wird dies seltener der Fall sein, wobei in der Zukunft sicherlich eine Ausweitung stattfindet und damit auch hier eine Patientenverfügung sinnvoll ist. Oliver Bendel, Informations- und Maschinenethiker, hat eine ergänzende Patientenverfügung entwickelt, die als Diskussionsbeitrag zu verstehen ist. Er ist der Meinung, dass Operationsroboter gute Dienste leisten und Pflegeroboter, die im Moment als Prototypen vorliegen, Pfleger entlasten und Patienten helfen können. Persönlich lehnt er einen Therapieroboter wie Paro ab, auch wenn dieser positive Effekte hervorbringen kann. Jeder sollte so wichtige Entscheidungen zum eigenen Leben zur richtigen Zeit treffen. Zur rechtlichen Verbindlichkeit in diesem Kontext bestehen noch keine Erkenntnisse. Das Formular kann hier bezogen werden. Hinweise werden über informationsethik@gmx.net entgegengenommen.
The LADYBIRD project starts in March 2017. More and more autonomous and semi-autonomous machines make decisions that have moral implications. Machine ethics as a discipline examines the possibilities and limits of moral machines. In this context, Prof. Dr. Oliver Bendel developed various design studies and thus submitted proposals for their appearance and functions. He focused on animal-friendly machines which make morally sound decisions, and chatbots with specific skills. The project is about a service robot, which shall spare beneficial insects – a vacuum cleaner called LADYBIRD. An annotated decision tree modelled for this objective and a set of sensors will be used. Three students work from March to October in the practice project at the School of Business FHNW. Since 2013, the principal Oliver Bendel published several articles on LADYBIRD and other animal-friendly machines, e.g., „Ich bremse auch für Tiere (I also brake for animals)“ in the Swiss magazine inside.it. The robot will be the third prototype in the context of machine ethics at the School of Business FHNW. The first one was the GOODBOT (2013), the second one the LIEBOT (2016). All these machines can be described as simple moral machines.
Anfang des Jahres war im Europäischen Parlament der Bericht „Civil Law Rules on Robotics“ vorgelegt und die Regulierung von Künstlicher Intelligenz und Robotik gefordert worden. Am 23. Februar 2017 fragte sich Zündfunk (Bayern 2) deshalb: „Welche Gesetze brauchen Roboter?“ Gregor Schmalzried hatte bereits am Morgen den Informations- und Maschinenethiker Oliver Bendel von der Hochschule für Wirtschaft FHNW zum Thema befragt, der das Dokument im Detail kannte, weil er es im vergangenen Jahr für einen Abgeordneten in Brüssel kommentiert hatte. Auch der Informatiker Matthias Althoff von der Technischen Universität München kam zu Wort. Der Beitrag stieg ein mit dem Vorschlag von Bill Gates, eine Robotersteuer einzuführen (wozu Oliver Bendel wiederholt seine Meinung geäußert hatte, auch im Deutschen Bundestag), und es wurde aus dem genannten Bericht zitiert. Matthias Althoff nahm Stellung zur elektronischen Person, die er im Moment für Science-Fiction hält, Oliver Bendel zu den Robotergesetzen von Asimov, darauf hinweisend, dass diese für die Fiktionalität, nicht die Realität entwickelt wurden. Die Sendung kann über www.br.de nachgehört werden.
Abb.: Wo muss man den Einsatz von Robotern regulieren?
Die SATW hat im Februar 2017 die Studie „Ethische Herausforderungen für Unternehmen im Umgang mit Big Data“ präsentiert, in der die ethischen Herausforderungen von Big-Data-Anwendungen untersucht und Handlungsempfehlungen für Unternehmen und Politik formuliert werden. „Die Experten konnten acht ethische Normen und Werte identifizieren, die von Big Data tangiert werden. Oft müssen die Ansprüche der Konsumenten mit den ebenso berechtigten Ansprüchen der Unternehmen abgewogen werden.“ (Studie SATW) Zur informationellen Selbstbestimmung heißt es: „Jeder hat das Recht, selbst über das Erheben, Speichern, Verwenden und Weitergeben persönlicher Daten zu bestimmen.“ (Studie SATW) Für die Verwendung der Daten brauche es eine explizite, informierte Zustimmung, also eine Zustimmung nach erfolgter Aufklärung des Einzelnen. „Problematisch wäre eine gezielte emotionale Manipulation durch Werbung, die eine informierte Zustimmung erschweren könnte.“ (Studie SATW) Und zur digitalen Identität: „Die Kontrolle der eigenen digitalen Identität ist ein Spezialfall der informationellen Selbstbestimmung. Big-Data-Anwendungen machen es möglich, verschiedene Merkmale des Kunden zu einer digitalen Identität zu verdichten.“ (Studie SATW) Ethisch fragwürdig sei dieses Vorgehen dann, wenn der Kunde davon nichts wisse und keine Möglichkeit habe, allfällige Fehler zu korrigieren. Die Kurzfassung kann mit freundlicher Genehmigung der Verantwortlichen hier heruntergeladen werden. Die Studie kann man über www.satw.ch/bigdata bestellen.
Abb.: Viele Daten und Informationen gab es bereits in der Bibliothek
In Ulm wurde nicht nur Albrecht Ludwig Berblinger geboren, der einen der ersten Flugapparate gebaut hat, sondern auch, über hundert Jahre später, Albert Einstein. Heute sind in der Großstadt am Fuße der Schwäbischen Alb mehrere renommierte Hochschulen und Forschungseinrichtungen angesiedelt. Am 22. Februar 2017 findet dort zum 10. Mal der Ulmer Robotertag statt. Veranstalter sind die Hochschule Ulm und Mitsubishi Electric Europe. „Auf der Jubiläumsveranstaltung präsentieren unsere Referenten nicht nur neueste Trends der Greifertechnik und der Servicerobotik, sondern setzen sich auch mit den ethischen Aspekten einer sich rasant verändernden Arbeitswelt auseinander.“ (Flyer Ulmer Robotertag) „Industrie-Anwendungen und Vorstellung der Applikationen im Foyer“ – damit beginnt Wolfram Zielke von Mitsubishi Electric Europe B.V. den Kongress. Daran schließt der Vortrag „Kollege und Kollegin Roboter – schöne neue Welt!“ von Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) an. „Robotergestützte Rauheits- und Formmessung mit einem Streulichtsensor“ ist der Titel des nächsten Beitrags (Rainer Brodmann, OptoSurf GmbH), gefolgt von „Entwicklung und Herstellung einer vollautomatischen Regen-/Lichtsensor-Montagelinie unter Anwendung von Mitsubishi-Robotern“ (Dieter Süß, Schiller Automation). Nach dem Mittagessen werden weitere Vorträge, Vorführungen und Ausstellungen geboten. Detaillierte Informationen über www.hs-ulm.de.
PlayGround is a Spanish online magazine, founded in 2008, with a focus on culture, future and food. Astrid Otal asked the ethicist Oliver Bendel about the conference in London („Love and Sex with Robots“) and in general about sex robots and love dolls. One issue was: „In love, a person can suffer. But in this case, can robots make us suffer sentimentally?“ The reply to it: „Of course, they can make us suffer. By means of their body, body parts and limbs, and by means of their language capabilities. They can hurt us, they can kill us. They can offend us by using certain words and by telling the truth or the untruth. In my contribution for the conference proceedings, I ask this question: It is possible to be unfaithful to the human love partner with a sex robot, and can a man or a woman be jealous because of the robot’s other love affairs? We can imagine how suffering can emerge in this context … But robots can also make us happy. Some years ago, we developed the GOODBOT, a chatbot which can detect problems of the user and escalate on several levels. On the highest level, it hands over an emergency number. It knows its limits.“ Some statements of the interview have been incorporated in the article „Última parada: después del sexo con autómatas, casarse con un Robot“ (February 11, 2017) which is available via www.playgroundmag.net/futuro/sexo-robots-matrimonio-legal-2050-realdolls_0_1918608121.html.
Inverse is an American online magazine, launched by Dave Nemetz, co-founder of Bleacher Report. It is based in San Francisco, California. According to the New York Observer, Inverse „aims to capture the millennial dude market with quirky takes on subjects like tech, games (video and board) and space“ (Observer, October 20, 2015). Gabe Bergado asked the ethicist Oliver Bendel about sex robots and love dolls. One issue was: „Why are more companies and people becoming more interested in sex robots?“ The reply to it: „Companies want to earn money. But I don’t think that this is a big market. Sex robots will remain a niche product. But, of course, sex toys are popular, und together with virtual and mixed reality, this could be the biggest thing next year. Some people and media are sensation-seeking. That’s why they are interested in sex robots and in men and women who fall in love with machines.“ Another question was: „How should governments be reacting to the development of sex robots? Should there be regulations?“ The answer is short and clear again: „Sex robots will remain a niche product, and I don’t think there will be many needs for regulation. Adults can do whatever they want to do, provided that they do not affect or disturb others in extreme ways. But I’m against child-like robots in brothels. Perhaps this should be banned.“ The ethicist concluded with respect to sex robots: „It is interesting for a philosopher to research them and our relationship with them.“ The final version of the interview was published in the article „Sex Robots Can’t Automate Emotional Intimacy“ (January 28, 2017) which is available via www.inverse.com/article/27001-sex-robots-virtual-reality-engineering-oliver-mendel-interview.
„Gita folgt auf dem Fuße: Die Piaggio-Tochter PFF hat einen schicken Roboter entwickelt, der Lasten wie Einkäufe nach Hause bringt. Gita ist schnell genug, um einem Fahrrad folgen zu können. Dabei nutzt sie eine interessante Art der Navigation.“ (Golem, 3. Februar 2017) Dies meldet Golem am 3. Februar 2017. Auf Abbildungen, die durch die Medien gehen, ist eine große, blaue, rollende Tonne zu sehen. Während Paketroboter ihren Weg alleine finden müssen (ihnen wird meist nur bei einer Straßenüberquerung geholfen), kann sich Gita einfach an die Fersen des Besitzers heften – oder eben an das Hinterrad. Dabei lernt sie aber eine Strecke auch kennen und kann sie grundsätzlich auch alleine bewältigen. Gedacht ist Gita „eher als eine Art robotische Einkaufstasche auf Rädern denn als autonomer Lieferroboter wie etwa der von Starship Technologies“ (Golem, 3. Februar 2017). Die Technik, so schreibt die Zeitschrift, dürfte der des Segway ähneln. Die Navigation erfolgt „per simultaner Lokalisierung und Kartenerstellung“ (Golem, 3. Februar 2017). Wie der Paketroboter erhöht auch der automatische Rollkoffer die Komplexität in den Städten und wird zur Stolperfalle.
„Ein Roboter kostet Fr 4.45 pro Stunde – und Sie?“ – so der Titel eines Artikels in 20 Minuten vom 3. Februar 2017. Im Teaser heißt es: „Roboter werden immer billiger, die Verbreitung nimmt zu. Das dürfte auf Kosten von Arbeitsplätzen gehen. Das sei nicht zwingend nur schlecht, sagt ein Experte.“ Oliver Bendel sieht die Robotisierung, Automatisierung und Autonomisierung in Fabriken grundsätzlich positiv. Kooperations- und Kollaborationsroboter arbeiten dort eng mit Menschen zusammen und nehmen ihnen anstrengende, verschleißende Tätigkeiten ab. Immer mehr Roboter werden universell einsetzbar, können beobachten und nachahmen und so neue Tätigkeiten erlernen. Es ist wichtig, dass sie mit ganz unterschiedlichen Werkzeugen ausgestattet sind, die zudem ausgewechselt werden können. Ohne Zweifel werden Hardwareroboter wie Industrie- und Serviceroboter sowie Softwareroboter auf Dauer einen erheblichen Teil der menschlichen Arbeit übernehmen können – dies zeigte im letzten Jahr auch eine WEF-Studie. Und weil sie zudem immer billiger werden, werden sie die erste Wahl der Unternehmen sein. Diese müssen die Gewinne, auch das betont Oliver Bendel, gerecht verteilen, und zwar nicht nur an die verbliebenen Mitarbeiter. Der Beitrag mit den Statements von Oliver Bendel und mit einem Interview mit ihm findet sich über www.20min.ch/finance/news/story/Ein-Roboter-kostet-Fr-4-45–pro-Stunde—und-Sie–19775617.
Im Wirtschaftslexikon von Springer Gabler ist am 1. Februar 2017 ein neuer Beitrag erschienen. Die Kurzfassung lautet: „Virtuelle Realität (Virtual Reality, VR) ist eine computergenerierte Wirklichkeit mit Bild (3D) und in vielen Fällen auch Ton. Sie wird über Großbildleinwände, in speziellen Räumen (Cave Automatic Virtual Environment, kurz CAVE) oder über ein Head-Mounted-Display (Video- bzw. VR-Brille) übertragen. Bei Mixed Reality wird entweder Realität erweitert (Augmented Reality), wobei für die Darstellung und Wahrnehmung eine AR-Brille (oft Datenbrille genannt) benötigt wird, oder aber Virtualität, im Sinne der Kopplung mit der Realität.“ In der Langfassung finden sich auch Aussagen aus den Bereichsethiken heraus: „Die Immersion, die Erfahrung des Eintauchens in die virtuelle Realität, kann bereichernd und verstörend sein. Während ihrer Dauer wird die normale Wirklichkeit je nach Grad mehr oder weniger zurückgedrängt, und es kann schwierig und aufwendig sein, in diese zurückzukehren und sich wieder in dieser zurechtzufinden, was Thema von Technik- und Informationsethik sein mag.“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/Definition/virtuelle-realitaet.html aufgerufen werden.
Abb.: Die Erfahrung des Eintauchens kann verwirrend sein
„Ein Fake ist nach der Bedeutung im Englischen eine Fälschung, eine Täuschung, eine Attrappe, oder ein Hochstapler und ein Simulant (Faker). Fake News sind Falsch- und Fehlinformationen, die häufig über elektronische Kanäle (vor allem soziale Medien) verbreitet werden. Sie gehen von Einzelnen oder Gruppen aus, die in eigenem oder fremdem Auftrag handeln. Es gibt persönliche, politische und wirtschaftliche Motive für die Erstellung. Algorithmen verschiedener Art und Social Bots spielen eine zentrale Rolle bei der Verbreitung, zudem die Posts, Likes und Retweets der Benutzer.“ So lautet die Kurzfassung eines neuen Beitrags von Oliver Bendel im Wirtschaftslexikon von Springer Gabler. Auch die Perspektive der Ethik wird eingenommen: „Es entstehen bei den Medien und Parteien spezielle Einrichtungen, die Fake News identifizieren und eliminieren sollen. Damit ist freilich die Gefahr der Zensur gegeben. Informations- und Medienethik untersuchen die moralischen Implikationen von Fake News. Die Wirtschaftsethik interessiert sich ebenfalls für diese, insofern sie Unternehmen, Mitarbeitern und Konsumenten Vorteile und Nachteile bringen können.“ Der Beitrag ist am 1. Februar 2017 erschienen und kann über wirtschaftslexikon.gabler.de/Definition/fake-news.html aufgerufen werden.
„Social Bots sind Bots, also Softwareroboter bzw. -agenten, die in sozialen Medien (Social Media) vorkommen. Sie liken und retweeten, und sie texten und kommentieren, können also natürlichsprachliche Fähigkeiten haben. Sie können auch als Chatbots fungieren und damit mit Benutzern synchron kommunizieren. Social Bots werden zur Sichtbarmachung und Verstärkung von Aussagen und Meinungen eingesetzt. Dabei können sie werbenden Charakter besitzen bzw. politische Wirkung entfalten.“ So lautet die Kurzfassung eines neuen Beitrags im Wirtschaftslexikon von Springer Gabler. Dazu passt ein anderer Text von Oliver Bendel über Chatbots, der wie folgt zusammengefasst wird: „Chatbots oder Chatterbots sind Dialogsysteme mit natürlichsprachlichen Fähigkeiten textueller oder auditiver Art. Sie werden, oft in Kombination mit statischen oder animierten Avataren, auf Websites verwendet, wo sie die Produkte und Dienstleistungen ihrer Betreiber erklären und bewerben respektive sich um Anliegen der Interessenten und Kunden kümmern.“ Es wird jeweils auch auf die Perspektive der Informationsethik und der Maschinenethik eingegangen. Die beiden Beiträge, die am 1. Februar 2017 erschienen sind, können über wirtschaftslexikon.gabler.de/Definition/social-bots.html bzw. wirtschaftslexikon.gabler.de/Definition/chatbot.html aufgerufen werden.
Abb.: Social Bots sind in den Social Media zu finden
Ein Interview mit Oliver Bendel ist in der neuen Mac Life (3/2017) erschienen, unter dem Titel „Die Diskussion um die elektronische Person hat eben erst begonnen!“. Grundlage war ein intensiver Austausch über Smartphones, Handyromane, die lange vor diesen existierten, die Vorbilder für das Design von Apple und virtuelle Assistenten wie Siri und Cortana. Publiziert wurden vor allem die Aussagen, die sich auf Smartphones und Assistenten bezogen. Zum Design führte der in der Schweiz lebende Wissenschaftler ursprünglich aus, dieses habe ihn an seine Kindheit erinnert: „In unserer Wohnung in Ulm stand der Schneewittchensarg von Braun. In meiner Studienzeit jobbte ich im Café Ulmer Brettle, wie es damals hieß. Mein Chef balancierte gerne mit dem stapelbaren Geschirr TC 100, das er sich geleistet hatte. Das stammte alles aus der Hochschule für Gestaltung in Ulm, der HfG, die von Otl Aicher und Max Bill geleitet und geprägt wurde. Inge Scholl hat sie mitbegründet. Sie habe ich mehrmals getroffen. Wir haben im Stadtarchiv Bilder von Hans und Sophie gesichtet und ausgesucht. In der Geburtsstadt von Max Bill habe ich auch eine Weile gewohnt, in Winterthur.“ Er wünscht sich eine Renaissance guten Designs, wie er auch mit Blick auf Steve Jobs äußerte. Was würde der heute machen, wenn er noch leben würde? „Vielleicht würde er sich … Bügeleisen und Rasierapparate vorknöpfen. Damit steht es ja designmäßig nicht zum Besten.“ Der finale Text kann auch online abgerufen werden, über medium.com/mac-life/interview-mac-life-oliver-bendel-aebde2c2a39b#.2qqwmthqv.
Am 26. Januar 2017 wurde von @Infoethik der 14.000 Tweet abgesetzt. In der Kurzbeschreibung heißt es: „Infos zur Informationsethik (Computer-, Netz- und Neue-Medien-Ethik) sowie zu Maschinen-, Technik-, Wirtschafts-, Politik-, Medizin- und Tierethik.“ Auch Religionskritik und Geschlechterforschung kommen nicht zu kurz. Es handelt sich um einen klassischen Kurznachrichtendienst, über den auf Artikel, Studien und Veranstaltungen hingewiesen wird. Die Tweets von Oliver Bendel haben einen strengen Aufbau: Auf den zitierten Titel folgt der Link zum Beitrag, darauf eine Zusammenfassung, die häufig ein weiteres Zitat enthält. In seltenen Fällen steht anstelle der Zusammenfassung ein Kommentar. Jeder Tweet wird verschlagwortet, i.d.R. mit Hashtags zu den Bereichsethiken (oder zur Disziplin der Maschinenethik). „Informationsethik“ ist wie die Plattformen informationsethik.net und maschinenethik.net der philosophischen Ethik verpflichtet und eine Alternative zu religiösen und wirtschaftlichen Vereinnahmungen der Ethik. Diese finden nicht nur in Wirtschaftsethik und Medizinethik statt, sondern zunehmend auch mit Blick auf die Informationsethik und die Maschinenethik. So finanzieren z.B. kirchliche Einrichtungen wissenschaftliche Tagungen zu Informations- und Technikethik sowie Maschinenethik und benutzen bzw. vermarkten sie für unwissenschaftliche Zwecke. Es gibt Hochschulen, die aus finanziellen oder ideologischen Gründen mit den Kirchen kooperieren.
Abb.: Es wird gefeiert wie bei der Nelkenrevolution
Mit „300 Keywords Informationsethik“ (Springer Gabler, 2016) von Oliver Bendel besteht ein umfangreiches Nachschlagewerk zu Informationsethik und Maschinenethik. Dennoch werden das KLEINE LEXIKON DER INFORMATIONSETHIK und das KLEINE LEXIKON DER MASCHINENETHIK, die als Keimzellen gelten können, nach und nach erweitert und verbessert. Seit 23. Januar 2017 ist auf informationsethik.net ein weiterer Eintrag zu finden: „Der Begriff der alternativen Fakten („alternative facts“) wurde 2017 von Kellyanne Conway geprägt, einer der Beraterinnen von Donald Trump. Ausgangspunkt waren die Zuschauerzahlen bei der Vereidigung des 45. US-Präsidenten. Dessen Sprecher Sean Spicer machte zu diesen falsche Angaben. Alternative Fakten haben in der Politik durchaus Tradition, wenn man an die Unwahrheiten denkt, mit denen der Irakkrieg 2003 begründet wurde. Sie bilden auch den Kern des Geschäftsmodells kreationistischer und überhaupt religiöser Bewegungen und Einrichtungen. Unter Donald Trump wurde in der Politik die Verbreitung von Lügen nach religiösem Vorbild bewusst positiv besetzt. Mit ihm begann auch die Aufweichung des Begriffs der Fake News. Der LÜGENBOT manipuliert für wahr gehaltene Aussagen und produziert so automatisch alternative (selten auch originale) Fakten.“
Abb.: Dieses Schild in Kalifornien übertreibt nur ein bisschen
Der Artikel „So erkennen Sie Meinungsroboter“ von Teresa Sickert widmet sich dem Phänomen der Social Bots. „Social Bots sind Programme, die in sozialen Netzwerken menschliche Nutzer simulieren – etwa zur politischen Stimmungsmache. Das klappt mal mehr und mal weniger gut. Diese Tipps helfen, Bots zu entlarven.“ (Spiegel Online, 19. Januar 2017) Und weiter: „Meinungsroboter haben ein Imageproblem. Seit dem US-Wahlkampf wird lebhaft über sogenannte Social Bots diskutiert, über Accounts, die nur so wirken, als stecke ein menschlicher Nutzer dahinter. Auf Plattformen wie Twitter tweeten, liken und retweeten mittlerweile ganze Netze von automatisierten Accounts.“ (Spiegel Online, 19. Januar 2017) Zitiert wird mehrmals Oliver Bendel, der sich als Maschinenethiker mit guten und bösen Chatbots befasst und solche auch baut. 2013 ist der GOODBOT entstanden, 2016 der LÜGENBOT. Diesen rechnet er zu den Münchhausen-Maschinen. Am Rande befasst er sich mit Vervielfältigungs- und Meinungsmaschinen wie den Social Bots. Bei einem Vortrag an der Universität Zürich Ende 2016 hat er deren Chancen und Risiken skizziert. Der Artikel ist abrufbar über www.spiegel.de/netzwelt/web/social-bots-entlarven-so-erkennen-sie-meinungsroboter-a-1129539.html.
Im Rahmen der Ringvorlesung „Angewandte Ethik – Transdisziplinäre Einblicke in aktuelle Praxisfelder der Ethik“ fanden seit 11. Oktober 2016 an der Hochschule Konstanz bereits einige Vorträge statt. Prof. Dr. Regine Kather (Philosophisches Seminar, Albert-Ludwigs-Universität Freiburg) berichtete am 22. November 2016 „Von der Würde des Menschen und der Würde der Kreatur“ und entwickelte „Grundprinzipien einer integrativen Bioethik“, PD Dr. Claudia Pawlenka (Philosophisches Institut, Heinrich-Heine-Universität Düsseldorf) ging am 20. Dezember auf „Ethische Fragen im Sport“ ein und konkret auf „Perfektionierung und Kommodifizierung des Menschen“. Der Vortrag von PD Dr. Joachim Boldt (Institut für Ethik und Geschichte der Medizin, Albert-Ludwigs-Universität Freiburg) trug den Titel „Künstliches Leben – Perspektiven der synthetischen Biologie“ (10. Januar 2017). Prof. Dr. Oliver Bendel (Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft FHNW) spricht am 17. Januar über „Die Moral in der Maschine – Maschinenethik“. Zudem geht er kurz auf die Informationsethik und die Roboterethik ein und auf die Vorschläge des Europäischen Parlaments und des IEEE zur Regelung von Robotik und KI. Weitere Informationen über www.htwg-konstanz.de.
Abb.: Von künstlichem Leben und natürlicher Technik
Vor zehn Jahren – also im Jahre 2007 – ist „Nachrückende Generationen“ von Oliver Bendel im Leipziger Literaturverlag (Edition ERATA) erschienen. Sozusagen ein Roman über die Generation Y, fast schon die Generation Z. Es tauchen darin moderne Phänomene auf, die auch in der Informationsethik behandelt werden, etwa Cyber- und Telefonsex. Der Roman wird dabei an keiner Stelle moralisch, so wie auch die Ethik nicht moralisch werden sollte, außer wenn man aus ihr heraus zur Diskussion anregen und deshalb Position beziehen will. Aus dem Klappentext: „Nelli ist 14. Sie und ihre Freundin Sara gehen ins Café, ins Kino, klauen in einer Boutique. Sie haben Cyber- und Telefonsex, langweilen sich auf Partys und begehen beinahe einen Raubüberfall auf offener Straße. Als Nelli den gleichaltrigen Robert kennenlernt, spürt sie so etwas wie Glück – aber zur gleichen Zeit entgleitet ihr das Leben. Sie und Sara verabreden sich im Chat mit einem Mann, der sie zu Hause fast vergewaltigt. Als Nelli schließlich Robert Gewalt antut, scheint dies für beide das Ende zu sein. Und doch geht es irgendwie weiter, ganz anders, als man vermutet.“ Das Buch ist als Printausgabe vergriffen, kann aber als E-Book über alle bekannten Kanäle bezogen werden.
In der Februarausgabe von P.M. Magazin ist ein langes Interview mit Oliver Bendel abgedruckt. Am 9. September trafen sich der Redakteur Rüdiger Barth und der Wissenschaftler auf dem Campus Brugg-Windisch der FHNW und sprachen über Maschinenethik, Künstliche Intelligenz und Robotik. P.M. ist eine populärwissenschaftliche Zeitschrift und hat eine Auflage von ca. 163.000 Exemplaren. Der Titel des sechsseitigen Beitrags – neben dem Interview finden sich noch Informationen zu Oliver Bendel und zu den Robotikgesetzen von Isaac Asimov – lautet „Ich würde das Auto ein bisschen dumm lassen“. Der Informationsethiker und Maschinenethiker kann sich vorstellen, dass Autos klug genug sind, für bestimmte Tiere zu bremsen, wenn die Luft rein ist, sie aber zu dumm dafür sind, Menschen zu qualifizieren, auf ihre Eigenschaften zu schauen, um sie dann bei einem Unfall zu verschonen oder nicht zu verschonen, was man wiederum als klug bezeichnen könnte, da es keine befriedigenden Lösungen für solche Entscheidungen gibt. Auch das Quantifizieren ist, zumindest bei kleinen Zahlen, nicht angemessen. Warum sollte jemand getötet werden, nur weil zwei Passanten in der Nähe stehen? Kaum jemand würde das akzeptieren, der Betroffene nicht, die Familie nicht, die Freunde nicht. Die zwei Passanten wären natürlich aufgeschlossener für solche Abwägungen, aber auch nur, wenn sie zusammen unterwegs sind und nicht alleine, was wiederum die Ungerechtigkeit zeigt. Solche Gedankenspiele dürfen nicht mit der Wirklichkeit verwechselt werden. Sie sind aber ein klassisches Mittel, um Grundannahmen und Widersprüche zu erkennen und am Ende die Wirklichkeit auch gestalten zu können.
Abb.: Künstliche Intelligenz und maschinelle Moral