Cloud Computing aus Sicht der Ethik

Im Frühjahr 2018 erscheint „Cloud Computing: Die Infrastruktur der Digitalisierung“ bei Springer Vieweg, herausgegeben von Stefan Reinheimer. Das Buch thematisiert Chancen und Risiken des Cloud Computing, „bringt Lesern das Thema durch anschauliche Beispiele aus Forschung und Praxis näher und zeigt die Implikationen auf, die aus dieser neuen Infrastruktur resultieren“. „Die Beitragsautoren präsentieren technische Lösungen, Geschäftsmodelle und Visionen, die einerseits die Herausforderungen und Hürden des Cloud Computing aufgreifen – technisch, rechtlich, prozessbezogen – und andererseits die Chancen und Nutzen dieses Architekturansatzes in den Mittelpunkt stellen.“ (Website Springer) Der Beitrag von Oliver Bendel behandelt „Cloud Computing aus Sicht der Ethik“. „Zahlreiche Unternehmen transferieren Daten ihrer Kunden in die Cloud, oder diese werden selbst aktiv, nutzen spezielle Dienste und soziale Medien. Es stellen sich viele Fragen: Wird der Benutzer genügend informiert? Sind ihm alle Konsequenzen des Vorgangs klar? Was ist, wenn Inhalte als verdächtig angesehen und Informationen an Behörden weitergereicht werden? Wie können lebenswichtige und personenbezogene Daten geschützt werden? Der Beitrag stellt Probleme rund um Cloud Computing für Privatkunden aus Sicht des Verbraucherschutzes und der Informationsethik systematisch dar, mit Fokus auf Bild und Text. Aus der Unternehmensethik heraus werden Vorschläge für Anbieter unterbreitet.“ (Abstract) Weitere Informationen und Bestellung über www.springer.com/de/book/9783658209667.

Abb.: Das Cover des Herausgeberbands (Foto: Springer)

KI ist hier, um zu bleiben

In der Automation & Robotics vom März 2018, einer Beilage im Manager Magazin, findet sich ein Beitrag von Jan Philipp Albrecht (innen- und justizpolitischer Sprecher der Grünen-Fraktion im Europäischen Parlament). Er schreibt: „Wir stehen an der Schwelle zu einer Ära, in der immer höher entwickelte Technologien eine neue industrielle Revolution entfesseln können. Künstliche Intelligenz ist allgegenwärtig, und sie ist hier, um zu bleiben.“ Unter dem Stichwort „Simplexity“ führt Prof. Dr. Andreas Dengel (DFKI) aus: „KI definiert die neue Arbeitsteilung von Mensch und Maschine“. Im Interview erklärt Oliver Bendel, was Maschinenethik ist und wie sie mit KI und Robotik zusammenhängt. Er ist gegen eine vorschnelle Regulierung in der Entwicklung. Wenn Regulierung stattfinden soll, dann in den Anwendungsgebieten. An anderer Stelle hatte der Informations- und Maschinenethiker eine Roboterquote für öffentliche Räume gefordert, zum einen wegen der Kollisionsgefahr (bei Transport- und Sicherheitsrobotern), zum anderen wegen der Gefahr der Überwachung (bei Servicerobotern aller Art). Das Interview kann hier heruntergeladen werden.

Abb.: KI ist hier, um zu bleiben

Cult of the Machine

An extraordinary exhibition is currently taking place at the de Young Museum in San Francisco. The title „Cult of the Machine“ indicates what it is all about: „Characterized by highly structured, geometric compositions with smooth surfaces, linear qualities, and lucid forms, Precisionism – a style that emerged in America in the teens and flourished during the 1920s and 1930s – reconciled realism with abstraction, and wed European art movements, such as Purism, Cubism, and Futurism, to American subject matter to create a streamlined, ‚machined‘ aesthetic with themes ranging from the urban and industrial to the pastoral. The tensions and ambivalences about industrialization expressed in works by the Precisionists are particularly fascinating and relevant to a contemporary audience in the midst of a Fourth Industrial Revolution, in which robots are replacing human labor for various functions, underscoring many of the same excitements and concerns about modernization that existed nearly one hundred years ago.“ (Website de Young Museum) The exhibition will run from 24 March to 12 August 2018. Further information is available via deyoung.famsf.org/exhibitions/cult-machine.

Fig.: The exhibition sign

AI and Society IV

Nach dem Mittagessen spannte Oliver Bendel beim Symposium „AI and Society“ den Bogen „From GOODBOT to BESTBOT“. Sein BESTBOT-Projekt, das GOODBOT und LIEBOT zusammenführt, startete eine Woche vorher an der School of Business FHNW (der mit der Implementierung beauftragte Student ist David Studer). Der BESTBOT, ein Artefakt der Maschinenethik, soll Probleme des Benutzers auch über Gesichtserkennung identifizieren, was wiederum Probleme für den Benutzer schafft, die ebenfalls diskutiert werden sollen, und zwar aus Sicht der Informationsethik. „Toward Beneficial Human-Level AI … and Beyond“ thematisierte maschinelles Bewusstsein und „superintelligence“ und das TalaMind-Projekt. Philip Jackson betonte, dieses „will help to achieve beneficial human-level AI and superintelligence“ schneller und besser als andere Methoden. Andrew Williams sprach über „The Potential Social Impact of the Artificial Intelligence Divide“. Er fragte nach den Vorurteilen und Verzerrungen, die über KI verstärkt werden. Bei der abschließenden Diskussionsrunde war ein Thema der Zusammenhang zwischen natürlicher Sprache und menschlicher und maschineller Moral, ein anderes die Entwicklung des Arbeitsmarkts angesichts der Übernahme von Arbeit durch KI-Systeme und Roboter.

Abb.: Palmen an der Stanford University

AI and Society III

Das „AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ an der Stanford University ging am 27. März 2018 um 9.15 Uhr in die zweite Runde (oder in die dritte, wenn man die Halbtage zählt). Den Invited Talk hielt Emma Brunskill, Stanford University, zum Thema „Beyond Expected Reward: Considerations for Reinforcement Learning in High Stakes Domains“. Sie stellte die Frage, wie ein Agent aus Erfahrung lernen kann, gute Entscheidungen zu treffen, wenn die Erfahrung kostspielig oder risikobehaftet ist. Die Session „Applications and Interactive Agents“ startete mit „Interactive Agent that Understands the User“. Piotr Gmytrasiewicz präsentierte ein assistierendes KI-System namens MARTHA. Emanuelle Burton stieß in „The Heart of the Matter“ vor und fragte nach der „Patient Autonomy as a Model for the Wellbeing of Technology Users“ (so der Untertitel). Sie stellte eine Case Study mit dem Titel „Joe the heart patient“ vor. In „The Uncanny Return of Physiognomy“ kritisierte Oliver Bendel neuere Verfahren der Gesichtserkennung, mit denen z.B. sexuelle Orientierungen und kriminelle Tendenzen festgestellt werden sollen, und ordnete sie Physiognomik, der Pseudowissenschaft von Lavater und Co. sowie Biometrik in ihrer unseriösen Form (in der Tradition von Peter Camper) zu.

Abb.: Auch am zweiten Tag war bestes Wetter in Stanford

AI and Society II

Nach dem Lunch ging es beim Symposium „AI and Society“ am 26. März 2017 um 14.00 Uhr weiter mit der Session „Ethics and Moral Agents“. Umang Bhatt trug vor zum Thema „Maintaining The Humanity of Our Models“. Er ging auf eine Krankheitsdiagnose durch ein KI-System und später auf Obdachlose in L.A. ein und setzte dies in Beziehung zur Bias-Problematik. In „Ethics as Aesthetic for Artificial General Intelligence“ stellte Dan Ventura die Frage: „How can we ensure an AI agent behaves ethically?“ Er schlug den Schönheitssinn als Bestandteil der Metaethik vor. Rafal Rzepka betonte in „Importance of Contextual Knowledge in Artificial Moral Agents Development“, dass Fühlen, Beobachten und Zählen wichtig für moralisches Verhalten seien, wobei das Fühlen nicht die Domäne von Computern sei. Er setzt auf Geschichten als Grundlage für die Entscheidungen der Systeme. Abschließend fand die Discussion Session statt, moderiert von Venerable Tenzin Priyadashi und Judy Wajcman.

Abb.: Unter den Blüten an der Stanford University

AI and Society I

Das Symposium „AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ an der Stanford University begann am 26. März 2018 um 9 Uhr. Den Invited Talk hielt Vince Conitzer, Duke University, über „Moral Artificial Intelligence, Kidney Exchanges, and Societal Tradeoffs“. Er diskutierte ausführlich das Parking Game. Sodann stellte er die Moral Machine des MIT vor und ging auf einen „kidney exchange algorithm“ und „underdemanded pairs“ ein. Von 11.00 bis 12.30 Uhr fand die Session „Moral Decision Making“ statt. In „Towards Provably Moral AI Agents in Bottom-up Learning Frameworks“ forderten Nolan P. Shaw und Ryan W. Orr „robustness“, „simplicity“, „consistence“ und „universality“ von ihren moralischen Maschinen; diese sollen über neuronale Netzwerke von moralischen Agenten aller Art lernen. In „A Military AI System with Ethical Rules“ brachte Yetian Wang Knowledge Representation und Machine Learning zusammen. Der letzte Vortrag vor dem Mittagessen – das man in den Cafés der Umgebung bei Bilderbuchwetter einnahm – war „Preferences and Ethical Principles in Decision Making“. Das Thema von Kristen Brent Venable waren CP-Nets.

Abb.: Das Wahrzeichen der Stanford University

Im smarten Shuttle unterwegs

„Der automatisierte Verkehr fasziniert und irritiert. Die Meinungen gehen auseinander, auf den Plätzen, auf den Podien, in den Medien. Ich bin überzeugt, dass das autonome Auto nichts in den Innenstädten verloren hat. Zu viele Dinge, Lebewesen und Ereignisse, die es zu beurteilen hat, zu viele Situationen, in denen Kommunikation gefragt ist, ein Handzeichen, ein Blickkontakt. Der hoch- und vollautomatische bzw. autonome PKW gehört auf die Autobahn. Dort trägt er dazu bei, die Zahl der Unfälle zu reduzieren. Und gerät kaum in Situationen, in denen er moralische Urteile fällen und z.B. zwischen menschlichen Opfern entscheiden müsste.“ (ICTkommunikation, 22. März 2018) In den Städten sollten nach der Meinung von Oliver Bendel keine autonomen Autos fahren, aber autonome Busse und Shuttles, mit geringer Geschwindigkeit, auf virtuellen Schienen bzw. auf speziellen Spuren. Der Gastbeitrag „Im smarten Shuttle unterwegs“ des Informations- und Maschinenethikers für die ICTkommunikation ist am 22. März 2018 erschienen und kann über ictk.ch/inhalt/im-smarten-shuttle-unterwegs aufgerufen werden.

Abb.: Das SmartShuttle der PostAuto AG

Ein Ungeheuer namens Facebook

„Immer wieder hat Facebook Daten illegal genutzt und herausgegeben. Benutzer und Datenschützer haben das Unternehmen immer wieder erfolgreich zurückgedrängt. Aber es ist wie das Ungeheuer, dem man zwei Köpfe abschlägt und dem gleich vier neue Köpfe wachsen. Niemand scheint Anstoß daran zu nehmen, ein Akteur in einem offenbar illegalen Netzwerk zu sein. Bei Privatpersonen ist das befremdlich genug; aber dass tausende achtbare Unternehmen und Hochschulen auf der Plattform aktiv und auch noch stolz darauf sind, ist erstaunlich. Ein Teil der organisierten Kriminalität zu sein, ist nicht mehr nur in Italien oder in Russland selbstverständlich. Es ist auf der ganzen Welt verbreitet und chic. … Die Meldungen, dass Privatpersonen und Staatsdiener gegen die Unternehmen klagen, nehmen zu. Es sind Jurastudenten darunter, die sich profilieren wollen, und Benutzer, die ernsthaft um ihre Daten besorgt sind. Und Datenschützer verschiedener Länder. Vielleicht resultiert ja eine Massenbewegung daraus, und man kann eines Tages Facebook einen Daumen zeigen, der nach unten weist.“ (Oliver Bendel, „Die Rache der Nerds“, 2012)

Abb.: Ein Ungeheuer namens Facebook

Autonome Fahrräder

Im März 2017 erfuhr die connectUS-Delegation der Hochschule für Wirtschaft FHNW am MIT von dem autonomen Dreirad, das dort entwickelt wurde. Sie wurde durch die heiligen Hallen der berühmten Hochschule geführt und durfte einen Blick auf die aktuellen Prototypen werfen. Auf der Website heißt es: „The PEV is a low-cost, agile, shared-use autonomous bike that aims to solve the ‘last-mile’ urban mobility challenge of today, and to become a healthy, sustainable alternative to cars for cities of tomorrow. The PEV can be either an electrically-assisted tricycle for passenger commute or an autonomous carrier for delivering packages.“ Auch die Universität Magdeburg setzt auf das autonome Dreirad, wie MDR am 20. März 2018 meldete: „Selbstfahrende Autos sind schon länger im Gespräch, selbstfahrende Fahrräder aber haben die wenigsten bisher gesehen. Die Uni Magdeburg erforscht, wie Fahrräder autonom durch die Stadt fahren können, um Nutzern flexibel zur Verfügung zu stehen. Für Einkäufe oder andere Transporte könnte man sie dann mieten.“ (Website MDR, 20. März 2018) Oliver Bendel, der Mitglied der Delegation war, ist skeptisch gegenüber autonomen Dreirädern, da diese die Komplexität in Städten erhöhen und Kollisionen nicht zu vermeiden sein werden, ähnlich wie bei Servicerobotern.

Abb.: Am MIT

Was ist und will Roboterphilosophie?

Roboterphilosophie ist ein Teilgebiet der Philosophie, das sich mit Robotern sowie mit Erweiterungsoptionen wie künstlicher Intelligenz befasst. Dabei geht es vor allem (aber nicht nur) um mehr oder weniger autonome Serviceroboter, Pflege-, Transport- und Kampfroboter eingeschlossen. Beteiligt sind Disziplinen wie Erkenntnistheorie, Ontologie, Ästhetik und Ethik, darunter Roboterethik und Maschinenethik; die Technikphilosophie kann einerseits als übergeordnete Instanz verstanden werden, andererseits auch als gleichgestellte, insofern sie Roboter meist lediglich als technische Hilfsmittel und weniger als künstliche Mitgeschöpfe und Zeitgenossen begreift und die Roboterphilosophie mit ihrer spezifischen Perspektive neben sich braucht. In seinem Beitrag für das Wirtschaftslexikon von Springer Gabler erklärt Oliver Bendel, was Roboterphilosophie ist und will. Der Beitrag ist am 21. März 2018 erschienen und kann über wirtschaftslexikon.gabler.de/definition/roboterphilosophie-54555 aufgerufen werden.

Abb.: Was ist und will Roboterphilosophie?

Über Ubers Unfall

Bei einem Unfall mit einem Uber-Roboterauto ist in Tempe (Arizona) am 19. März 2018 eine Frau ums Leben gekommen. Sie schob ihr Fahrrad, als sie die Fahrbahn betrat. Der Insasse des Fahrzeugs griff nicht ein. Ralf Keuper vom Deutschlandfunk war am 20. März 2018 im Gespräch mit dem Roboterphilosophen, Informations- und Maschinenethiker Oliver Bendel, der 2012 eine Formel entwickeln ließ, die mögliche Unfallopfer qualifizieren und quantifizieren konnte, wobei er auf der European TA Conference in Prag, wo er diese Anfang 2013 vorstellte, davon abriet, sie autonomen Autos mitzugeben. Er plädiert seit Jahren dafür, hoch- und vollautomatisierten Individualverkehr in erster Linie auf Autobahnen stattfinden zu lassen. Was Uber und Co. in amerikanischen Städten machen, hält er für leichtfertig, unabhängig vom aktuellen Fall. Immer wieder hat er sich auch ein Bild vor Ort gemacht, etwa in San Francisco, wo selbstständig fahrende Autos im dichtesten Verkehr anzutreffen sind. Er rät dazu, solche Tests einzustellen. Der Beitrag „Das automatisierte Auto hat noch einen sehr langen Weg vor sich“ wurde in der Sendung „Forschung aktuell“ ausgestrahlt und ist über www.deutschlandfunk.de/forschung-aktuell.675.de.html aufrufbar.

Abb.: Oliver Bendel bei Audi (Foto: Audi)

Business in Mumbai

In Indien findet das IT-Business bzw. das Mediengeschäft zuweilen auch auf der Straße statt. Touristen werden fotografiert, die Bilder an Ort und Stelle ausgedruckt. Den Strom für das Gerät holt man sich aus der Umgebung oder auf andere Weise. Was mit den Dateien und Daten passiert, ist unklar, wie auch im Empire State Building, wo man die Besucher fast zum Shooting zwingt (und wo Beherzte dennoch einfach weitergehen, während die Kamera ins Leere schießt). Vor dem Gateway of India macht sich vermutlich kaum einer Gedanken über die informationelle Autonomie und den Datenschutz, weder der Fotograf noch der oder die Fotografierte. Überhaupt spielt das Bild eine große Rolle, und es vergeht kaum ein Tag, an dem man nicht von Einheimischen angesprochen und zum Gruppenbild mit Dame (oder Herrn) aufgefordert wird. In Mumbai kämpft jeder ums Überleben, außer diejenigen, die am Juhu-Strand wohnen und ab und zu im Bollywood-Studio einen Hindi-Film drehen, und diejenigen, die ihre Kinder in die Schweiz zum Skifahren schicken, wo wiederum Bilder geschossen werden, die in Indien landen (und auf Servern überall in der Welt).

Abb.: Business in Mumbai

QR-Codes in Indien

Der QR-Code wurde vor etwa 25 Jahren von der japanischen Firma Denso Wave, einer Tochter von Toyota, entwickelt. Er ist ein sogenannter 2D-Code. Es können in ihm u.a. Webadressen, Telefonnummern, SMS und freier Text enthalten sein. In Indien werden QR-Codes breit eingesetzt. Das Department of Biotechnology des Ministry of Science & Technology hat auf seiner Website in einem der Exemplare die Kontaktdaten von Prof. K. VijayRaghvan (Secretary of the Department) untergebracht. The Economic Times titelte am 8. Oktober 2017: „How India leads the way in the interoperability of QR code for payments“. Im Sanjay-Gandhi-Nationalpark in Mumbai findet man die quadratischen Alleskönner ebenfalls, auf einem Plakat neben dem Jungle Guru. Bei allen Möglichkeiten und Vorteilen – QR-Codes weisen, wie Oliver Bendel im Wirtschaftslexikon von Gabler betont, auch Sicherheitsrisiken auf. „Das grundsätzliche Problem ist, dass man ihnen nicht ansieht, was sie enthalten. Ein Mensch vermag kaum zwischen einem originären und einem manipulierten oder gefälschten Code zu unterscheiden. Reader und Generatoren können dazu missbraucht werden, Daten von Anwendern einzusammeln. Weiterhin ist es möglich, auf Gegenstände aufgebrachte QR-Codes zu überkleben und auszutauschen. Auf diese Weise kann ein Benutzer auf Websites mit fragwürdigen Informationen oder mit Malware gelockt und dem Anbieter auf unterschiedliche Weise geschadet werden.“ (Gabler Wirtschaftslexikon) Auch Malware selbst kann in einem 2D- oder 3D-Code untergebracht sein.

Abb.: Der QR-Code neben dem Jungle Guru

Vernachlässigtes Handy

In einem weiteren KI-(Kunst-)Projekt wurde ein Haiku von Oliver Bendel angepasst, mit Hilfe von Google Translate ins Japanische übersetzt und mit Hilfe der Text-to-Speech-Engine von IBM Watson eingesprochen, unter Verwendung von SSML. Zuerst werden von Emi – so der Name der künstlichen Stimme – die Metainformationen durchgegeben, dann wird das Gedicht selbst vorgetragen. Dieses stammt aus dem Band „handyhaiku“ (1. Aufl. 2010, ein Buch, in dem jedes Gedicht zusätzlich in einem QR-Code steckt) und lautet dort so: „an den waenden mein / vernachlaessigtes handy / auf steckdosenjagd“ … Das Haiku kann über www.handyroman.net/handyhaiku/einstieg.html heruntergeladen werden (Link nicht mehr gültig). Das Projekt hat auch ethische Implikationen. Was bedeutet es, wenn Texte automatisch übersetzt werden? Bleiben sie verständlich? Können sie missverständlich sein? Können sie weitreichende Folgen haben? Was bedeutet es, wenn künstliche immer mehr menschliche Stimmen ablösen? Wenn sie in irgendeinem Sinne perfekt sind und der Mensch danach strebt, diese Perfektion zu erreichen? Oder wenn sie imperfekt sind und das Kind diese Imperfektion imitiert? Genau dies passiert bereits, wenn Pepper ein Familienmitglied in Japan ist, wie Aldebaran bzw. SoftBank vor einiger Zeit auf einer Konferenz in Krakau mitteilte.

Abb.: Mit dem Handy unterwegs in Osaka

Cue trifft den Korb

Im Rahmen von connectUS besuchten die Studierenden und Dozenten bzw. Forscher der FHNW im Jahre 2017 auch ein Basketballspiel in Oakland. In der ersten Reihe saß Drake, ein kanadischer Rapper, der mindestens so viel Aufmerksamkeit erregte wie das übrige Geschehen. In der ersten Reihe könnten in der Zukunft auch Roboter sitzen, die von den Spielern lernen. Und die dann aufstehen, mitmischen und dabei weiterlernen. Golem berichtete am 16. März 2018 über Cue, einen 1,90 Meter großen, humanoiden Sportroboter, der aus einem Aluminiumskelett besteht, über das eine Kunststoffhaut gezogen wurde. „Er steht auf einer kleinen Plattform, in der die Steuerung untergebracht ist. Als Vorbild nahmen die Toyota-Techniker, die den Roboter in ihrer Freizeit gebaut haben, Sakuragi Hanamichi, eine Figur aus der Manga-Serie Slam Dunk.“ (Golem, 16. März 2018) Im Moment kann Cue vor allem eins, nämlich den Ball im Korb versenken. Der Basketballroboter „wirft aus einer Entfernung von etwa 3,6 Metern auf den Korb“. „Gesteuert wird er dabei durch künstliche Intelligenz. Um ihn zu trainieren, ließen ihn die Entwickler 200.000 Mal auf den Korb werfen. Inzwischen ist Cue absolut schusssicher.“ (Golem, 16. März 2018) Ein besonders guter Mitspieler wäre er laut Golem dennoch nicht: „Er kann nicht laufen. Für ein dynamisches Spiel eignet er sich demnach nicht. Aber er könnte jeweils für Freiwürfe eingewechselt werden.“ (Golem, 16. März 2018) Bis Basketballspieler arbeitslos werden, dauert es also noch eine Weile.

Abb.: Cue trifft besser als ein Mensch

Co-robots from an Ethical Perspective

The book chapter „Co-robots from an Ethical Perspective“ by Oliver Bendel was published in March 2018. It is included in the book „Business Information Systems and Technology 4.0“ (Springer). The abstract: „Cooperation and collaboration robots work hand in hand with their human colleagues. This contribution focuses on the use of these robots in production. The co-robots (to use this umbrella term) are defined and classified, and application areas, examples of applications and product examples are mentioned. Against this background, a discussion on moral issues follows, both from the perspective of information and technology ethics and business ethics. Central concepts of these fields of applied ethics are referred to and transferred to the areas of application. In moral terms, the use of cooperation and collaboration robots involves both opportunities and risks. Co-robots can support workers and save them from strains and injuries, but can also displace them in certain activities or make them dependent. Machine ethics is included at the margin; it addresses whether and how to improve the decisions and actions of (partially) autonomous systems with respect to morality. Cooperation and collaboration robots are a new and interesting subject for it.“ The book can be ordered here.

Fig.: The cover of the book (photo: Springer)

Programme of AAAI Spring Symposium

The tentative schedule of AAAI 2018 Spring Symposium on AI and Society at Stanford University (26 – 28 March 2018) has been published. On Tuesday Emma Brunskill from Stanford University, Philip C. Jackson („Toward Beneficial Human-Level AI … and Beyond“) and Andrew Williams („The Potential Social Impact of the Artificial Intelligence Divide“) will give a lecture. Oliver Bendel will have two talks, one on „The Uncanny Return of Physiognomy“ and one on „From GOODBOT to BESTBOT“. From the description on the website: „Artificial Intelligence has become a major player in today’s society and that has inevitably generated a proliferation of thoughts and sentiments on several of the  related issues. Many, for example, have felt the need to voice, in different ways and through different channels, their concerns on: possible undesirable outcomes caused by artificial agents, the morality of their use in specific sectors, such as the military, and the impact they will have on the labor market. The goal of this symposium is to gather a diverse group of researchers from many disciplines and to ignite a scientific discussion on this topic.“ (AAAI website)

Fig.: On the campus of Stanford University

Social Bots und Cyborgs im Abstimmungskampf

„Wissenschaftlerinnen und Wissenschaftler der Hochschule für Wirtschaft FHNW erforschten in einem Projekt, ob Social Bots oder Cyborgs die No-Billag-Abstimmung in der Schweiz zu beeinflussen versuchten. Social Bots sind in sozialen Medien wie Facebook und Twitter unterwegs. Wenn sie Meinungen verbreiten bzw. beeinflussen sollen, nennt man sie auch Meinungsroboter. Cyborgs sind im vorliegenden Zusammenhang reale Nutzer, die ihr Kommunikationsvolumen mit Automatisierungstools steigern. Im Projekt wurde auf die Kommunikation zur Abstimmung auf Twitter fokussiert.“ (Medienmitteilung FHNW) Untersucht wurde die heiße Phase der Abstimmung vom 7. Januar bis zum 4. März 2018 (Abstimmungssonntag). In diesen gut acht Wochen gab es auf Twitter knapp 200000 Wortmeldungen (Tweets, Retweets, Replies) zur Abstimmung. Sie stammten von 26000 Accounts, von denen 19.5 % Befürworter und 80.5 % Gegner der Initiative waren. „Pro- und Contra-Tweets traten hingegen im Verhältnis 35:65 auf. Die Gegner der Initiative konnten mehr Personen mobilisieren, die Befürworter vermochten dies mit erhöhter Betriebsamkeit auszugleichen.“ (Medienmitteilung FHNW) Das Forschungsprojekt wird mit Mitteln der Hasler Stiftung finanziert. Die Projektleitung haben Prof. Dr. Stefan Gürtler (Datenerhebung und -auswertung) und Prof. Dr. Oliver Bendel (Abschlussbericht) inne.

Abb.: Ein Cyborg-Girl an einer Wand an der Limmat in Zürich

Kaugummi und Spucke auf dem Sensor

Moderne Autos verfügen über zahlreiche Sensoren, je nach Einordnung und Zählweise zwischen 40 und 200. Die einen sind aktiv, die anderen sind passiv, einige richten sich nach innen, einige nach außen. Beim teil-, hoch- und vollautomatisierten Fahren und bei autonomen Autos spielen vor allem Sensoren eine Rolle, mit deren Hilfe die Umgebung erfasst, untersucht und bewertet wird. Dazu gehören Ultraschallsensoren, Radar- und Lidarsysteme, Infrarotkameras und 2D- und 3D-Kameras. Weil sich diese Sensoren nach außen richten, kann man sie von außen auch physisch manipulieren. Dies ist eine Gefahr, die bisher nur wenig thematisiert wurde. Man bemerkte durchaus, dass Fahrzeuge sich optisch täuschen lassen, dass sie mit Signalen attackiert oder dass ihre Signale gestört werden können, ganz abgesehen von klassischen Hackingmethoden. Aber man vernachlässigte, was mit einfachen Mitteln möglich ist. Der Beitrag „Scheitert autonomes Fahren an manipulierten Sensoren?“ von Oliver Bendel beleuchtet diese Gefahr. Er ist am 6. März 2018 in der ICTkommunikation erschienen und kann über ictk.ch/inhalt/scheitert-autonomes-fahren-manipulierten-sensoren abgerufen werden.

Abb.: Sieht das Auto das, was es sehen soll?

Das gläserne Produkt

An einem Fraunhofer-Institut wurde vor 15 Jahren „Das gläserne Produkt“ von Oliver Bendel konzipiert. Es wird in seinem Buch „Die Rache der Nerds“ beschrieben: „Der Kunde interessiert sich im Tante-Emma-Laden oder im Supermarkt für ein bestimmtes Produkt. Er scannt mit dem Handy eine ID auf der Verpackung ein. Die ID wird mit einem persönlichen Profil gematcht, das auf dem Handy oder einem Server liegt. Auf dem Display wird eine Empfehlung angezeigt, etwa mithilfe eines Ampelsy­stems. Der Kunde weiß sofort, ob sich das Produkt für ihn eignet (grün) oder nicht (rot). Oder ob er sich anderweitig informieren sollte (gelb).“ Neben Vegetariern stellte man sich Allergiker und Diabetiker als Zielgruppen vor. Inzwischen hat sich viel getan. Es gibt Informationssysteme und Deklarationsfortschritte. In Deutschland wird z.B. Käse, der mit mikrobiellem Lab hergestellt wird, oftmals direkt auf der Verpackung als vegetarisch gekennzeichnet. In der Schweiz weigern sich Coop und Migros, das zu tun bzw. die Produzenten dazu anzuhalten. Zudem haben sie kaum hochwertige vegetarische Hart- und Halbhartkäse im Angebot, wie Gluschtig, Bachtelberger oder bestimmte Emmentaler-Sorten. Aus der Perspektive eines Vegetariers, der Milchprodukte wie Käse verzehrt, Kälberlab aber ablehnt, haben sie weder ein gläsernes noch ein gutes Produkt.

Abb.: So einfach kann Deklaration sein

Vom Duzen, Siezen und Euchzen (auch: Ihrzen)

„Heute wurde ich, wenn ich richtig gezählt habe, 6-mal geduzt. Ich bin 40 Jahre alt, sehe aus wie 42 und fühle mich wie 44. Es handelte sich nicht um Menschen und Automaten, mit denen ich mich genderungerecht verbrüdert oder cyborgmäßig vereinigt hätte. Und wir sind im deutschsprachigen Raum, wo man jahrzehntelang nicht ohne weiteres geduzt wurde. Seit kurzem wohne und arbeite ich wieder in der Schweiz, wo man sich viel und gerne duzt. Ich mag das, man kann Vertrautheit herstellen, auf einer Ebene kommunizieren. Vielleicht wird die Bedeutung des Duzens diesbezüglich übertrieben; aber angenehm ist es ohne jeden Zweifel. Trotzdem wurde ich, wenn ich heute 6-mal geduzt wurde, 4-mal zuviel geduzt. Mindestens.“ So beginnt ein Artikel von Oliver Bendel, der vor zehn Jahren bei mediensprache.net veröffentlicht wurde, über www.mediensprache.net/de/essays/5/ … Wer noch weiter in die Vergangenheit reisen will, die einem hier und dort wie die Gegenwart erscheint, sei auf „Aus Grüßen und Kuscheln wird Gruscheln“ verwiesen, erschienen 2007, erreichbar über www.mediensprache.net/de/essays/4/

Abb.: In der Schweiz wird gerne geduzt