Hello, sagt Barbie

„Die gefährlichsten Trends der Digitalisierung“ – so der Titel eines Beitrags in der Handelszeitung vom 12. Dezember 2016. Er beginnt mit den Worten: „Stille Zuhörer und Algorithmen, die Menschen bewerten. Wenn künstliche Intelligenz in die falschen Hände gerät, wie weit ist es dann noch bis zum Desaster? Ein Überblick über beunruhigende Ideen.“ Zitiert wird mehrmals Oliver Bendel, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. „Stephen Hawking und Elon Musk sprechen seit Jahren davon, dass künstliche Intelligenz für die Menschheit zum Desaster werden kann. Tesla-Chef Musk nennt dies die zentrale Frage unserer Zeit: Dass wir einen klugen, bewussten Umgang mit schlauen Maschinen finden. Geht das überhaupt? Oliver Bendel ist da wenig optimistisch.“ (Handelszeitung, 12. Dezember 2016) Er schätzt die Vorteile moderner Technologien und entwickelt selbst sogenannte moralische Maschinen. Für problematisch hält er vor allem das Potenzial mancher Technologien in Bezug auf Überwachung und Ausbeutung. Hello Barbie, Echo von Amazon – gerade im auditiven Bereich ereignet sich eine regelrechte Explosion, die noch Ohrenschmerzen bereiten könnte. Und andere Schmerzen ebenso. Der Beitrag kann hier abgerufen werden.

Abb.: Manche Barbie-Puppen können gucken und horchen

App zur Unterstützung der Peer-Kultur

Der von Mario A. Pfannstiel, Patrick Da-Cruz und Harald Mehlich herausgegebene Band „Digitale Transformation von Dienstleistungen im Gesundheitswesen: Impulse für die Versorgung“ ist Ende 2016 bei Springer Gabler erschienen. Im Abstract zum Beitrag „Companion: Eine App zur Unterstützung der Peer-Kultur“ von Rainer Telesko und Oliver Bendel heißt es: „Entworfen wurde eine auf das Jugendalter zugeschnittene Intervention des Betrieblichen Gesundheitsmanagements (BGM) zur Stärkung der psychischen Gesundheit. Gesundheitsförderung Schweiz entwickelte in Zusammenarbeit mit der Zürcher Hochschule für Angewandte Wissenschaften und der Hochschule für Wirtschaft FHNW eine webbasierte App, die Jugendliche dazu anregt, sich gegenseitig zu helfen und damit die Positive Peer Culture zu stärken. Über die Companion App können Jugendliche eines Betriebs miteinander in Kontakt treten und sich u. a. durch ein Mentoring-System unterstützen. Des Weiteren beinhaltet sie Informationen und Links zum Thema Gesundheit, Beruf und Freizeit.“ Es wird sowohl die Perspektive der Informatik als auch der Ethik eingenommen: „Der Artikel skizziert die Entwicklung der Companion App über die Phasen Analyse, Design, Implementierung und Evaluation. Darüber hinaus wird auf ein begleitendes Konzept eingegangen, das aus der Informationsethik heraus entstanden ist.“ Das Buch hat 359 Seiten und kostet ca. 50 Euro.

Abb.: Website zur App namens Companion

Die Zukunft in den Händen der Roboter

„Die Zukunft in den Händen der Roboter!“ Mit dieser Schlagzeile wird ein Text zu einem Beitrag angeteasert, der am 24. November 2016 in Radio 32 ausgestrahlt wurde. „Es ist eine düstere Zukunft für KV-Angestellte. Bis zu 100‘000 Stellen könnten wegfallen. Dies unter anderem wegen der Digitalisierung und weil Roboter die Arbeit übernehmen. Das zeigt eine Studie im Auftrag des kaufmännischen Verbands Schweiz. Die Arbeit der Roboter sei Fluch und Segen zugleich, sagt Oliver Bendel, Professor für Wirtschaftsinformatik an der Fachhochschule Nordwestschweiz.“ (Website Radio 32) Er ist der Meinung, dass uns Corobots in der Fabrik unterstützen können, etwa bei schweren körperlichen Arbeiten. Auch Bots und Agenten können uns helfen, beispielsweise bei Routinetätigkeiten im Büro. Künstliche Intelligenz, die derzeit einen enormen Aufschwung erlebt, ist in der Lage, auch wissenschaftliche und kreative Aufgaben zu übernehmen, von der Diagnose von Krankheiten bis hin zum Design von Autos. Es wird weniger Arbeit geben, und die Gesellschaft muss sich darauf einstellen. Dabei muss sie der Wirtschaft die Pflicht auferlegen, die Gewinne gerecht zu verteilen. Der Beitrag kann über die Website des Solothurner Radiosenders nachgehört werden, über www.radio32.ch?rub=33&newsId=31190.

Abb.: Die Zukunft in den Händen der Roboter

Podiumsdiskussion über täuschende Maschinen

„Should we develop robots that deceive?“ Diese Frage diskutierten Ron Arkin (Georgia Tech), Oliver Bendel (Hochschule für Wirtschaft FHNW), Jaap Hage (Universiteit Maastricht) und Mojca Plesnicar (Inštitut za kriminologijo pri Pravni fakulteti v Ljubljani) auf dem Podium der Konferenz „Machine Ethics and Machine Law“. Ron Arkin forschte wiederholt für das Pentagon an Robotern, die Maschinen und Personen täuschen und Personen und Einrichtungen schützen. Er stellte Tiere vor, die andere Tiere täuschen, und skizzierte, wie dieses Verhalten auf Roboter übertragen werden kann. Oliver Bendel, der Vater des LIEBOT, formulierte sechs Thesen. Die fünfte lautete: „We should … develop deceptive and lying machines to be able to fight against deceptive and lying machines.“ Und er kam zum Schluss: „After all, deceptive and lying machines are important for the improvement of artificial intelligence.“ Nach den Statements von Jaap Haage und Mojca Plesnicar diskutierte man miteinander und mit dem Publikum, angeleitet und vermittelt von Amit Kumar Pandey (SoftBank Robotics). Die Konferenz am 18. und 19. November 2016 in Krakau dürfte nach dem Symposium „Ethical and Moral Considerations in Non-Human Agents“ (21. – 23. März in Stanford) die wichtigste internationale Konferenz für Maschinenethik im Jahre 2016 gewesen sein. An den zwei Tagen trugen u.a. Ron Arkin, Oliver Bendel (zusammen mit Kevin Schwegler), Elizabeth Kinne, Lily Frank, Joanna Bryson und Kathleen Richardson vor. Es liegt ein Proceedingsband mit den Extended Abstracts vor.

Abb.: Nach der Podiumsdiskussion

Die Vielfalt der Drohnen

Drohnen im Sinne von unbemannten Luftfahrzeugen existieren heute in vielfältiger Form, als Quadrokopter genauso wie als Oktokopter, im Betrieb ferngesteuert, teilautonom oder autonom. Man kann den militärischen, politischen, journalistischen, wissenschaftlichen, wirtschaftlichen und privaten Einsatz unterscheiden. Es finden sich etliche spezielle Bezeichnungen, sowohl im Deutschen als auch im Englischen. Eine Grafik, die über maschinenethik.net zur Verfügung gestellt wird, versucht mit Blick auf die Vielfalt der Drohnen etwas Ordnung zu schaffen. Es handelt sich um eine erste Version, die gegebenenfalls aktualisiert und adaptiert werden soll. Sie kann unter Angabe der Quelle und des Autors auf Websites und in Beiträgen verwendet werden. In der Grafik werden nicht zuletzt Beispiele für Anwendungen gegeben. Dutzende Möglichkeiten mussten aus Platzgründen weggelassen werden. So erfreuen sich Drohnen etwa bei Immobilienmaklern großer Beliebtheit, kann man doch Haus und Garten auch von oben und aus neuen Perspektiven zeigen, ohne dass man gleich einen Hubschrauber mieten muss. Überhaupt ist die Kostenersparnis ein wesentlicher Aspekt bei der Verbreitung der Drohnen. Zugleich stellen sich ethische Fragen; darauf geht etwa dieser Artikel im Informatik-Spektrum ein.

Abb.: Einsatzformen und Bezeichnungen von Drohnen

Internationale Konferenz zur Medienethik

Eine internationale Konferenz zur Medienethik veranstaltet die Fakultät für Kommunikation der Universität von Sevilla. Sie findet statt vom 23. bis 24. März 2017. Organisiert wird sie von der Universität von Sevilla, der Nationalen Autonomen Universität von Mexiko und der Pompeu-Fabra-Universität (Barcelona). „Active citizenship and media accountability“ sind laut Call for Papers die Themen. Das Abstract mit maximal 1000 Wörtern muss bis zum 31. Januar 2017 an icmesevilla@gmail.com geschickt werden. Man wird innerhalb von zehn Tagen über Annahme oder Ablehnung benachrichtigt. Der fertige Beitrag muss bis 28. Februar 2017 eingereicht werden. Weitere Informationen über congreso.us.es/mediaethics.

Abb.: In Sevilla

Ein Kodex für die Jugend

Nach der Netiquette 2.0 mit ihren zehn Vorschlägen – von Oliver Bendel zuerst im Blick am Abend vom 17. März 2009 veröffentlicht, dann in der Netzwoche, Ausgabe 5/2010 – ist im November 2016 ein weiterer Kodex erschienen. klicksafe.de meldet: „In Zusammenarbeit mit Masterstudierenden der Hochschule der Medien Stuttgart unter Leitung von Prof. Dr. Petra Grimm und Prof. Dr. Wolfgang Schuster, dem 1. Vorsitzenden der Deutschen Telekom Stiftung, hat juuuport zehn Gebote der Digitalen Ethik entwickelt.“ (klicksafe.de, 8. November 2016) Und weiter: „In der digitalisierten Welt haben Internetnutzerinnen und -nutzer große Freiheiten, aber auch eine große Verantwortung. Wie sie sich verhalten und mit Konflikten umgehen, ist Ausdruck ihrer eigenen ethischen Haltung. Deshalb ist es wichtig, sich darüber zu verständigen, wie ein gutes, gelingendes Leben in der digitalen Gesellschaft aussehen soll. Die zehn Gebote verstehen sich als Leitlinien, die helfen, die Würde des Einzelnen, seine Selbstbestimmung und Handlungsfreiheit wertzuschätzen. Sie richten sich vor allem an Jugendliche und berücksichtigen ihre Formen der digitalen Kommunikation. Sie dienen ihnen als Orientierung und zeigen auf, wie man im Internet gut zusammenleben und rücksichtsvoll miteinander umgehen kann.“ (klicksafe.de, 8. November 2016) Im letzten Vorschlag treffen sich die Kodizes. In der Netiquette 2.0 lautet er: „Du sollst Handy und Computer so oft wie möglich ausschalten und dem Gesang der Vögel lauschen.“ (Version Blick am Abend) In den neuen zehn Geboten heißt es ganz ähnlich: „Schalte hin und wieder ab und gönne dir auch eine Auszeit.“

Abb.: Was kann und soll man mit dem Handy?

Machine Ethics and Machine Law

Die Konferenz „Machine Ethics and Machine Law“ am 18. und 19. November in Krakau dürfte nach dem Symposium „Ethical and Moral Considerations in Non-Human Agents“ (21. – 23. März in Stanford) die wichtigste internationale Konferenz für Maschinenethik im Jahre 2016 sein. Die Keynotes am 19. November stammen von Ron Arkin („Lethal Autonomous Robots and the Plight of the Noncombatant“) und Amit Pandey („Contemporary Issues on Ethical Intelligence of a Socially Intelligent Consumer Robot“). In der darauffolgenden Podiumsdiskussion geht es um die Frage: „Should we develop robots that deceive?“ Es diskutieren Ron Arkin, Oliver Bendel, Jaap Hage und Mojca Plesnicar. In den Sessions am Nachmittag referieren u.a. Oliver Bendel, Lily Frank und Kathleen Richardson. Jaap Hage hält am 19. November seine Keynote zur Frage „Under which circumstances can we hold a machine responsible for its acts?“, Ewa Lukasik ihre Keynote über „Human Autonomy and the Hazards of Principle Agency in an Era of Expanding AI“. Es folgen eine weitere Podiumsdiskussion und Vorträge u.a. von Luís Moniz Pereira und Georgi Stojanov. Das gesamte Programm kann über die Website der Konferenz (machinelaw.philosophyinscience.com/technical-program/) eingesehen werden; dort findet sich auch der Proceedingsband mit den Abstracts.

Abb.: Ist Obelix so freundlich, wie er tut?

Ein locker geflochtener Zopf

Dass Roboter auch Gedichte vortragen können, zeigt ein Projekt von Oliver Bendel, gestartet im November 2016. Benutzt wurde für den ersten Versuch die Text-to-speech-Engine von IBM Watson. Diese kann im Prinzip für Vorlesesysteme, für Chatbots oder für Serviceroboter verwendet werden. Das Gedicht wurde mit Hilfe der Speech Synthesis Markup Language (SSML) angepasst, einer auf XML basierenden Auszeichnungssprache. Die deutsche Stimme „Birgit“ unterstützt diese teilweise. So konnte das Personalpronomen „sie“ an drei Stellen in der Aussprache etwas verlängert werden. Es wurden Pausen am Anfang eingebaut, damit der Titel und die Metainformationen (Autor, System, Stimme, Datum) nicht zu schnell nacheinander gesprochen werden, zudem Pausen zwischen den Strophen. Der Titel des Gedichts lautet „Ein locker geflochtener Zopf“. Es geht um eine Astronautin, die auf einem Planeten, der Atmosphäre besitzt, ihr Haar schüttelt. Ein Roboter ist bei ihr, ein eitler Geck, der sich am liebsten selbst betrachtet. Die Texte aus der Sammlung „Die Astronautin“ kreisen um eine Frau im besten Alter, die allein in den Tiefen des Alls unterwegs ist. Veröffentlicht wurde daraus bisher nur „Auf dem obersten Deck“, und zwar in der Anthologie „Worte reden, Worte schweigen“ von 2013. Das Gedicht kann hier im Format .ogg heruntergeladen und beispielsweise im VLC Media Player angehört werden. In weiteren Versuchen will der Autor die Stimme selbst verändern und die eine oder andere Passage anders betonen lassen.

Abb.: Die Astronautin in jungen Jahren mit einem nicht ganz so locker geflochtenen Zopf

Gibt es Algorithmen für Empathie?

Am 28. Oktober 2016 fand im Paul-Löbe-Haus in Berlin der 3. Netzpolitische Kongress unter dem Motto „Für eine Ethik der digitalen Gesellschaft“ statt. Der wirtschaftspolitische Sprecher der Fraktion der Bundestagsfraktion der Grünen, Dieter Janecek, schreibt auf seiner Website: „Gemeinsam mit Olivia Klose (Software Development Engineer bei Microsoft) und Prof. Dr. Oliver Bendel (Wirtschaftsinformatiker, Wissenschaftler und Autor) haben wir uns mit ‚Deep Learning‘ auseinandergesetzt: Was unterscheidet Mensch und Maschine und gibt es Algorithmen für Empathie?“ Und weiter: „Eines der zentralen Ziele des Workshops war, die Unterschiede zwischen rein regelbasierten und selbstlernenden Systemen sowohl technisch als auch mit Blick auf die später zu beantwortenden Fragen der Maschinenethik deutlich zu machen. Rein regelbasierten Systemen lassen sich Verhaltensweisen, die man moralisch nennen kann, anhand von annotierten Entscheidungsbäumen beibringen, die Prof. Oliver Bendel maßgeblich entwickelt hat.“ (Website Janecek) Angespielt wird damit auf den Beitrag „Annotated Decision Trees for Simple Moral Machines“, erschienen 2016 im Proceedingsband der AAAI Spring Symposium Series. „Aus ethischer Perspektive stellt sich aber nicht nur die Frage, nach welchen Prinzipien diese Maschinen handeln sollen, sondern auch, welche Maschinen wir durch entsprechende Programmierung überhaupt zu moralischen Maschinen machen wollen, wann moralische Vorgaben vielleicht unverhältnismäßige Einschränkungen in der Funktionsweise einer Maschine darstellen, ob wirklich alle denkbaren Szenarien auch immer vorhersehbar sind, und welche Art von Aufgaben wir überhaupt auf Maschinen übertragen möchten.“ (Website Janecek) Der ganze Beitrag ist über http://www.dieterjanecek.de abrufbar.

Abb.: Das Paul-Löbe-Haus in Berlin

Beitrag zu Cyborgs

Im Wirtschaftslexikon von Gabler ist seit 3. November 2016 ein neuer Beitrag zu finden, und zwar zu Cyborgs. Es heißt dort: „Ein Cyborg (von engl. ‚cybernetic organism‘) ist ein Lebewesen, das technisch ergänzt oder erweitert ist. Damit ist er eine Ausprägung des Human Enhancement. Dieses dient der Vermehrung menschlicher Möglichkeiten und der Steigerung menschlicher Leistungsfähigkeit und damit – aus Sicht der Betroffenen und Anhänger – der Verbesserung und Optimierung des Menschen. Es gibt sowohl menschliche als auch tierische Cyborgs. Die Bewegung des Transhumanismus, von der in diesem Zusammenhang häufig die Rede ist, propagiert die selbstbestimmte Weiterentwicklung des Menschen oder die fremdbestimmte Weiterentwicklung von Tieren in die Richtung verständiger, quasi halbmenschlicher Wesen mithilfe wissenschaftlicher und technischer Mittel. Cyborgs sind ein Topos in Science-Fiction-Büchern und -Filmen.“ Das Thema wird auch aus der Perspektive von Informationsethik und Maschinenethik beleuchtet. Der Beitrag stammt von Oliver Bendel und kann über http://wirtschaftslexikon.gabler.de/Definition/cyborg.html heruntergeladen werden.

Abb.: Ein Cyborg

Robotersex in der NZZ am Sonntag

„Was hat Sex mit Technologie zu tun?“ Das fragt Regula Freuler in einem zweiseitigen Artikel, der am 23. Oktober 2016 in der NZZ am Sonntag erschienen ist. „Am Anfang war der Sex, erst später kam die Liebe. So war das in der Geschichte der Menschheit. Die Geschichte der Technologie verläuft offenbar gleich: Seit Jahrzehnten wird an Maschinen und Computersystemen getüftelt, die unser Sexleben bereichern sollen, von Vibratoren bis zu Avataren. Dank künstlicher Intelligenz rückt die Sex-Tech-Industrie bald in eine neue Dimension vor: Sex-Roboter, die sich anfühlen wie ein Mensch und Dialoge führen können wie ein Mensch. Und was ist dann mit der Liebe? Werden wir Roboter lieben? Werden Roboter uns lieben?“ (NZZ am Sonntag, 23. Oktober 2016) Zu Wort kommen Oliver Bendel (Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW), Kate Darling (Research Specialist am MIT Media Lab), Kathleen Richardson (Senior Research Fellow in Roboterethik an der De Montfort University), David Levy (Schachmeister und Computerexperte), Sherry Turkle (Professorin für Science, Technology and Society am MIT) und Eva Illouz (Professorin für Soziologie an der Hebräischen Universität von Jerusalem). Der Beitrag wurde von der NZZ am Sonntag freundlicherweise zur Verfügung gestellt und kann hier heruntergeladen werden.

Abb.: Kann man sich in Dinge verlieben?

Darf ein Sexroboter einen Orgasmus vortäuschen?

„Soll ein Sexroboter einen Orgasmus vortäuschen dürfen?“ So lautet der Titel eines Artikels von Tom Strohschneider im Neuen Deutschland. Angelehnt ist er an eine Frage in einem Buchbeitrag von Oliver Bendel, aus dem mehrmals zitiert wird und der im Sammelband „Programmierte Ethik“ (Heise Medien, 2016) enthalten ist. Im Teaser des Artikels heißt es: „Darf ein Sexroboter einen Orgasmus vortäuschen? Sollte er vielleicht sogar? Die Frage mag auf den ersten Blick wie eine seltsame, nur für einen eher kleinen Teil der Öffentlichkeit interessante anmuten. Doch es steckt mehr dahinter: Je näher sich Mensch und Maschine durch die technologische Entwicklung kommen (können), desto drängender wird nach ethischen Antworten für die Beziehungen zwischen Robotern und uns gesucht.“ (Neues Deutschland, 21. Oktober 2016) Zitiert werden u.a. Kathleen Richardson, Charles Ess und eben Oliver Bendel. Die beiden Erstgenannten lehnen Robotersex ab. Richardson hat vor einiger Zeit eine Petition verfasst für ein Verbot von Sexmaschinen. Sie glaubt, dass echten Frauen durch ihre künstlichen Kopien eine weitere Reduktion droht. Faktisch findet diese allerdings bei Dildos und Vibratoren statt, und diese Reduktion gilt nicht Frauen, sondern Männern. Ess ist ebenso kritisch: „Wer sich nur noch auf die Suche nach dem vollkommenen Sex mit Maschinen mache, werde nicht nur im Bett mit Zombies landen, sondern selbst ein solcher werden.“ (Neues Deutschland, 21. Oktober 2016) Oliver Bendel sieht sowohl die Risiken als auch die Chancen. Für ihn bleibt die Zustimmung oder Ablehnung gegenüber Robotersex letztlich die Privatsache urteilsfähiger Menschen.

Abb.: Darf ein Sexroboter einen Orgasmus vortäuschen?

Maschinenethik in der Fabrikhalle

„Programmierte Moral für autonome Maschinen“ – so der Titel einer Diskussionsveranstaltung von Telepolis und Westendverlag am Rande der Buchmesse in Frankfurt. Auf der Website der Zeitschrift heißt es: „Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen den Umgang mit den neuen Mitbewohnern lernen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert werden. Autonome Fahrzeuge könnten bald massenhaft auf den Straßen fahren. Dass sie keine hundertprozentige Sicherheit bei ihren Entscheidungen bieten, zumal wenn sie mit menschlichen Fahrern konfrontiert sind, hat sich bereits an Unfällen gezeigt.“ (Website Telepolis) Die Gäste in der ehemaligen Fabrikhalle der Firma Naxos-Union namens Naxoshalle, Prof. Dr. Catrin Misselhorn, Direktorin des Instituts für Philosophie der Universität Stuttgart, Prof. Dr. Oliver Bendel, Professor am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW, und Peter Weibel, Medienkünstler und Medientheoretiker, Vorstand des Zentrums für Kunst und Medien Karlsruhe, diskutieren über moralische Maschinen und maschinelle Moral. Vorgestellt werden auch zwei Bücher, „Die Moral in Maschine“ von Oliver Bendel (erschienen bereits im Februar) und „Programmierte Ethik“, herausgegeben von Florian Rötzer, mit Beiträgen u.a. von Oliver Bendel, Catrin Misselhorn, Raúl Rojas und Hans-Arthur Marsiske. Es moderiert Florian Rötzer, Chefredakteur von Telepolis. Weitere Informationen über www.heise.de/tp/artikel/49/49560/1.html.

Abb.: Nicht die Halle, aber Naxos

Brauchen wir noch einen Führerschein?

In einem Artikel in der Main-Post stellt Thomas Feiler die Frage, ob wir künftig noch einen Führerschein brauchen: „Mal blöd gefragt: Wenn Autos bald eigenständig fahren, brauchen wir dann überhaupt noch einen Führerschein? Die Antwort darauf klingt schon nicht mehr so blöd.“ (Main-Post, 12. Oktober 2016) Zunächst skizziert er die Ideen-, dann die Entwicklungsgeschichte autonomer Autos: „James Bond saß schon in einem – und David Hasselhoff in Knight Rider und Tom Cruise in Minority Report auch: selbstfahrende Autos. Was nach Filmspielereien und Zukunftsmusik klingt, wird immer realer. Nicht nur Automobilunternehmen wie Audi und Mercedes – auch der Internetkonzern Google verfolgt die Idee der autonomen, selbstfahrenden Autos.“ (Main-Post, 12. Oktober 2016) Brauchen wir in 20 Jahren also noch den Autoführerschein?“ Ist diese Frage überhaupt realistisch? Ja, findet Doris Aschenbrenner. Sie ist Diplominformatikerin und wissenschaftliche Mitarbeiterin am Zentrum für Telematik in Würzburg und hat zu selbstfahrenden Robotern geforscht. Sie kann sich vorstellen, dass wir in 20 Jahren selbstfahrende Autos vor allem in Städten nutzen werden. Einen Führerschein werden wir wohl immer noch brauchen, sagt sie.“ (Main-Post, 12. Oktober 2016) „Das denkt auch Prof. Dr. Oliver Bendel. Er ist Wirtschaftsinformatiker und befasst sich an der Fachhochschule Nordwestschweiz unter anderem mit Maschinenethik und in diesem Zusammenhang auch mit selbstfahrenden Autos.“ (Main-Post, 12. Oktober 2016) „Wir werden in 20 Jahren noch einen Führerschein brauchen“, sagt er, „aber mit anderen Kompetenzen.“ Innenstädte sind nach seiner Meinung ungeeignet für das autonome Fahren, es sei denn, man erlaubt nur geringe Geschwindigkeiten oder spezielle Spuren. Der ganze Artikel kann über www.mainpost.de aufgerufen werden.

Abb.: Kutschen sind hier nicht mehr erlaubt

Humanoide Roboter

Im Handelsblatt Magazin ist am 7. Oktober 2016 der Artikel „Humanoide Roboter“ von Christian Wermke erschienen. Er fängt wie folgt an: „Bevor er den ersten Schritt macht, schaut Hubo auf den Boden. Er scannt mit seinen Kameraaugen die unebenen, grauen Betonsteine, die Motoren summen, vorsichtig hebt er das rechte Bein. Zwar dauert es fast noch eine ganze Minute, bis er das gut ein Quadratmeter große Hindernis überwunden hat. Aber: Hubo kann laufen. Und er kann noch viel mehr. Hubo ist einer der am weitesten entwickelten Roboter der Welt. 2015 gewann er die Darpa Robotics Challenge – einen vom US-Verteidigungsministerium initiierten Wettbewerb. Wenn man so will: die WM der humanoiden Roboter. Und Hubo ist der beste von 23. Der Mensch-Maschine-Meister. Acht Prüfungen musste das 80-Kilo-Wesen bestehen: ein Fahrzeug steuern, eine Tür öffnen, Treppen steigen, ein Loch bohren. 44 Minuten und 28 Sekunden brauchte er für alle Aufgaben.“ (Handelsblatt Magazin, 7. Oktober 2016) Zu Wort kommen der Robotiker Jun Ho Oh vom Humanoid Robot Research Center in Daejeon, Südkorea, und Oliver Bendel, Roboter- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Der Artikel hat 2842 Wörter und kann sowohl in gedruckter als auch in elektronischer Form bezogen werden, jeweils kostenpflichtig.

Abb.: Die humanoiden Roboter kommen

Google und die Moral

Nadja Röll vom SRF hat mit Oliver Bendel von der Hochschule für Wirtschaft FHNW am 7. Oktober 2016 ein Interview zur „Partnership on Artificial Intelligence to Benefit People and Society“ geführt. Fünf IT-Konzerne haben angekündigt, dass sie ihre Forschung im Bereich der Künstlichen Intelligenz (KI) bündeln und Leitplanken für Mensch und Maschine entwickeln wollen, nämlich Google, Amazon, Facebook, IBM und Microsoft. Es fehlen bislang Apple sowie die von Elon Musk geleitete Non-Profit-Organisation namens OpenAI. Gerade letzterer würde man sowohl eine gesellschafts- und benutzerbezogene Reflexion der Chancen und Risiken von Robotik und eine Erstellung von Moralkodizes für die Entwicklung von Robotern (Informationsethik und Roboterethik) als auch eine zielführende Integration von Entscheidungsmechanismen in die Maschinen (Maschinenethik) zutrauen. Im Interview mit dem Schweizer Fernsehen schreibt Oliver Bendel den Unternehmen sowohl Sachverständigkeit als auch Schnelligkeit zu. Allerdings ist er skeptisch, ob sie sich selbst beschneiden werden: Künstliche Intelligenz hängt, etwa im Deep Learning, mit Big Data zusammen, und als Datenkonzerne werden Google, Amazon und Co. nicht vom Datensammeln lassen, auch wenn es gegen Persönlichkeitsrechte verstößt. Der Beitrag kann über www.srf.ch/kultur/wissen/wenn-google-die-moral-von-maschinen-festlegt-gibt-es-probleme aufgerufen werden.

Abb.: Ein Freelancer mit Notebook

Sollen Roboter Steuern zahlen?

„Sollen Roboter Steuern zahlen?“ – das fragt der Krautreporter am 4. Oktober 2016. Die Robotersteuer ist, wie Oliver Bendel im Wirtschaftslexikon von Gabler schreibt, eine Ausprägung der Maschinensteuer, die man wiederum als Wertschöpfungsabgabe begreifen kann. Die Idee ist, den Betrieb respektive die Arbeit von Robotern (allenfalls von Agenten) in der Produktion und in anderen Bereichen zu besteuern und die Gelder entweder dem System der Sozialversicherung oder bspw. dem Bildungswesen zuzuführen. Auch eine Kopplung an das bedingungslose Grundeinkommen wird vorgeschlagen. Zugleich ist die Frage, ob im Gegenzug die Arbeit von Menschen steuerlich entlastet werden soll. Der Krautreporter hat Oliver Bendel interviewt, der ein bedingungsloses Grundeinkommen für eine diskussionswürdige Idee hält, wobei er einige Schwierigkeiten sieht. Er fordert in jedem Falle, dass eine gerechte Verteilung der Gewinne stattfindet. Nicht alle Menschen werden Fabriken aufbauen können, in denen Roboter eingesetzt werden, und auch nicht alle können Anteile an solchen Firmen erwerben. Sie müssen dennoch eine Grundversorgung erhalten, wenn sie ihren Job durch Roboter verlieren oder wegen dieser erst gar nicht eingestellt werden. Der Artikel ist abrufbar über krautreporter.de/1624-sollen-roboter-steuern-zahlen.

Abb.: Sollen Roboter Steuern zahlen?

Angela Merkel ist die beste Rapperin der Welt

Die Bild am Sonntag (BamS) hat den LÜGENBOT getestet und ihm einige Perlen der Unwahrheit entlockt. Dies ist in einem Artikel von Florian Zerfaß vom 2. Oktober 2016 nachzulesen, mit dem Titel „Roboter lernen lügen für die Wahrheit“. Angela Merkel sei Bundeskanzlerin und die beste Rapperin der Welt, der FC Schalke 04 habe in der Bundesliga 134 Punkte. Besonders interessant ist das erste Beispiel. Der Satz fängt wahr an und endet falsch; der Benutzer wird in Sicherheit gewiegt und dann aufs Glatteis geführt. Der LÜGENBOT aka LIEBOT wurde 2013 von Oliver Bendel erfunden und 2016 von Kevin Schwegler umgesetzt. Er beherrscht verschiedene Lügenstrategien, von denen manche als genuin maschinell angesehen werden können – so lügt kein Mensch, nicht einmal ein Lügenbold. Der Chatbot lügt nicht immer, aber meistens. Es gibt vielfältige Anwendungsmöglichkeiten – so können Maschinen, die Fakes und Lügen entdecken sollen, mit ihm trainiert werden. Letztlich geht es darum, vertrauenswürdige und verlässliche Systeme zu entwickeln.

Abb.: Eine Sängerin bei einem Konzert

Der Cyborg als Gewinner

„Und der Sieger ist – ein Cyborg“ – so der Titel eines zweiseitigen Artikels in der SonntagsZeitung vom 2. Oktober 2016. Erklärt werden Zungensteuerung, Brain-Computer-Interface, neuronale Armprothese, kraftgesteuerte Roboterprothese, künstliche Niere sowie bionische Geweberegeneration. Erzählt wird die Geschichte der Androiden und Cyborgs von der Renaissance bis zur jüngsten Vergangenheit. Der Cybathlon steht an, ein Wettkampf für Athleten mit Behinderungen (SWISS Arena in Kloten, 8. Oktober 2016). Zu Wort kommt im Beitrag immer wieder Prof. Dr. Oliver Bendel, der einerseits Maschinenethiker ist, moralische Maschinen konzipierend und implementierend, andererseits Informationsethiker, die Auswirkungen des Einsatzes von Informations- und Kommunikationstechnologien erforschend. Er begrüßt die informationstechnische Erweiterung von Menschen, wenn dadurch deren persönliche Autonomie verbessert und ihnen ein gutes Leben ermöglicht wird. Er weist zugleich auf die Gefahren für die informationelle Autonomie hin. Durch moderne Interfaces, Implantate und Prothesen werden Daten generiert, in Bezug auf die Umwelt, die Mitmenschen und den Träger selbst, für die sich Konzerne, Versicherungen und Krankenkassen interessieren werden. Der Artikel wurde von Matthias Meili verfasst und von Bruno Muff illustriert. Er ist im Gesellschaftsbund auf den Seiten 56 und 57 zu finden. Mit freundlicher Genehmigung der Zeitung und des Redakteurs kann er hier heruntergeladen werden.

Abb.: Ein Rollstuhlfahrer steuert seinen Rollstuhl mit seinen Gedanken

Wie viel Mensch soll in der Maschine stecken?

In der neuen Ausgabe von RED, dem Magazin der Schweizer Börse SIX, sind Frank M. Rinderknecht von Rinspeed und Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW im Gespräch. Bereits im Juli 2016 traf man sich in der Werkstatt in Zumikon, in der es von futuristischen Fahrzeugen nur so wimmelt. Man stieg in diese hinein und aus diesen wieder heraus – und rollte zusammen die mächtigen Räder. Die Bilder dazu findet man in dem vierseitigen Beitrag mit dem Titel „Wie viel Mensch soll in der Maschine stecken?“. Iris Kuhn-Spogat fragte im Büroraum bei Kaffee und Wasser nach autonomen Autos, maschinellen Entscheidungen und verrückten Erfindungen. Ihre Gesprächspartner waren sich in vielen Dingen einig. Man liebt das Spielerische, Verrückte, man versucht das scheinbar Unmögliche, bei der Entwicklung von Roboterautos und Amphibienfahrzeugen sowie von guten und bösen Chatbots. SIX und Rinspeed haben schon mehrmals zusammengearbeitet. Ein Video – abrufbar über six.swiss/rinspeed – gibt Einblicke, nicht zuletzt in die Werkstatt. Auch Oliver Bendel und die Finanzexperten haben sich bereits einmal getroffen, bei seinem Vortrag über Maschinenethik an der Börse in Zürich. Der Beitrag wurde von den Verantwortlichen freundlicherweise zur Verfügung gestellt und kann als PDF heruntergeladen werden.

Abb.: Zwei Seiten aus dem Heft

Roboter lügen uns ins Gesicht

Raffael Schuppisser beleuchtet in seinem Artikel „Roboter lügen uns ins Gesicht“ (Schweiz am Sonntag, 18. September 2016) die Möglichkeiten von Lügenmaschinen. Er geht auf Social Bots ein, die Accounts in sozialen Medien anlegen, Kommentare schreiben und Gerüchte streuen, und auf Tay von Microsoft, der in schlechte Gesellschaft geriet und zum Rassisten wurde. Immer wieder zu Wort kommt Oliver Bendel, der 2013 die Idee zu einem LÜGENBOT aka LIEBOT hatte, diesen in mehreren Artikeln beschrieb und dann 2016 mit seinem Studenten Kevin Schwegler entwickelte. Der LÜGENBOT wendet unterschiedliche Lügenstrategien an und benutzt u.a. einen Thesaurus der Princeton University sowie Yahoo als Suchmaschine und Vorschlagsdienst. Wenn er nicht weiterweiß, fragt er seinen Kollegen, den Cleverbot, und borgt sich eine Antwort. Sieben verschiedene Animationen zeigen die jeweiligen Strategien an. Wird beispielsweise eine für wahr gehaltene Aussage negiert, wächst die Nase der Münchhausen-Maschine, und man fühlt sich an Pinocchio erinnert. Wenn ein Wort durch ein Antonym ausgetauscht wird, etwa „Junge“ durch „Mädchen“, wird der LIEBOT rot. Der Artikel ist auf Seite 15 der Zeitung aus Baden erschienen und kann auch online eingesehen werden, über www.schweizamsonntag.ch/ressort/nachrichten/roboter_luegen_uns_ins_gesicht/.

Abb.: Lauter kleine Lügenbolde