Robotersex in der NZZ am Sonntag

„Was hat Sex mit Technologie zu tun?“ Das fragt Regula Freuler in einem zweiseitigen Artikel, der am 23. Oktober 2016 in der NZZ am Sonntag erschienen ist. „Am Anfang war der Sex, erst später kam die Liebe. So war das in der Geschichte der Menschheit. Die Geschichte der Technologie verläuft offenbar gleich: Seit Jahrzehnten wird an Maschinen und Computersystemen getüftelt, die unser Sexleben bereichern sollen, von Vibratoren bis zu Avataren. Dank künstlicher Intelligenz rückt die Sex-Tech-Industrie bald in eine neue Dimension vor: Sex-Roboter, die sich anfühlen wie ein Mensch und Dialoge führen können wie ein Mensch. Und was ist dann mit der Liebe? Werden wir Roboter lieben? Werden Roboter uns lieben?“ (NZZ am Sonntag, 23. Oktober 2016) Zu Wort kommen Oliver Bendel (Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik an der Hochschule für Wirtschaft FHNW), Kate Darling (Research Specialist am MIT Media Lab), Kathleen Richardson (Senior Research Fellow in Roboterethik an der De Montfort University), David Levy (Schachmeister und Computerexperte), Sherry Turkle (Professorin für Science, Technology and Society am MIT) und Eva Illouz (Professorin für Soziologie an der Hebräischen Universität von Jerusalem). Der Beitrag wurde von der NZZ am Sonntag freundlicherweise zur Verfügung gestellt und kann hier heruntergeladen werden.

Abb.: Kann man sich in Dinge verlieben?

Verlieben wir uns bald in Roboter?

In 10vor10 vom 7. Oktober 2016 fragte Romana Kayser vom SRF: „Verlieben wir uns bald in Roboter?“ Auf der Website der Sendung wird erklärt: „Roboter werden immer effizienter und dringen in immer mehr Bereiche unseres Lebens vor. Steuern wir auf eine Zukunft hin, in der Menschen und Roboter nebeneinander – oder gar miteinander leben? Können Menschen echte Gefühle für Roboter entwickeln? Ein Blick auf Japan, eines der roboterbegeistertsten Länder der Welt.“ Zu Wort kommt Oliver Bendel, Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Er hat Beiträge zu Pflege-, Therapie- und Sexrobotern veröffentlicht und interessiert sich in seiner Forschung für die Beziehung zwischen Mensch und Maschine. Er ist der Ansicht, dass diese immer einseitig bleiben wird und die Maschine darauf ab und zu hinweisen sollte; zugleich sei die Ideengeschichte voll mit Beispielen der Zuwendung zu künstlichen Kreaturen, von Pygmalions Liebe zu seiner Galatea bis hin zu Calebs Gefühlen für Ava in „Ex Machina“. Insofern ist eine Beziehung vorstellbar und möglich und vielleicht Inspiration für Kulturen und Individuen. Der Beitrag mit einer Länge von fast fünf Minuten kann über www.srf.ch/play/tv/10vor10/video/verlieben-wir-uns-bald-in-roboter?id=bdd4145c-4893-4805-b63f-9b1b310de1dd aufgerufen und heruntergeladen werden.

Abb.: Oliver Bendel im Interview in 10vor10

Wenn Gedanken den Computer steuern

SRF3 Input bringt am 2. Oktober 2016 kurz nach 20 Uhr den Beitrag „Menschmaschine: Wenn Gedanken den Computer steuern und umgekehrt“. „Heute können wir Computergames mit der Kraft der Gedanken spielen. Die Schnittstelle zwischen Hirn und Computer ermöglicht es auch gelähmten Menschen, Dinge wieder selbst in die Hand zu nehmen. Nur, wohin führt das?“ (Website SRF) Zu Wort kommt u.a. Kevin Warwick, Deputy Vice-Chancellor für Forschung an der Coventry University. „Prior that he was Professor of Cybernetics at The University of Reading, England. His research areas are artificial intelligence, control, robotics and biomedical engineering.“ (Website Warwick) Zu Wort kommt auch Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW, der mit der Journalistin und Moderatorin Sabine Meyer im Gespräch war. Sie unterhielten sich auf dem Campus Brugg-Windisch über autonome Autos und Waffen sowie über Chancen und Risiken von Gedankensteuerung und -lesen. Die Input-Macher seien, so die Website, Grubenarbeiter. „Sie graben sich in einem Thema fest. Bringen Fakten ans Tageslicht. Schälen den Kern der Sache heraus. Tragen Meinungen zusammen. Bilden Stimmungen ab. Fördern Analysen zutage.“ (Website Input) Weitere Informationen über www.srf.ch/sendungen/input.

Abb.: Wenn Computer die Gedanken lesen

Wie viel Mensch soll in der Maschine stecken?

In der neuen Ausgabe von RED, dem Magazin der Schweizer Börse SIX, sind Frank M. Rinderknecht von Rinspeed und Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW im Gespräch. Bereits im Juli 2016 traf man sich in der Werkstatt in Zumikon, in der es von futuristischen Fahrzeugen nur so wimmelt. Man stieg in diese hinein und aus diesen wieder heraus – und rollte zusammen die mächtigen Räder. Die Bilder dazu findet man in dem vierseitigen Beitrag mit dem Titel „Wie viel Mensch soll in der Maschine stecken?“. Iris Kuhn-Spogat fragte im Büroraum bei Kaffee und Wasser nach autonomen Autos, maschinellen Entscheidungen und verrückten Erfindungen. Ihre Gesprächspartner waren sich in vielen Dingen einig. Man liebt das Spielerische, Verrückte, man versucht das scheinbar Unmögliche, bei der Entwicklung von Roboterautos und Amphibienfahrzeugen sowie von guten und bösen Chatbots. SIX und Rinspeed haben schon mehrmals zusammengearbeitet. Ein Video – abrufbar über six.swiss/rinspeed – gibt Einblicke, nicht zuletzt in die Werkstatt. Auch Oliver Bendel und die Finanzexperten haben sich bereits einmal getroffen, bei seinem Vortrag über Maschinenethik an der Börse in Zürich. Der Beitrag wurde von den Verantwortlichen freundlicherweise zur Verfügung gestellt und kann als PDF heruntergeladen werden.

Abb.: Zwei Seiten aus dem Heft

Die Paketroboter sind unterwegs

Die Schweizerische Post erprobt Lieferroboter, die Pakete zustellen sollen. Auf dem Gelände des Unternehmens in Wankdorf bei Bern hatte Prof. Dr. Oliver Bendel im September 2016 die Gelegenheit, das Produkt der Starship Technologies unter die Lupe zu nehmen. Die Tester und Operators wiesen auf die Kameras mit 360-Grad-Aufnahmetechnik hin und auf das Ultraschallsystem. Sie öffneten die Klappe und erlaubten den Blick auf die Last. Bis zu zehn Kilogramm können auf den sechs Rädern bis zu sechs Kilometer weit befördert werden. Das hauptsächliche Problem der Paketroboter ist, dass sie neuartige Verkehrsteilnehmer darstellen, die die Gehsteige bevölkern und die Straßen überqueren. Das eine tun sie in der Regel autonom, das andere wird in den meisten Ländern, in denen sie getestet werden, von einem Operator unterstützt. Wenn es viele Lieferroboter dieser Art gibt, werden Innen- und Vorstädte noch komplexer für die etablierten Verkehrsteilnehmer. Unabhängig von der Zahl stellen sie Stolperfallen dar. Die Paketroboter sind wie herrenlose Hunde, können aber nicht so gut wie diese ausweichen und sind auch nicht so schnell. Skater, Radfahrer und Fußgänger können über sie stürzen, was durch die geringe Höhe begünstigt wird. Selbst wenn sie an die Leine gelegt und durch wenig frequentierte Gebiete navigiert werden, ist die Gefahr nicht ganz gebannt. Ein nicht ganz nebensächliches Problem ist, dass der Lieferoboter mit seinen Kameras auch Personen erfassen und womöglich Mädchen und Frauen unter den Rock schauen kann – ein weites Feld für Informations- und Technikethik. Es wird sich zeigen, wie hoch die Akzeptanz von Kunden und Passanten ist und welche Erfahrungen in den verschiedenen Ländern gemacht werden.

Abb.: Der Paketroboter in Wankdorf

Acht Technologien für die Zukunft

Die Zeitung 20 Minuten hat Oliver Bendel zu Fragen der Digitalisierung und der Robotik interviewt. Eine Frage lautete, worin der Unterschied zwischen Robotern und Künstlicher Intelligenz bestehe. Die Antwort darauf lautete: „Ein Hardwareroboter ist nichts anderes als ein Bewegungsautomat. Im Falle der Softwareroboter kann man auch von Tätigkeitsautomat sprechen. Bisher war der Hardwareroboter in der Regel ‚dumm‘ und für einfache Aufgaben zuständig. Mit Hilfe der Künstlichen Intelligenz (der Begriff bezeichnet die Disziplin und ihren Gegenstand) kann der Bewegungsautomat vielfältige Aufgaben wahrnehmen. Das setzt allerdings voraus, dass er auch in seiner Hardware vielfältig wird, z.B. Werkzeuge besitzt, mit denen er greifen, schieben, werfen etc. kann. Manchmal führt das dazu, dass er humanoid wird, also menschenähnlich. Künstliche Intelligenz kann mit Lernfähigkeit verbunden sein. Der Roboter beobachtet einen Arbeiter und ahmt ihn nach. Oder er beobachtet eine Situation im Straßenverkehr und erstellt auf der Grundlage seiner Analysen und Schlussfolgerungen eigene Regeln. In geschlossenen oder halboffenen Welten (Computer, Haushalt, Fabrik) ist das oft nützlich, in offenen Welten (Straßenverkehr) manchmal gefährlich.“ Auf der Basis dieser Ausführungen und der Antworten weiterer Experten ist der Beitrag „Acht Technologien, die unsere Zukunft verändern“ entstanden, der am 12. September 2016 erschienen ist und über www.20min.ch/finance/news/story/Acht-Technologien–die-unsere-Zukunft-veraendern-30887235 aufgerufen werden kann.

Abb.: Auch VR gehört zu den Technologien der Zukunft

VDI-Zukunftskonferenz zu humanoiden Robotern

Die VDI-Zukunftskonferenz „Humanoide Roboter“ beschäftigt sich, so die Website, „mit dem Menschen nachempfundenen Robotern“. „Das Themenspektrum reicht dabei von Design und Gestaltung über die kognitive Planung bis hin zu Anwendungsbeispielen.“ Leiter der Konferenz ist Prof. Dr. Frank Kirchner vom Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI). Auf der Website heißt es weiter: „Was für viele wie Science Fiction klingt, könnte bald schon Realität sein. Menschenähnliche Roboter, die in Umgebungen agieren, die für den Menschen geschaffen sind und für den Menschen entworfene Werkzeuge benutzen. Damit würden sich die Einsatzmöglichkeiten für Roboter enorm erweitern. Zudem versprechen sich viele Experten durch humanoide Roboter auch eine verbesserte Interaktion zwischen Mensch und Roboter.“ Prof. Dr. Karsten Berns von der TU Kaiserslautern trägt zusammen mit Steffen Schütz über dynamisches zweibeiniges Laufen nach menschlichem Vorbild vor, Dr. Robert Haschke von der Universität Bielefeld über Taktilsensorik für anthropomorphe Roboterhände, um nur zwei Beispiele zu nennen. „Der LÜGENBOT als Umsetzung einer Münchhausen-Maschine“ lautet der Titel des Vortrags von Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW. Er hat zusammen mit Kevin Schwegler im Kontext der Maschinenethik einen Chatbot entwickelt, der unter Verwendung interner Strategien und externer Dienste und Quellen lügt, dass sich die Balken biegen. Der LÜGENBOT aka LIEBOT hat eine eigene Website, nämlich www.luegenbot.ch bzw. www.liebot.org (Links nicht mehr gültig). Er ist als Vertreter der einfachen unmoralischen Maschinen nicht nur an sich interessant, sondern hilft auch dabei, einfache moralische Maschinen zu entwickeln, nämlich solche, die in ihren Aussagen verlässlich und vertrauenswürdig sind. Die Fachtagung findet vom 13. bis 14. Dezember 2016 in Aschheim bei München statt. Das Programm kann hier heruntergeladen werden.

Sprechende Autos

SoftBank und Honda wollen ein sprechendes Auto bauen – das meldete Golem am 23. Juli 2016. „Mittels Sensoren, Mikrofonen und Kameras sollen anhand von Veränderungen in der Sprache, Gestik und Körpermerkmalen Emotionen des Fahrers gelesen und von der KI des Wagens ausgewertet werden. Bei stressigen Situationen soll die KI dann beispielsweise aufmunternde Worte spenden, oder bei langen Fahrten alleine als Gesprächspartner fungieren.“ (Golem, 23. Juli 2016) Oliver Bendel hat in seinem Artikel „Ein Auto mit Charakter“ vom 17. November 2015 geschrieben: „Es ist naheliegend, einem Auto, das mit Fahrerassistenzsystemen vollgestopft oder im Gesamten ein Roboter ist, einen Charakter angedeihen zu lassen, und diesen im Wesentlichen mit Hilfe auditiver Schnittstellen und Künstlicher Intelligenz (auf welchem Niveau auch immer) zu realisieren.“ (ICTkommunikation, 17. November 2015) An einer Stelle heißt es: „Wenn das Auto schon ein Charakter ist oder einen Charakter hat, kann man auch daran denken, es mit Moral auszustatten.“ (ICTkommunikation, 17. November 2015) Diese Idee wird von dem Maschinenethiker kritisch diskutiert. Auch die Idee, dem Auto einen Charakter zu geben, wird von ihm nur als Möglichkeit gesehen, die es zu untersuchen gilt. Man darf gespannt sein, was die Hersteller auf die Straße bringen. Die Plattform des geplanten Fahrzeugs steht bereits fest: Es ist Pepper von SoftBank und Aldebaran Robotics, der zuletzt in die Schlagzeilen kam, weil man mit ihm laut Benutzerhandbuch keinen Sex haben soll; selbst eine Manipulation seiner Stimme zur Erzielung einer erotisierenden Wirkung verbat man sich. Vermutlich wird die Bedienungsanleitung des sprechenden Autos ähnlich ab­tur­nend sein.

Abb.: Werden Autos die richtigen Worte finden?

NWO Responsible Innovation Programme

Prof. Dr. Oliver Bendel from the School of Business FHNW will act as an external reviewer for The Netherlands Organisation for Scientific Research (NWO, the Dutch Research Council) and will assess the merits of a research proposal submitted under the NWO Responsible Innovation programme. The aim of this multidisciplinary programme is to explore the ethical and societal issues surrounding innovations like autonomous cars, electronic patient files and the smart energy meter. The NWO website declares: „Highly promising innovations can fail because ethical and societal questions are not taken into account in good time. … In the case of responsible innovation possible ethical and societal consequences of the innovation are already involved at an early stage. For this NWO has developed the Responsible Innovation research programme.“ (Website NWO) A new registration round started in June 2016. „The programme is for joint projects of researchers engaged in the humanities, science and the social and behavioural sciences. Together with companies and civil society organisations, they identify at the development stage of innovations the potential ethical and societal issues that may arise. Addressing these issues early on will increase support among stakeholders and also the likelihood of successful innovations.“ (Website NWO) More information via www.nwo.nl.

Fig.: At the Universiteit Leiden

Retroapfel

Apples Notebook-Verkäufe gehen zurück. 20 Minuten fragte den Wirtschaftsinformatiker, Wirtschafts- und Informationsethiker Oliver Bendel nach den Gründen und nach den Möglichkeiten von Apple, den Turnaround zu schaffen. Schriftlich äußerte er sich wie folgt: „Zunächst einmal könnte man behaupten, dass wir in einer Dekade des schlechten Geschmacks leben. Die Rasierapparate, die Bügeleisen, die Staubsauger sind Produkte der Beliebigkeit oder Variationen von Kitsch. Apple ist groß geworden mit seiner Kombination aus Science-Fiction-Elementen und deutsch-schweizerischem Design. Bauhaus und die Hochschule für Gestaltung in Ulm, geleitet von Otl Aicher aus Ulm und Max Bill aus Winterthur, haben das Unternehmen beeinflusst. Diese goldenen Zeiten sind vorbei, aber vielleicht nicht für immer. Bei Fahrrädern ist zu bemerken, dass gutes Design wieder zu haben ist. Entweder Retrodesign oder postmoderner Chic, auch bei E-Bikes. Apple muss entweder warten, bis seine Geräte wieder gefragt werden, wie bei Adidas. Das kann aber schiefgehen. Eine bessere Lösung ist, gezielt nach dem zu suchen, was das 21. Jahrhundert ausmacht, Elemente von kühler Robotik und heisser Dramatik. Meine Erklärung bezog sich nur auf das Design. Es gibt viele andere Faktoren, der Markt ist umkämpft, neben Notebooks spielen Smartphones eine Rolle, und vielleicht muss man sich – man denke an Virtual Reality etc. – bald nach ganz neuen Ein- und Ausgabegeräten umschauen. Kurzum: Apple ist etwas aus der Mode gekommen und muss bei Design und Technik nachlegen, um wieder an die Spitze zu gelangen.“ Die eine oder andere Aussage wurde für den Artikel verwendet, der am 14. Juli 2016 in der größten Zeitung der Schweiz erschienen ist.

Abb.: Wird der Retroapfel wieder gekauft?

Voraussetzungslosigkeit und Vorurteilsfreiheit

Als Sachverständiger im Bundestag hat sich Oliver Bendel im Juni 2016 den Fragen der Abgeordneten gestellt. Davor hat er einen umfangreichen Katalog an Fragen schriftlich beanwortet. Eine davon bezog sich auf eine Ethikkommission, die sich moralischen Herausforderungen rund um Robotik, Künstliche Intelligenz und Datennutzung widmen soll. Oliver Bendel bezog schriftlich wie folgt Stellung: „Grundsätzlich ist die Einsetzung einer Ethikkommission eine gute Idee, und in Europa existieren ja auch solche Einrichtungen in unterschiedlichen Formen, sowohl auf nationaler Ebene als auch in Organisationen. Diese können aber nicht durchweg überzeugen. Man unterscheidet zwischen philosophischer und theonomer bzw. theologischer Ethik, zwischen Moralphilosophie und -theologie. Es ist nicht nachvollziehbar, dass der Moraltheologie ein so großer Platz eingeräumt wird, wenn man zugleich Voraussetzungslosigkeit, Vorurteilsfreiheit und Wissenschaftlichkeit wünscht. Es wäre fatal, wenn eine Ethikkommission, die aus der Perspektive von Technik-, Informations- und Medienethik beratschlagen soll, nicht wissenschaftlich fundiert, sondern von religiösen Überzeugungen bestimmt wäre.“ Ob die Ethikkommission, die der Bundesverkehrsminister einsetzen will, frei von theonomer Ethik ist, und ob sie zu Ergebnissen kommt, die in der Gesellschaft überzeugen und die eine moralisch und rechtlich sichere Grundlage für die Entscheidungen von automatischen und autonomen Autos darstellen, wird sich zeigen. Seine grundsätzliche zwiespältige Haltung zu einer einschlägigen Ethikkommission drückte der Wissenschaftler gegenüber dem Bundestag so aus: „Ich habe in verschiedenen Beiträgen die Idee der Ethikkommission kritisch betrachtet. Eine Alternative zu ihr sehe ich im Moment nicht; man muss sie aber als Expertengruppe einsetzen, die methodisch sauber argumentiert. Für eine eigenständige Ethikkommission zu Herausforderungen der Informationsgesellschaft spricht auch, dass der Deutsche Ethikrat kaum Kompetenzen in diesem Bereich besitzt.“ Weitere Informationen und Aussagen sowie die Aufzeichnung der Anhörung sind über www.bundestag.de/dokumente/textarchiv/2016/kw25-pa-digitale-agenda/427996 zu finden.

Abb.: Eine Ethikkommission sollte nicht zum Himmel aufschauen

Ein Maitag in Florida

Raffael Schuppisser von der Aargauer Zeitung war am 1. Juli 2016 im Gespräch mit dem Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel. Thema war der Unfall des Tesla Model S in den USA bei aktiviertem Autopilot. Der Insasse war dabei ums Leben gekommen. Ein Sattelschlepper war über eine Kreuzung auf dem Highway, über welche die Richtung gewechselt werden kann, senkrecht zum PKW geraten, der die weiße Fläche für den Himmel oder ein Schild gehalten hat und unvermindert weitergefahren ist. „Eine Schwachstelle ist die Kamera. Diese lässt sich leicht täuschen.“ (Aargauer Zeitung, 2. Juli 2016) Die Verwechslung begünstigt hat ein ungünstiger Winkel. Der Wissenschaftler rät dazu, in den nächsten Jahren weitere Tests und Experimente zu machen, die Ergebnisse der optischen Sensoren gegenprüfen und hoch- und vollautomatisierte bzw. autonome Autos vorrangig auf Autobahnen ohne Wendemöglichkeiten verkehren zu lassen. Der Artikel vom 2. Juli kann über www.aargauerzeitung.ch/leben/forschung-technik/maschinen-ethiker-analysiert-toedlichen-unfall-die-technik-ist-noch-nicht-so-weit-130397988 aufgerufen werden; zudem ist er am 2. Juli in der gedruckten Ausgabe erschienen.

Abb.: In Florida unterwegs

Über die Köpfe hinweg

Der Beitrag „Private Drohnen aus ethischer Sicht“, der am 14. Februar 2015 in der Zeitschrift Informatik-Spektrum als „Online-First“-Version veröffentlicht wurde, ist im Juni 2016 in gedruckter Form erschienen. „Chancen und Risiken für Benutzer und Betroffene“ lautet der Untertitel, und eben diese untersucht Oliver Bendel. Im Abstract heißt es: „Es werden immer mehr private Flugdrohnen verkauft und genutzt. Sie fotografieren und filmen uns von oben, selbst wenn wir in unserem Garten liegen oder in unserem Haus sind, am Fenster vorbeigehend oder stehend. Aus der Sicht der Informationsethik, die im vorliegenden Beitrag eingenommen wird, gibt es viele Risiken beim Einsatz, aber auch einige Chancen, und zwar sowohl für die Besitzer als auch für die Betroffenen. Zu den herausgearbeiteten Risiken zählt die Gefährdung der informationellen und persönlichen Autonomie, zu den Chancen die Erweiterung menschlicher Möglichkeiten mit Hilfe der Informationstechnologie.“ Am Rande ist auch die Maschinenethik von Belang. Der Artikel kann über den Springer-Verlag bezogen werden bzw. ist in Heft 3 enthalten, das in Bibliotheken ausgeliehen werden kann.

Abb.: Eine Drohne macht ein Bild von einer Hochzeit

Ein Selfie mit Roger

Im Juni 2016 ist in der Netzwoche der Artikel „Ein Selfie mit Roger“ von Oliver Bendel erschienen. Er beginnt mit folgenden Worten: „Interaktive Werbeflächen sind Plakate, Terminals und Säulen, die sich als digitale Werbeträger automatisch auf Passanten, Besucher, Kunden und Interessierte einstellen und mit diesen in eine Interaktion treten. Sie verbreiten sich in der Schweiz immer mehr. Es ergeben sich Chancen und Risiken.“ (Netzwoche, Juni 2016) Diese werden u.a. aus der Perspektive der Medizin, der Rechtswissenschaft und von Informations- und Wirtschaftsethik betrachtet. „Bei der Verwendung von interaktiven Werbeflächen werden rechtliche und ethische Fragen aufgeworfen. So ist etwa zu klären, wer die Haftung bei falschen Produktinformationen übernimmt, insbesondere dann, wenn diese nicht fest ins System gegossen werden, sondern in der Kommunikation mit dem Kunden oder auf der Basis von Profilen vermittelt werden. Aus Sicht von Informations- und Wirtschaftsethik ist der Schutz der Bürger und Konsumenten von Relevanz. Interaktive Werbeflächen können in die Privatsphäre eingreifen, sogar in öffentlichen Bereichen, und das Persönlichkeitsrecht sowie die informationelle Autonomie verletzen.“ (Netzwoche, Juni 2016) Der Beitrag kann hier als PDF heruntergeladen werden.

Abb.: Auch ein Selfie

 

The Munchausen Machine

The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born, a kind of a Munchausen machine. Further information as from autumn 2016 via luegenbot.ch and liebot.org (links no longer valid).

Fig.: The adventures of Baron Munchausen

Cyber-Human Systems

In these days, the Hasler Foundation presents the new research program „Cyber-Human Systems“, with a budget of 5 millions Swiss francs. Some information from the website: „Computing plays an ever increasing role in all aspects of our life. As a consequence, society and information technology continuously interact and influence each other in a complex process. In this context, cyber-human system research investigates the increasingly coupled relationship between humans and computing with the broad goal of advancing human capabilities. Novel models, methods, theories and technological innovations in information technology are developed to increase our understanding of this new class of computing systems and to exploit their large economical and societal potential.“ (Website Hasler) The text continues: „Research in cyber-human systems addresses specifically all aspects close to the interface between humans and information technology. It is concerned with novel computing platforms such as wearable, textile-integrated and mobile devices or even person-embedded sensors and computers. The research also explores systems that interact with users through multiple modalities such as new interaction techniques, computer displays and even brain-machine interfaces. Algorithmic aspects in cyber-human systems concentrate on local data processing in smart devices at the network edge rather than sending all data to the cloud for processing.“ According to a press release, research subjects include interfaces between digital and human world, computing like machine learning at the edge and analysis of economic and societal consequences. More information via www.haslerstiftung.ch.

Fig.: A cyborg girl

Commercial Drones in Switzerland

Commercial drones can be used for the transport of components and the good delivering as well as for the monitoring of consumers. Unmanned aerial vehicles (UAV) often come in combination with cameras and other equipment and are spies in the form of high-tech products. Sometimes, they drop out of the sky and hurt people. In Zurich, private drones seem to be a big problem for safety and security, and the laws have been tightened and improved. Remote-controlled commercial drones shall have cameras, gripper arms or a transportation space. In a current project, three master students of the School of Business (University of Applied Sciences and Arts Northwestern Switzerland FHNW) try to answer the following questions: What kinds of drones are available for commercial purposes? In which ways these UAV can be used? What are the technical challenges and possibilities? What are the problems from the perspective of information ethics? What are the general challenges in Switzerland? The results are expected by the end of summer 2016. Prof. Dr. Oliver Bendel is the contact for all questions concerning the research project and possible follow-up activities.

Fig.: A drone in the air

Beobachtungen zu Überwachungsrobotern

Im Silicon Valley sind Überwachungsroboter von Knightscope im Einsatz. Oliver Bendel – der Autor des Artikels „Blechpolizisten mit Elektroschockern: Beobachtungen zu Überwachungsrobotern“ – begegnete einem von ihnen im Shopping Center bei der Stanford University, an der er kurz zuvor einen Vortrag über Roboterautos gehalten hatte. Fast wäre er mit ihm zusammengestoßen, als er von Tür zu Tür, von Gebäude zu Gebäude unterwegs war. Es war ein milder Frühlingstag im März 2016, und vom ewigen Regen des Vormonats war nichts mehr zu sehen. „Überwachungsroboter dieser Art markieren physische Präsenz. Sie mischen sich unter die Menschen und rollen neben den Tieren.“ (inside-it.ch, 19. Mai 2016) Wenn es leer werde auf den Straßen und Wegen, seien ihre Silhouetten und Schatten zu sehen, und in den Räumen und Gebäuden seien sie diejenigen, die das Licht ausmachen. Neben dem K5 und dem kleinen Bruder, dem K3, ist seit kurzem ein weiteres Modell auf dem Markt. In China schaut der AnBot nach dem Rechten, und wenn er einen Verdächtigen entdeckt, kann er den Elektroschocker auf ihn richten. Während er im normalen Betrieb ein autonomer Roboter ist, wird er in einem solchen Fall zum Teleroboter: Die Waffe wird von einem Menschen ferngesteuert und im Ernstfall betätigt. Der Beitrag von Oliver Bendel, in dem auch ethische Aspekte angesprochen werden, ist am 19. Mai 2016 in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/post/blechpolizisten-mit-elektroschockern-20160519 aufgerufen werden.

Abb.: Der K5 im Stanford Shopping Center

Tandems im Pflegeheim

„Robotik für den Pflegebereich boomt. In dem Arbeitsfeld fehlt Personal und es fällt oft schwere körperliche Arbeit an, für die Hilfe willkommen wäre.“ (derStandard.at, 7. Mai 2016) Dies schreibt Gudrun Springer im österreichischen Standard. Ausgangspunkt des Artikels ist die öffentliche Sitzung der Bioethikkommission in Wien vom 2. Mai, bei der Prof. Dr. Oliver Bendel, Prof. Dr. Mark Coeckelbergh, Prof. Dr. Michael Decker, Prof. Dr. Jutta Weber und Markus Wohlmannstetter zum Thema Pflegeroboter vorgetragen haben. Die Verfasserin geht auf das Tandem-Prinzip ein, das Oliver Bendel in seinem Referat erwähnt hat und seit einiger Zeit propagiert. Auch Mark Coeckelbergh ist laut ihrer Aussage diesem Prinzip zugetan. Es sei besser, „Roboter als assistierende Technologien … im Tandem“ (derStandard.at, 7. Mai 2016) zu benutzen. Weiter schreibt sie: „Oliver Bendel von der Hochschule für Wirtschaft in Basel, der sich mit Auswirkungen des Roboters auf Menschen beschäftigt, meint, dass mancher Handgriff vom Menschen ausgeführt einem Pflegebedürftigen unangenehmer sein kann als vom technischen Helfer – etwa in der Intimpflege.“ (derStandard.at, 7. Mai 2016) Auch zu informationsethischen und rechtlichen Herausforderungen äußert er sich: „Andere wichtige Fragen, die für Bendel durch die Roboter aufkommen, betreffen den Datenschutz.“ (derStandard.at, 7. Mai 2016) Der Artikel mit dem Titel „Der Roboter im Pflegeheim“ ist über derstandard.at/2000036444112/Der-Roboter-im-Pflegeheim abrufbar.

Abb.: Menschliche Berührungen bleiben wichtig

 

Tagungsband zur Maschinenethik

Im März 2016 ist der Proceedingsband „The 2016 AAAI Spring Symposium Series: Technical Reports“ erschienen, in der AAAI Press (Palo Alto 2016). Die KI-Konferenz fand an der Stanford University statt. Zur Maschinenethik (Symposium „Ethical and Moral Considerations in Non-Human Agents“) referierten u.a. Ron Arkin (Georgia Institute of Technology), Luís Moniz Pereira (Universidade Nova de Lisboa), Peter Asaro (New School for Public Engagement, New York) und Oliver Bendel (Hochschule für Wirtschaft FHNW). Auf den Seiten 195 bis 201 findet sich der Beitrag „Annotated Decision Trees for Simple Moral Machines“ von Oliver Bendel. Im Abstract heißt es: „Autonomization often follows after the automization on which it is based. More and more machines have to make decisions with moral implications. Machine ethics, which can be seen as an equivalent of human ethics, analyses the chances and limits of moral machines. So far, decision trees have not been commonly used for modelling moral machines. This article proposes an approach for creating annotated decision trees, and specifies their central components. The focus is on simple moral machines. The chances of such models are illustrated with the example of a self-driving car that is friendly to humans and animals. Finally the advantages and disadvantages are discussed and conclusions are drawn.“ Der Tagungsband kann über www.aaai.org bestellt werden.

Abb.: Auf dem Stanford-Campus

Der Badbot von Microsoft

Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.

Abb.: Ein Gebäude von Microsoft

Der letzte Frosch seiner Art

In der Stuttgarter Zeitung vom 12. März 2016 ist ein ganzseitiges Interview – geführt hat es der Wissenschaftsjournalist Dr. Werner Ludwig – mit Prof. Dr. Oliver Bendel aus Zürich erschienen. Der Wirtschaftsinformatiker und Ethiker geht u.a. auf autonome Autos ein: „Ich bin nicht gegen das autonome Auto an sich. Ich bin ja selbst Maschinenethiker und konzipiere Maschinen, die bestimmte moralische Entscheidungen treffen. Ich bin nur der Meinung, dass das Auto eigentlich kein geeignetes System für die praktische Anwendung ist – zumindest, wenn es dabei um Menschenleben geht. Ich beschäftige mich stattdessen mit der Frage, wie man Kollisionen mit Tieren vermeiden kann. Auch das ist ja ein ethisches Problem. Ich frage mich zum Beispiel, ob man nicht Autos bauen könnte, die vor dem letzten Frosch seiner Art bremsen – natürlich nur, wenn dahinter keiner fährt. Ich halte es für schwierig und kaum akzeptabel, dass Maschinen über Menschenleben entscheiden.“ (Stuttgarter Zeitung, 12. März 2016) Das Interview mit der Überschrift „Menschenleben sind keine Rechengröße“ ist auf Seite 11 zu finden. Es kann, mit freundlicher Genehmigung des Autors und der Zeitung, hier heruntergeladen werden.

Abb.: Am besten, man bleibt im Wasser