Soziale Robotik und künstliches Bewusstsein

Der von Oliver Bendel herausgegebene Springer-Band „Soziale Roboter“ enthält, das Vorwort mitgerechnet, 30 Beiträge führender Expertinnen und Experten. Von Klaus Mainzer stammt die Abhandlung „Soziale Robotik und künstliches Bewusstsein: Technische und philosophische Grundlagen“. Aus dem Abstract: „Die Entstehung natürlichen Bewusstseins ist Gegenstand interdisziplinärer Forschung von Gehirnforschung, Neuro- und Kognitionspsychologie und Philosophie. Eine technische Umsetzung von Bewusstsein in der Robotik setzt eine hochentwickelte KI-Forschung voraus. Voraussetzung ist eine hybride KI, die symbolische KI und subsymbolische KI verbindet: Erkenntnistheoretisch entspricht hybride KI einem ‚hybriden‘ kognitiven System wie dem menschlichen Organismus, in dem die (‚unbewusste‘) Verarbeitung von Wahrnehmungsdaten mit (‚bewusstem‘) logischen Schließen verbunden wird. Hybrider KI werden daher höhere Intelligenzgrade zugesprochen als der Reduktion auf symbolische oder subsymbolische KI, die bereits in technischem Einsatz sind. Humanoide Roboter sind Hybridsysteme im Sinn hybrider KI mit symbolischer Wissensrepräsentation und verhaltensbasiertem Agieren, das die sensorisch-motorische Leiblichkeit und Veränderung von Umweltsituationen berücksichtigt.“ Ein Abschnitt „behandelt die Grundlagen humanoider Robotik im Human Robotics Project (HRP) mit seinen kognitivistisch-funktionalistischen Grundlagen, konnektionistischen Grundlagen bis zu hybriden kognitiven Robotern auf der Grundlage hybrider KI“. „Abschließend geht es … um die Frage, ob künstliches Bewusstsein in Zukunft technisch möglich und sinnvoll ist. Im Zentrum stehen zukünftige Schlüsseltechnologien wie kollektive Intelligenz in Cyberphysical Systems, neue Rechnerstrukturen mit neuromorphen Computern und Quantencomputer.“ Das Buch ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: AAAI 2019 Spring Symposium an der Stanford University zu künstlichem Bewusstsein

Paper on Manipulative Social Robots in Retail at AAAI 2022 Spring Symposia

The paper „Should Social Robots in Retail Manipulate Customers?“ by Oliver Bendel and Liliana Margarida Dos Santos Alves was accepted at the AAAI 2022 Spring Symposia (Stanford University). The two authors will present it at the end of March 2022 at the symposium „How Fair is Fair? Achieving Wellbeing AI“. From the abstract: „Against the backdrop of structural changes in the retail trade, social robots have found their way into retail stores and shopping malls in order to attract, welcome, and greet customers; to inform them, advise them, and persuade them to make a purchase. Salespeople often have a broad knowledge of their product and rely on offering competent and honest advice, whether it be on shoes, clothing, or kitchen appliances. However, some frequently use sales tricks to secure purchases. The question arises of how consulting and sales robots should ‚behave‘. Should they behave like human advisors and salespeople, i.e., occasionally manipulate customers? Or should they be more honest and reliable than us? This article tries to answer these questions. After explaining the basics, it evaluates a study in this context and gives recommendations for companies that want to use consulting and sales robots. Ultimately, fair, honest, and trustworthy robots in retail are a win-win situation for all concerned.“ More information about the AAAI 2022 Spring Symposia is available here.

Fig.: Liliana Alves and Oliver Bendel

Kann Spuren von Ethik enthalten

Das Magazin What’s N3xt wartet in seiner Ausgabe 1/2021 mit Beiträgen zu Robotik und KI auf. In „Uns fehlen Helden!“ erklärt ein bekannter Investor, „was ihn antreibt und warum er auf technologische Innovationen steht“. „Mit 10‑xDNA beschreibt Frank Thelen die Denkweise, die erforderlich ist, um die vor uns liegenden technologischen Fortschritte und Innovationen zu erfassen und zu nutzen.“ (What’s N3xt, 1/2021) In „Nächste Ausfahrt Zukunft“ steht Ranga Yogeshwar Rede und Antwort. „Wir vertrauen Algorithmen, die wir nicht mal nachvollziehen können. Und diese Systeme lernen schneller, als wir Menschen es tun. Neuronale Netze und Machine Learning sind Teil unseres täglichen Lebens geworden.“ (What’s N3xt, 1/2021) „KI trifft Ethik“ wird mit den folgenden Worten angeteasert: „Wie kriegt man menschliche Moral in künstliche Intelligenzen?“ (What’s N3xt, 1/2021) Die Antwort kennt der Informations- und Maschinenethiker Oliver Bendel, der moralische Maschinen baut, Chatbots und Serviceroboter, die moralischen Regeln folgen. Das gesamte Magazin kann hier heruntergeladen werden.

Abb.: Der Beitrag mit Oliver Bendel

Alexa Knows What You Want

Amazon’s Alexa can perform actions on her own based on previous instructions from the user without asking beforehand. Until now, the voicebot always asked before it did anything. Now it has hunches, which is what Amazon calls the function. On its website, the company writes: „Managing your home’s energy usage is easier than ever, with the Alexa energy dashboard. It works with a variety of smart lights, plugs, switches, water heaters, thermostats, TVs and Echo devices. Once you connect your devices to Alexa, you can start tracking the energy they use, right in the Alexa app. Plus, try an exciting new Hunches feature that can help you save energy without even thinking about it. Now, if Alexa has a hunch that you forgot to turn off a light and no one is home or everyone went to bed, Alexa can automatically turn it off for you. It’s a smart and convenient way to help your home be kinder to the world around it. Every device, every home, and every day counts. Let’s make a difference, together. Amazon is committed to building a sustainable business for our customers and the planet.“ (Website Amazon) It will be interesting to see how often Alexa is right with her hunches and how often she is wrong.

Fig.: Alexa in the cloud

AI and Ethics Journal

Springer launches a new journal entitled „AI and Ethics“. This topic has been researched for several years from various perspectives, including information ethics, robot ethics (or roboethics) and machine ethics. From the description: „AI and Ethics seeks to promote informed debate and discussion of the ethical, regulatory, and policy implications that arise from the development of AI. It will focus on how AI techniques, tools, and technologies are developing, including consideration of where these developments may lead in the future. The journal will provide opportunities for academics, scientists, practitioners, policy makers, and the public to consider how AI might affect our lives in the future, and what implications, benefits, and risks might emerge. Attention will be given to the potential intentional and unintentional misuses of the research and technology presented in articles we publish. Examples of harmful consequences include weaponization, bias in face recognition systems, and discrimination and unfairness with respect to race and gender.

Fig.: AI and ethics

KI in der medizinischen Robotik

Die Emmy Noether Research Group „The Phenomenon of Interaction in Human-Machine Interaction“ und das Institut für Ethik, Geschichte und Theorie der Medizin (LMU München) veranstalten eine Vortragsreihe zu – so die Auskunft auf der Website – einigen der drängendsten Fragen, die sich im Zusammenhang mit der Umsetzung und Nutzung der KI in der Medizin stellen. Jeder Termin besteht aus drei kurzen Vorträgen renommierter Experten auf dem jeweiligen Gebiet, gefolgt von einer Diskussion am Round Table. Alle Vorträge werden bis auf weiteres online (Zoom) gehalten (Website der Forschungsgruppe). Am 19. November 2020 (18.00-19.30 Uhr) wird das Thema „KI in der medizinischen Robotik“ behandelt. Referieren werden Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW (mit einem Vortrag zu Pflegerobotern aus ethischer Sicht), Prof. Dr. Manfred Hild von der Beuth Hochschule für Technik Berlin und Dr. Janina Loh von der Universität Wien. Weitere Informationen über interactionphilosophy.wordpress.com.

Abb.: Oliver Bendel bei einem Vortrag in Berlin (Foto: Daimler und Benz Stiftung)

Hi, AI

Kinofenster ist ein Projekt der Bundeszentrale für politische Bildung (bpb). Es wurde 1996 als Printmagazin initiiert. Im Jahre 2000 erfolgte die Umstellung zu einem Onlineangebot. Der aktuelle Schwerpunkt im Juli 2020 widmet sich, ausgehend von dem Film „Hi, AI“, künstlicher Intelligenz und moralischen Maschinen. „Humanoide Roboter sind nicht mehr nur Science Fiction. Im Dokumentarfilm Hi, AI beobachtet Regisseurin Isa Willlinger den Einzug solcher menschenähnlicher Maschinen in unseren Alltag. Begleitend zum Film stellt eine Sequenzanalyse drei Visionen von künstlerischer Intelligenz und ein Hintergrundtext das Motiv des Androiden-Roboters im Kino vor. Zudem sprechen wir mit Kate Darling und Oliver Bendel über Chancen und Gefahren künstlicher Intelligenz.“ (Website Kinofenster) In „Hi, AI“ tritt übrigens Harmony auf, ein bekannter Sexroboter. Er begleitet einen Trucker bei einem Roadtrip durch die USA. Die Interviews und die Materialien sind über www.kinofenster.de abrufbar.

Abb.: Henry, der Bruder von Harmony (Foto: Realbotix)

An AI Assistant with Empathy

Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. The BESTBOT on Mars – it would like that.

Fig.: Barbie on the moon

Co-Robots as Care Robots

The paper „Co-Robots as Care Robots“ by Oliver Bendel, Alina Gasser and Joel Siebenmann was accepted at the AAAI 2020 Spring Symposia. From the abstract: „Cooperation and collaboration robots, co-robots or cobots for short, are an integral part of factories. For example, they work closely with the fitters in the automotive sector, and everyone does what they do best. However, the novel robots are not only relevant in production and logistics, but also in the service sector, especially where proximity between them and the users is desired or unavoidable. For decades, individual solutions of a very different kind have been developed in care. Now experts are increasingly relying on co-robots and teaching them the special tasks that are involved in care or therapy. This article presents the advantages, but also the disadvantages of co-robots in care and support, and provides information with regard to human-robot interaction and communication. The article is based on a model that has already been tested in various nursing and retirement homes, namely Lio from F&P Robotics, and uses results from accompanying studies. The authors can show that co-robots are ideal for care and support in many ways. Of course, it is also important to consider a few points in order to guarantee functionality and acceptance.“ The paper had been submitted to the symposium „Applied AI in Healthcare: Safety, Community, and the Environment“. Oliver Bendel will present the results at Stanford University between 23 and 25 March 2020.

Fig.: At Stanford University

Learning from Humanoid AI

In 2018, Dr. Yuefang Zhou and Prof. Dr. Martin Fischer initiated the first international workshop on intimate human-robot relations at the University of Potsdam, „which resulted in the publication of an edited book on developments in human-robot intimate relationships“. This year, Prof. Dr. Martin Fischer, Prof. Dr. Rebecca Lazarides, and Dr. Yuefang Zhou are organizing the second edition. „As interest in the topic of humanoid AI continues to grow, the scope of the workshop has widened. During this year’s workshop, international experts from a variety of different disciplines will share their insights on motivational, social and cognitive aspects of learning, with a focus on humanoid intelligent tutoring systems and social learning companions/robots.“ (Website Embracing AI) The international workshop „Learning from Humanoid AI: Motivational, Social & Cognitive Perspectives“ will take place on 29 and 30 November 2019 at the University of Potsdam. Keynote speakers are Prof. Dr. Tony Belpaeme, Prof. Dr. Oliver Bendel, Prof. Dr. Angelo Cangelosi, Dr. Gabriella Cortellessa, Dr. Kate Devlin, Prof. Dr. Verena Hafner, Dr. Nicolas Spatola, Dr. Jessica Szczuka, and Prof. Dr. Agnieszka Wykowska. Further information is available at embracingai.wordpress.com/.

Fig.: In Potsdam

Zur Aufgabe der Ethik

Am 18. Juli 2019 war Oliver Bendel zu Gast beim KIT. Die renommierte Universität in Karlsruhe verfolgte in ihrem Colloquium Fundamentale ein Semester lang „die stille Revolution der KI-Technologien“. Den Schlusspunkt setzte der Informations- und Maschinenethiker aus Zürich. Er stellte zunächst die Frage, ob Ethik eine Wissenschaft ist, und gab die Antwort: Sie ist es, wenn sie wissenschaftliche Methoden benutzt. Wenn sie wiederum eine Wissenschaft sei, sei ihre Aufgabe nicht, das Gute in die Welt zu bringen, sondern das Gute und Böse zu untersuchen. Ihre Aufgabe sei die jeder Wissenschaft, nämlich Erkenntnisgewinn und -vermittlung. Danach präsentierte Oliver Bendel mehrere Serviceroboter, Chatbots und Sprachassistenten und diskutierte sie aus den Perspektiven von Informations- und Maschinenethik. Immer wieder ging er auf eigene Projekte an seiner Hochschule ein. Dort entsteht bis Ende des Jahres das siebte Artefakt der Maschinenethik, die siebte moralische Maschine, um diesen Terminus technicus zu benutzen. Er schloss an seine Gedanken vom Anfang des Vortrags an: Die Maschinenethik dürfe nicht nur moralische, sondern auch unmoralische Maschinen hervorbringen, um diese zu erforschen. Manche von ihnen sollte man aber besser im Labor lassen. Am Ende erörterte er die Möglichkeit einer Supermoral (Supermorality), die die Moral der Menschen hinter sich lässt, wie die Superintelligenz (Superintelligence) unsere Intelligenz. Er anerkannte die Vorteile, die eine solche mit sich brächte, auch angesichts des Leids, das wir weltweit verursacht haben, strich aber vor allem mögliche Nachteile heraus.

Abb.: Oliver Bendel bei seinem Vortrag am KIT (Foto: KIT-ZAK/Felix Grünschloß)

Deceptive Machines

„AI has definitively beaten humans at another of our favorite games. A poker bot, designed by researchers from Facebook’s AI lab and Carnegie Mellon University, has bested some of the world’s top players …“ (The Verge, 11 July 2019) According to the magazine, Pluribus was remarkably good at bluffing its opponents. The Wall Street Journal reported: „A new artificial intelligence program is so advanced at a key human skill – deception – that it wiped out five human poker players with one lousy hand.“ (Wall Street Journal, 11 July 2019) Of course you don’t have to equate bluffing with cheating – but in this context interesting scientific questions arise. At the conference „Machine Ethics and Machine Law“ in 2016 in Krakow, Ronald C. Arkin, Oliver Bendel, Jaap Hage, and Mojca Plesnicar discussed on the panel the question: „Should we develop robots that deceive?“ Ron Arkin (who is in military research) and Oliver Bendel (who is not) came to the conclusion that we should – but they had very different arguments. The ethicist from Zurich, inventor of the LIEBOT, advocates free, independent research in which problematic and deceptive machines are also developed, in favour of an important gain in knowledge – but is committed to regulating the areas of application (for example dating portals or military operations). Further information about Pluribus can be found in the paper itself, entitled „Superhuman AI for multiplayer poker“.

Fig.: Pluribus is good at bluffing

Chancen und Risiken des autonomen Fahrens

„Chancen und Risiken: KI & Autonomes Fahren“ – so der Titel eines Beitrags im Spektrum der Wissenschaft. In einem fast zwanzigminütigen Video wird der Vortrag von Oliver Bendel gezeigt, den er bei der Veranstaltung „KI & Autonomes Fahren“ am 13. Mai 2019 im Max-Planck-Institut für intelligente Systeme gehalten hat. Die Reihe „Gehirn der Zukunft“, die den Rahmen bildete, wird von der Gemeinnützigen Hertie-Stiftung getragen. Zunächst sprachen Dr. Emanuela Bernsmann von der Gemeinnützigen Hertie-Stiftung und Dr. Katherine J. Kuchenbecker vom Max-Planck-Institut für intelligente Systeme ein Grußwort. Dann trugen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) vor. Oliver Bendel stellte in seinem Vortrag zehn Thesen auf und führte passende Beispiele an. Sein Fazit lautete: „Die Informationsethik kann Chancen und Risiken des automatisierten und autonomen Fahrens herausarbeiten, und sie kann Konflikte erkennen und angehen, etwa indem sie einen Diskurs zwischen Interessengruppen begleitet. Mit Hilfe der Maschinenethik wäre es möglich, automatisierte und autonome Autos in moralische Maschinen zu verwandeln. Diese könnten bei Tieren qualifizieren und quantifizieren, was sie bei Menschen nicht tun sollten.“

Abb.: Chancen und Risiken des autonomen Fahrens

Eine neue moralische Maschine

Am 8. April 2019 startete an der Hochschule für Wirtschaft FHNW das E-MOMA-Projekt. „E“ steht für „Enhancing“, „MOMA“ für „Moral Machine“. Wenig verfolgt wird in der Maschinenethik bisher der Ansatz, dass die Maschine selbst die Moral weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert, mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO-Roboter mit Methoden des Machine Learning moralisch erweitert. Ein Beitrag dazu erschien vor einiger Zeit in den Proceedings of the IEEE. Im E-MOMA-Projekt soll eine eigene Implementierung entstehen, die diese Ansätze fortführt. Dabei können z.B. neuronale Netzwerke verwendet werden. Es bietet sich die Implementierung eines Chatbots an, aber auch die Modifizierung von Hardwarerobotern ist möglich. Letztlich geht es darum, eine moralische Maschine in die Welt zu bringen, die ihre Moral anpasst und weiterentwickelt, je nach Situation bzw. je nach eingegebenen Daten. Es ist das fünfte Artefakt der Maschinenethik, das nach Ideen, Skizzen und Vorgaben von Prof. Dr. Oliver Bendel entsteht. Das erste war der GOODBOT von 2013.

Abb.: Viele Maschinen kann man moralisieren

Die Neue Seidenstraße

Karl Strittmatter schreibt in seinem Artikel „Die Schweiz ist schier atemberaubend naiv“ im Tages-Anzeiger vom 27. April 2019, Ueli Maurer und der Bund ließen sich von China in das Projekt der Neuen Seidenstraße einbinden und fielen damit „auf die Tricks einer Diktatur herein“ (Tages-Anzeiger, 27. April 2019). Der Chinaexperte war für die Süddeutsche Zeitung zunächst ab 1997 (acht Jahre lang) und dann wieder von 2012 bis 2018 Korrespondent in Peking. Sein aktuelles Buch ist „Die Neuerfindung der Diktatur – Wie China den digitalen Überwachungsstaat aufbaut und uns damit herausfordert“. Darin beschreibt er u.a. das Sozialkreditsystem, das sich der Möglichkeiten künstlicher Intelligenz bedient. Auch auf die Neue Seidenstraße geht er ein. In seinem Artikel bemerkt er: „Die KP möchte Einfluss nehmen, setzt dafür viel Geld und eine immer aggressivere Diplomatie ein – im Menschenrechtsrat in Genf ebenso wie an unseren Universitäten, in unseren Medien, gegenüber unseren Politikern.“ (Tages-Anzeiger, 27. April 2019) Auch Befürworter des Projekts gibt es, die die wirtschaftlichen Vorteile herausstreichen. Der Beitrag „Neue Seidenstraße“ im Gabler Wirtschaftslexikon wurde von Oliver Bendel verfasst und ist am 30. April 2019 erschienen. Er kann über wirtschaftslexikon.gabler.de/definition/neue-seidenstrasse-100610 abgerufen werden.

Abb.: Die Marco-Polo-Brücke in Peking

Künstliche Intelligenz – Wer steuert wen?

Am 21. und 22. Mai 2019 findet in Berlin der Digitalisierungskongress „Künstliche Intelligenz – Wer steuert wen?“ statt. Getragen wird er von der Hans-Böckler-Stiftung (HBS) in Kooperation mit der Vereinten Dienstleistungsgewerkschaft ver.di und mit Unterstützung des vom BMBF geförderten Projekts TransWork. Auf der Website von ver.di ist zu lesen: „Die wirtschaftlichen Potenziale von KI stehen den Fragen, wie wir miteinander leben und arbeiten wollen, keineswegs spannungsfrei gegenüber. Wie, wo und in welchem Umfang KI eingesetzt wird, muss gesellschaftlich ausgehandelt werden.“ (Website ver.di) Am ersten Tag hält Prof. Dr. Oliver Bendel einen Kurzvortrag zu „Grundfragen der Ethik beim Einsatz von KI“. Danach diskutieren Rena Tangens, Digitalcourage e.V., Prof. Dr. Svenja Falk, Managing Director, Accenture Research, Norman Nieß, Betriebsratsvorsitzender und Mitglied im Konzernbetriebsausschuss, Callcenter-Branche, und Prof. Dr. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker, Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft FHNW auf dem Podium miteinander. Weitere Informationen und Programm über www.verdi.de/themen/digitalisierungskongresse/kongress-2019.

Abb.: Die Konferenz wird sich auch Fragen der Ethik widmen

Towards Machine Consciousness?

There were emotional and fascinating lectures and discussions at the AAAI 2019 Spring Symposium, „Towards Conscious AI Systems“, held at Stanford University. Machine consciousness or artificial consciousness is an interdisciplinary research area spanning artificial intelligence and cognitive robotics. The goal is to create synthetic consciousness or self-awareness. This simulates, approaches, or reproduces human consciousness or self-consciousness in parts. Alternatively, it could reach the original and be identical with it in essential parts, although this remains far from reality. Topics covered at the symposium included recent work on conscious AI systems, embodied conscious AI systems, self-reflective higher-order AI systems, and ethical and trust issues involving conscious AI systems. Other interesting symposia included „Interpretable AI for Well-Being: Understanding Cognitive Bias and Social Embeddedness“ and „Privacy-Enhancing Artificial Intelligence and Language Technologies“. More information via aaai.org/Symposia/Spring/sss19.php.

Fig.: One of the machine consciousness talks at Stanford University

Roboter in der Gesellschaft

Im Februar 2019 ist „Roboter in der Gesellschaft: Technische Möglichkeiten und menschliche Verantwortung“ bei Springer erschienen, herausgegeben von Christiane Woopen und Marc Jannes. Die Beiträge stammen von Alin Albu-Schäffer („Von drehmomentgeregelten Roboterarmen zum intrinsisch nachgiebigen humanoiden Roboter“), Jochen J. Steil („Roboterlernen ohne Grenzen? Lernende Roboter und ethische Fragen“), Oliver Bendel („Die programmierte Moral“), Catrin Misselhorn („Moralische Maschinen in der Pflege? Grundlagen und eine Roadmap für ein moralisch lernfähiges Altenpflegesystem“), Hartmut Hirsch-Kreinsen („Autonome Systeme in der industriellen Arbeitswelt“) und Johannes Weyer („Autonome Technik außer Kontrolle? Möglichkeiten und Grenzen der Steuerung komplexer Systeme in der Echtzeitgesellschaft“). Norbert Lammert, ehemaliger Präsident des Deutschen Bundestags, schreibt zu „Roboterethik. Zur Rolle der Politik“. Das Buch geht zurück auf die Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von ceres und Daimler und Benz Stiftung am 24. November 2015 in Berlin. Weitere Informationen über www.springer.com/gp/book/9783662577646#.

Abb.: Ein Roboter unter Menschen

Gespräch über Maschinenethik

„Perspektiven“ ist eine Gesprächsreihe zu Themen der Wirtschaftsinformatik, die Perspektiven auf Forschung und Entwicklung, Studium und Lehre und Einblicke in die Praxis behandelt. Unterstützt wird sie durch den Fachbereich Wirtschaftsinformatik der Gesellschaft für Informatik. „Wirtschaftsinformatik ist eine Wissenschaft, die Informationssysteme, ihre Gestaltung und Nutzung in organisatorischen Handlungssystemen untersucht … und damit vielschichtige Bezüge zu anderen Wissenschaften aufweist: Dabei ist nicht nur an die Informatik und Betriebswirtschaftslehre zu denken, sondern auch an die Ingenieurwissenschaften, die Soziologie und die Philosophie, insbesondere die Sprachphilosophie.“ (Website Perspektiven) In den Gesprächen dieser Reihe unterhält sich Stefan Strecker mit seinen Gästen „über ihre Perspektiven auf Themenfelder und Fragestellungen der Wirtschaftsinformatik und Bezüge zu angrenzenden Wissenschaften“ (Website Perspektiven). Am 12. Februar 2019 ist der Podcast mit Oliver Bendel zur Maschinenethik erschienen. Er kann über perspektivenpodcast.podigee.io/12-maschinenethik-gesprach-mit-oliver-bendel aufgerufen werden.

Abb.: Hört sie einen Podcast?

About Basic Income and Basic Property

Automation is advancing relentlessly. Already decades ago, digitization was its partner. In the industry, innovative robots, for example co-robots, are used. Service robots begin to spread in various areas. Systems of artificial intelligence perform tasks of all sorts, even creative activities. The studies on the development of the labor market reach different results. In any case, it can be said that certain jobs will disappear and many people will have to do without their familiar work. It can also be assumed that in many areas less human work has to be performed on behalf (e.g., for customers and employers). As possible solutions to economic and social problems, an unconditional basic income and a robot tax are suggested. The paper „Are Robot Tax, Basic Income or Basic Property Solutions to the Social Problems of Automation?“ by Oliver Bendel presents, discusses and criticizes these approaches in the context of automation and digitization. Moreover, it develops a relatively unknown proposal, unconditional basic property, and presents its potentials as well as its risks. The ethicist from Zurich will share his results between 25 and 27 March 2019 at the AAAI Spring Symposia (Stanford University).

Fig.: A nice property in Hawaii

KI im Google-Magazin

„Künstliche Intelligenz“ ist der Titel der aktuellen Aufbruch-Ausgabe, die im Herbst 2018 erschienen ist. Das Google-Magazin ist seit wenigen Jahren auf dem Markt und wird von einer Agentur der Süddeutschen Zeitung produziert. Es liegt mehreren Zeitungen und Zeitschriften bei, etwa dem Spiegel (Ausgabe vom 14. Oktober 2018) und dem Focus (Ausgabe vom 13. Oktober 2018). In der Rubrik „Sorgen und Fragen“ kommen Fernanda Viégas (Co-Leiterin der Google-Initiative „People + AI Research“), Prof. Dr. John-Dylan Haynes (Hirnforscher am Bernstein Center für Computational Neuroscience), Prof. Dr. Oliver Bendel (Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW) und Prof. Dr. Kathrin Möslein (Wirtschaftsinformatikerin an der Friedrich-Alexander-Universität Nürnberg) zu Wort. Das Interview mit Oliver Bendel kann mit freundlicher Genehmigung der Münchner Agentur hier heruntergeladen werden.

Abb.: Bei Google im Silicon Valley

AI love you

Unter der Überschrift „AI love you“ berichtete die Süddeutsche Zeitung am 29. September 2018 über den zunehmenden Gebrauch von Liebespuppen und die Weiterentwicklung von Sexrobotern. Vorausgegangen war ein einstündiges Interview mit Oliver Bendel, der als Informations- und Maschinenethiker dieses Phänomen erforscht. Der Journalist und er trafen sich im Münchner Excelsior am Hauptbahnhof und reisten von dort in Gedanken nach Dortmund, wo sich das Bordoll befindet, und nach Barcelona und Moskau. Auch in der Schweiz, erzählte der Ethiker, legt sich das eine oder andere Etablissement eine Liebespuppe zu. So weit wie das Bordoll, wo es keine Menschen mehr gibt, die Besitzerin und die Kunden ausgenommen, treibt es aber noch niemand. Im Bordoll interessieren sich die meist jungen Männer auch für Fantasyfiguren, für Elfen und Manga- und Animemädchen. So etwas muss erforscht werden, wie auch die Frage, ob man Liebespuppen in Pflege und Therapie einsetzen kann. Dieser Frage widmet sich wiederum ein aktueller Beitrag von Oliver Bendel in der IT for Health. Der Beitrag in der Süddeutschen kann hier kostenpflichtig abgerufen werden.

Abb.: Eine Liebespuppe