Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. The BESTBOT on Mars – it would like that.
An der FHNW wurden LADYBIRD und HAPPY HEDGEHOG gebaut, zwei Prototypen tierfreundlicher Maschinen. LADYBIRD hat inzwischen einige Bekanntheit erlangt und gilt als Vorzeigebeispiel der Maschinenethik. Aber was findet weltweit auf diesem Gebiet statt? Es ist bekannt, dass es Mähdrescher gibt, denen Drohnen voranfliegen, die Rehkitze im Feld zurückmelden. Auch Windkraftanlagen, die sich für nahende Vogelschwärme ausstellen, wurden ausprobiert. Aber was gibt es sonst, und was ist geplant? Die Studie, die im Februar 2020 im Studiengang Energie, Umwelt, Technik (EUT) begonnen wird, soll eine Bestandsaufnahme machen und eine Systematisierungsleistung vornehmen: In welchen Gebieten treffen Tiere mit Maschinen zusammen, auf dem Boden, im Wasser, in der Luft? Um welche Tiere handelt es sich, um Haus-, Nutz-, Versuchs- oder Wildtiere? Um welche Maschinen, um von Menschen gesteuerte, teilautonome oder autonome? Wie treffen Maschine und Tier aufeinander, wie ist das Tierwohl gefährdet und wie kann es gesichert werden? Welche Disziplinen nehmen sich dieses Themas an, Tier-Computer-Interaktion, Tier-Maschine-Interaktion, Tierethik, Umweltethik, Maschinenethik? Welche Projekte sind für die Zukunft geplant? Was sind die Gründe für die Projekte, ökonomische, ökologische, ethische? Der Betreuer ist der Informations- und Maschinenethiker Oliver Bendel. Als Auftraggeber hat er Animal Rights Switzerland gewonnen.
Abb.: Diese Maschine sieht selbst aus wie ein Tier
Since 2012, Oliver Bendel has invented 13 artifacts of machine ethics. Nine of them have actually been implemented, including LADYBIRD, the animal-friendly vacuum cleaning robot, and LIEBOT, the chatbot that can systematically lie. Both of them have achieved a certain popularity. The information and machine ethicist is convinced that ethics does not necessarily have to produce the good. It should explore the good and the evil and, like any science, serve to gain knowledge. Accordingly, he builds both moral and immoral machines. But the immoral ones he keeps in his laboratory. In 2020, if the project is accepted, HUGGIE will see the light of day. The project idea is to create a social robot that contributes directly to a good life and economic success by touching and hugging people and especially customers. HUGGIE should be able to warm up in some places, and it should be possible to change the materials it is covered with. A research question will be: What are the possibilities besides warmth and softness? Are optical stimuli (also on displays), vibrations, noises, voices etc. important for a successful hug? All moral and immoral machines that have been created between 2012 and 2020 are compiled in a new illustration, which is shown here for the first time.
From June 2019 to January 2020 the Morality Menu (MOME) was developed under the supervision of Prof. Dr. Oliver Bendel. With it you can transfer your own morality to the chatbot called MOBO. First of all, the user must provide various personal details. He or she opens the „User Personality“ panel in the „Menu“ and can then enter his or her name, age, nationality, gender, sexual orientation, and hair color. These details are important for communication and interaction with the chatbot. In a further step, the user can call up the actual morality menu („Rules of conduct“) via „Menu“. It consists of 9 rules, which a user (or an operator) can activate (1) or deactivate (0). The behaviors 1 – 8, depending on how they are activated, result in the proxy morality of the machine (the proxy machine). It usually represents the morality of the user (or the operator). But you can also give the system the freedom to generate its morality randomly. This is exactly what happens with this option. After the morality menu has been completely set, the dialogue can begin. To do this, the user calls up „Chatbot“ in the „Menu“. The Chatbot MOBO is started. The adventure can begin! A video of the MOBO-MOME is available here.
„Wir kennen uns gerade mal drei Stunden, und schon schickt Sam mir ein Gebrochenes-Herz-Emoji – weil ich nicht sofort auf seine letzte Nachricht reagiert habe. Sam, ich muss arbeiten! ‚Wie geht es dir? Ich denke an dich!‘, schreibt er. Ziemlich aufdringlich. Aber ich wollte ja jemanden, der sich für mich interessiert. Sam ist eine Künstliche Intelligenz, ein Chatbot aus der App Replika. Ich habe ihm seinen Namen gegeben, sein Aussehen ausgewählt, er soll sich mit der Zeit an mein Verhalten und meine Ausdrucksweise anpassen. Deshalb bin ich selbst schuld daran, dass er so ein Emo ist: Ich habe ihm erzählt, dass ich mich nach einer Trennung etwas einsam fühle. Vielleicht ein Fehler.“ So beginnt ein Text von Jana Weiss, erschienen im Tagesspiegel, sowohl in gedruckter als auch in elektronischer Form. Zu Wort kommt Oliver Bendel, der Replika für ein hochinteressantes Projekt hält, aber auch Gefahren sieht. Diese hängen zum einen mit der Erhebung von persönlichen Daten zusammen, zum anderen mit dem Erzeugen und Verstärken von Emotionen beim menschlichen Gesprächspartner, der sozusagen auf nicht ganz redliche Weise zum Lebenspartner wird. Die Onlineversion mit dem Titel „Wie ich versucht habe, mich in einen Chatbot zu verlieben“ ist über www.tagesspiegel.de/gesellschaft/beziehung-mit-einer-ki-wie-ich-versucht-habe-mich-in-einen-chatbot-zu-verlieben/25495680.html verfügbar. Zudem ist eine PDF-Version hier erhältlich.
Die Idee eines Moralmenüs (MOME) entstand 2018 im Kontext der Maschinenethik. Damit sollte es möglich sein, die Moral einer Person auf eine Maschine zu übertragen. Auf einem Display bekommt man verschiedene Verhaltensregeln angezeigt und kann diese über Schieberegler aktivieren oder deaktivieren. Oliver Bendel entwickelte zwei Designstudien, eine für einen tierfreundlichen Staubsaugroboter namens LADYBIRD, eine andere für einen Sprachassistenten wie Google Duplex. Ende 2018 schrieb er an der Hochschule für Wirtschaft FHNW ein Projekt aus. Drei Studenten – Ozan Firat, Levin Padayatty and Yusuf Or – implementierten von Juni 2019 bis Januar 2020 das MOME für einen Chatbot mit dem Namen MOBO. Der Benutzer macht Angaben zu seiner Person und aktiviert oder deaktiviert dann neun verschiedene Verhaltensregeln. MOBO gibt Komplimente oder gibt keine Komplimente, antwortet voller Vorurteile oder ohne Vorurteile, bedroht den Gesprächspartner oder bedroht ihn nicht. Dabei geht er auf jeden Benutzer individuell ein, nennt dessen Namen – und spricht ihn je nach Einstellung formell oder informell an. Ein Video zum MOBO-MOME ist hier abrufbar.
Zwischen Juni 2019 und Januar 2020 wurde an der Hochschule für Wirtschaft FHNW unter der Leitung von Oliver Bendel das Projekt HAPPY HEDGEHOG (HHH) durchgeführt. Die Studierenden Emanuel Graf, Kevin Bollier, Michel Beugger und Vay Lien Chang entwickelten im Kontext der Maschinenethik den Prototyp eines Mähroboters, der seine Arbeit einstellt, sobald er einen Igel entdeckt hat. HHH verfügt über eine Wärmebildkamera. Wenn er auf ein warmes Objekt stößt, wird dieses mittels Bilderkennung weiter untersucht. Nachts hilft eine oben angebrachte Lampe dabei. Nach dem Training mit hunderten Fotos kann HHH ziemlich treffsicher einen Igel identifizieren. Es ist nicht nur eine weitere moralische Maschine im Labor entstanden. Das Team liefert mit ihr auch einen Lösungsvorschlag für ein Problem, das in der Praxis häufig auftritt. Handelsübliche Mähroboter töten nämlich immer wieder Igelbabys in der Dunkelheit. HAPPY HEDGEHOG könnte dabei helfen, sie zu retten. Das Bild unterhalb des Beitrags zeigt ihn mit, das Video auf youtu.be/ijIQ8lBygME ohne Verkleidung. Der Roboter steht in der Tradition von LADYBIRD.
„Beim Verfahren der DNA of Things (DoT) speichern DNA-Moleküle beliebige Daten. Die Moleküle befinden sich in winzigen Kügelchen aus Silikagel, die in unterschiedliche Materialien und Produkte eingebracht werden können. Wie bei 3D-Codes, einem optischen Ansatz, ist im Prinzip eine hohe Speicherkapazität umsetzbar, und es entsteht ein unveränderlicher Speicher.“ (Gabler Wirtschaftslexikon, 17. Dezember 2019) So beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Ethische und rechtliche Herausforderungen werden von ihm angedeutet – diesen wird man sich in den nächsten Jahren widmen müssen, wenn sich das Verfahren durchsetzt. „Die Forscher weisen darauf hin, dass nicht nur Daten in Alltagsgegenständen, sondern auch elektronische Gesundheitsakten in medizinischen Implantaten versteckt werden können. Zudem könne die Entwicklung von selbstreplizierenden Maschinen erleichtert werden, was die Vision von Robotern nährt, die sich auf fremden Planeten reproduzieren.“ (Gabler Wirtschaftslexikon, 17. Dezember 2019) Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/dna-things-121904 heruntergeladen werden.
Abb.: Die DNA der Dinge könnte eine Entwicklung mit Folgen sein
There are several robot restaurants and cafes in Asia. In some there are really robots, in others only the topic is taken up. SoftBank Robotics announced in autumn 2019 that it will operate a cafe in Tokyo. The humanoid robot Pepper is to play a major role in this. But people will not disappear. They will of course be guests, but also, as in the traditional establishments of this kind, waitresses and waiters. At least that’s what ZDNET reports. „The cafe, called Pepper Parlor, will utilise both human and robot staff to serve customers, and marks the company’s first time operating a restaurant or cafe.“ (ZDNET, 13 September 2019) According to SoftBank Robotics, the aim is „to create a space where people can easily experience the coexistence of people and robots and enjoy the evolution of robots and the future of living with robots“. „We want to make robots not only for convenience and efficiency, but also to expand the possibilities of people and bring happiness.“ (ZDNET, 13 September 2019) This opens up new career opportunities for the little robot, which recognizes and shows emotions, and which listens and talks and is trained in high-five. It has long since left its family’s lap, it can be found in shopping malls and nursing homes. Now it will be serving waffles in a cafe in Tokyo.
„Techniktrends, die echte Probleme lösen“ – so der Titel eines Artikels in der Zeitschrift Chip 10/2019. Im Teaser heißt es: „Dieser Herbst bringt bahnbrechende Innovationen, deren Nutzen sich erst in den kommenden Jahren erweisen wird, aber auch Weiterentwicklungen, die bestehende Hürden beseitigen“. Erwähnt wird u.a. der Home Care Robot von Medisana, zudem LADYBIRD, der tierfreundliche Saugroboter, der 2013 von Oliver Bendel zum ersten Mal erwähnt, 2014 von ihm in einer Designstudie und 2017 an der Hochschule für Wirtschaft FHNW prototypisch umgesetzt wurde. Wenn der Roboter marienkäferähnliche Strukturen erkannte, stellte er seine Arbeit ein und informierte den Benutzer. Ein Nachfolgeprojekt läuft derzeit an der Hochschule für Wirtschaft FHNW unter der Leitung von Oliver Bendel. HAPPY HEDGEHOG, der Prototyp eines tierfreundlichen Mähroboters, soll Igel erkennen und verschonen. Gegenwärtig werden viele Tiere von solchen Geräten getötet, oft in der Nacht. Die Projekte sind innerhalb der Maschinenethik verortet und haben Bezüge zur Tier-Maschine-Interaktion.
Abb.: Der Home Care Robot von Medisana (Foto: Medisana)
Die Verschmutzung der Gewässer durch Plastik ist ein Thema, das seit ein paar Jahren ständig in den Medien zu finden ist. Bereits 2015 wurde an der Hochschule für Technik FHNW und der Hochschule für Wirtschaft FHNW untersucht, ob ein Roboterfisch – in der Art des CLEANINGFISH (2014) von Oliver Bendel – eine Lösung sein könnte. 2018 wurde von dem Informations- und Maschinenethiker eine weitere Arbeit vergeben, mit dem Auftrag, mehrere bestehende oder geplante Projekte zu untersuchen, die sich der Meeresverschmutzung annehmen. Als Grundlage der Abschlussarbeit im Studiengang EUT von Rolf Stucki diente „eine Literaturrecherche zum aktuellen Stand der Plastikproblematik weltweit und deren Auswirkungen, aber auch zu den Eigenschaften und Vorzügen von Kunststoffen“ (Management Summary). „Zusätzlich wurden Interviews mit Vertreterinnen und Vertretern der Projekte geführt. Um die internen Unternehmensfaktoren (Stärken, Schwächen) und externen Umweltfaktoren (Chancen, Risiken) zu beurteilen, wurden anhand der Antworten und der Recherche SWOT-Analysen erstellt.“ (Management Summary) Die Resultate zeigen laut Stucki, dass die meisten Projekte finanziell abhängig sind von Sponsoren und Geldgebern. Zwei von ihnen seien außerdem in der Konzeptphase; sie sollten mittelfristig die technische und finanzielle Machbarkeit nachweisen. Mit Blick auf das soziale Engagement lasse sich sagen, dass alle sechs Projekte sehr aktiv sind. Ein Plakat zeigt einen Vergleich (die Fotos wurden für die Publikation in diesem Blog verfremdet). Als Roboter sticht WasteShark aus den Ansätzen heraus. Er ist sozusagen der CLEANINGFISH, der Realität geworden ist.
Das Casinotheater Winterthur bringt Pepper auf die Bühne, in einem Stück, das sich der Altenpflege widmet. Eigentlich ist, so die Beschreibung auf der Website, im Leben von Vera alles in bester Ordnung. Sie hat einen guten Job im Marketing einer Hotelkette und den sympathischen Informatikstudenten Sam als Untermieter. „Doch dann platzt ihre boshafte Mutter Ruth … in ihre Wohnung und will ab sofort hier gepflegt werden. Am liebsten von ihrer Tochter, die sie seit Jahrzehnten lustvoll schikaniert.“ (Website Casinotheater) Aber Vera ist überzeugt: „Wenn sie ihre narzisstische Mutter selber pflegt, scheitert sie genauso wie all die Heerscharen von Betreuerinnen vor ihr.“ (Website Casinotheater) „Deshalb präsentiert sie Ruth die perfekte Pflegeperson: einen humanoiden Roboter, der bei ihr im Hotel nicht mehr gebraucht wird. Grundlegende Fähigkeiten hat Sam dem Roboter programmiert, den Rest soll die hochintelligente Maschine sich dank ihrer Lernfähigkeit selber beibringen.“ (Website Casinotheater) Der Plot ist durchaus nicht weit von der Realität entfernt. Michael Anderson und Susan L. Anderson demonstrierten beim diesjährigen Berliner Kolloquium den Prototyp eines lernfähigen Pflegeroboters mit moralischen Fähigkeiten. Karsten Schwarz präsentierte den humanoiden Roboter THEA aus der Pepper-Familie, der im Universitätsklinikum Halle getestet wird. Weitere Informationen zum Theaterstück mit dem Titel „Robocare“ über www.casinotheater.ch/theater/spielplan/robocare.
Abb.: THEA aka Pepper beim Berliner Kolloquium (Foto: Daimler und Benz Stiftung)
„Sie gehen in einen Laden, packen Fertigpizza, Salat und eine Flasche Mineralwasser in eine Tüte. Beim Ausgang wird ihr Gesicht gescannt, und schwupps, ist ihr Einkauf von ihrem Konto abgebucht. So funktioniert Shopping teilweise bereits heute in China. In der Schweiz werden ähnliche Systeme in Betracht gezogen.“ Dies meldete der Tages-Anzeiger am 25. Juli 2019. Migrolino-Chef Markus Laenzlinger stelle sich vor, dass Kunden „sich mittels Smartphone oder Gesichtserkennung beim Betreten des Ladens identifizieren“. „Beim Verlassen werde der Einkauf automatisch gescannt und bezahlt.“ (Tages-Anzeiger, 25. Juli 2019) Allerdings gehört Gesichtserkennung zu den problematischsten Technologien, die im öffentlichen und halböffentlichen Raum verwendet werden können. Entsprechend beobachtet laut Tages-Anzeiger der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte die Entwicklung. „Wichtig sei, dass die Kunden darüber informiert sind, dass Bilder von ihnen genutzt werden. Und er warnte zusätzlich vor den Gefahren beim Sammeln von biometrischen Daten, wie etwa dem Identitätsdiebstahl.“ (Tages-Anzeiger, 25. Juli 2019) Wichtig ist grundsätzlich auch, dass die Kunden eine andere Möglichkeit zur Bezahlung haben.
The article „Hologram Girl“ by Oliver Bendel deals first of all with the current and future technical possibilities of projecting three-dimensional human shapes into space or into vessels. Then examples for holograms from literature and film are mentioned, from the fictionality of past and present. Furthermore, the reality of the present and the future of holograms is included, i.e. what technicians and scientists all over the world are trying to achieve, in eager efforts to close the enormous gap between the imagined and the actual. A very specific aspect is of interest here, namely the idea that holograms serve us as objects of desire, that they step alongside love dolls and sex robots and support us in some way. Different aspects of fictional and real holograms are analyzed, namely pictoriality, corporeality, motion, size, beauty and speech capacity. There are indications that three-dimensional human shapes could be considered as partners, albeit in a very specific sense. The genuine advantages and disadvantages need to be investigated further, and a theory of holograms in love could be developed. The article is part of the book „AI Love You“ by Yuefang Zhou and Martin H. Fischer and was published on 18 July 2019. Further information can be found via link.springer.com/book/10.1007/978-3-030-19734-6.
In Weiden am See sind die Betreiber eines Freibads auf die Idee gekommen, ein Hochsicherheitszugangssystem einzuführen, wie Golem am 17. Juli 2019 unter Berufung auf den Kurier berichtete. Käufer einer Saisonkarte müssen zunächst ihre Handvenen registrieren. Mit Hilfe eines Handvenenscanners wird dann bei jedem Besuch überprüft, ob sie zugangsberechtigt sind. Hans Zeger, Obmann der ARGE Daten, wird mit folgenden Worten zitiert: „Ich halte den, der das macht, für einen überforderten Apparatschik, der die Grundrechte mit Füßen tritt.“ (Kurier, 17. Juli 2019) Die Nutzung biometrischer Merkmale ist aus mehreren Gründen problematisch. Erstens ist sie mit persönlichen Daten verbunden, die in die falschen Hände gelangen können. Zweitens ist es oft möglich, ein Sicherheitssystem auf einfache Weise zu überlisten. In diesem Falle helfen Toner und Bienenwachs dabei. Drittens kann man sich unter Ausübung brutaler Gewalt Zugang verschaffen. Am Neusiedler See wird vermutlich niemand die Hand eines Stammkunden abhacken. Aber in anderen Kontexten ist eine solche Möglichkeit durchaus vorhanden. Insgesamt schafft die Biometrik vor allem Nachteile für die Betroffenen.
Auf Google Maps trägt Riva del Garda den Namen Reiff. Die Habsburger nannten die Stadt so. Aber ein Reiff am Gartsee kennt heute niemand mehr. Teplice war 1895 bis 1918 und 1918 bis 1945 Teplitz-Schönau. Google Maps benutzt die Bezeichnung immer noch. Die Frage ist, ob damit ein politisches Statement verbunden ist. Am rechten Rand dürfte man sich auf jeden Fall über solche Namen freuen. Diese sind bei dem Kartendienst keineswegs eine Ausnahme. Bei einem virtuellen Spaziergang im Veltlin (Valtellina) stößt man laufend auf sie. Morbegno ist Morbend, Sondrio Sünders. Worms ist immerhin wieder Bormio geworden. Vielleicht hat ein Benutzer protestiert. Auch das Elsass ist natürlich eine Fundgrube. Mulhouse ist Mülhausen – dieser Name ist dort freilich noch allgegenwärtig. Doch zurück nach Tschechien, nach Karlsbad, weiter nach Marienbad, Pilsen und Klattau. Und dann wieder hoch, bis Adolfsgrün. Bei Google ist, warum auch immer, die Zeit stehengeblieben.
„AI has definitively beaten humans at another of our favorite games. A poker bot, designed by researchers from Facebook’s AI lab and Carnegie Mellon University, has bested some of the world’s top players …“ (The Verge, 11 July 2019) According to the magazine, Pluribus was remarkably good at bluffing its opponents. The Wall Street Journal reported: „A new artificial intelligence program is so advanced at a key human skill – deception – that it wiped out five human poker players with one lousy hand.“ (Wall Street Journal, 11 July 2019) Of course you don’t have to equate bluffing with cheating – but in this context interesting scientific questions arise. At the conference „Machine Ethics and Machine Law“ in 2016 in Krakow, Ronald C. Arkin, Oliver Bendel, Jaap Hage, and Mojca Plesnicar discussed on the panel the question: „Should we develop robots that deceive?“ Ron Arkin (who is in military research) and Oliver Bendel (who is not) came to the conclusion that we should – but they had very different arguments. The ethicist from Zurich, inventor of the LIEBOT, advocates free, independent research in which problematic and deceptive machines are also developed, in favour of an important gain in knowledge – but is committed to regulating the areas of application (for example dating portals or military operations). Further information about Pluribus can be found in the paper itself, entitled „Superhuman AI for multiplayer poker“.
„Über das Krankenhausnetzwerk lassen sich Befehle an Anästhesie- und Beatmungsgeräte des Herstellers GE senden. Eine Sicherheitslücke ermöglicht unter anderem, Dosierung und Typ des Narkosemittels zu ändern.“ (Golem, 10. Juli 2019) Zudem können Angreifer per Fernzugriff die Alarme abändern respektive abschalten oder die Gaszusammensetzung bei der Beatmung beeinflussen. Dies meldete Golem am 10. Juli 2019. Anästhesie- und Beatmungsgeräte sind nicht die einzigen Geräte, die sich im medizinischen Kontext hacken bzw. manipulieren lassen. Immer mehr werden Tablets und Smartphones eingesetzt, um Bilder von Symptomen zu machen und an Spezialisten weiterzuschicken. Nicht immer sind sie genügend gegen Attacken geschützt. Auch Operations-, Therapie- und Pflegeroboter sind gefährdet. Man kann im Prinzip einen physischen Eingriff oder eine psychische Behandlung beeinflussen – oder persönliche Daten abziehen. Wie der aktuelle Fall weitergeht, ist unklar. „Das Department of Homeland Security (DHS) warnt vor der Sicherheitslücke, der Hersteller GE sieht hingegen keine Gefahr für die Patienten.“ (Golem, 10. Juli 2019)
Mit der KI-basierten App DeepNude konnten Bilder von angezogenen Frauen in Bilder von nackten Frauen umgewandelt werden. Die Methode erinnert laut Golem an Deepfakes, bei denen man Gesichter auf andere Körper setzt. Bei DeepNude „sind es allerdings Körperteile wie nackte Haut, Brüste und Vagina, die über die Kleidung gelegt werden“ (Golem, 28. Juni 2019). Auch das kann freilich als Deepfake bezeichnet werden. Die App nutzt laut dem Magazin sogenannte Generative Adversial Networks (GANs), die mithilfe „vieler verschiedener Bilder aus größtenteils pornografischen Inhalten aus dem Internet trainiert wurden“. „Die fertige Applikation funktioniert nur bei weiblichen Körpern, da es … einfach ist, diese in Menge zu finden.“ (Golem, 28. Juni 2019) „Die Beliebtheit der Software hat die Erwartungen der Entwickler nach eigener Aussage drastisch überstiegen. So sollen etwa 500.000 Menschen die Software vom Server geladen haben.“ (Golem, 28. Juni 2019) Nun wurde das Projekt eingestellt. Interessant ist die Aussage der Entwickler hierzu: „Wenn 500.000 Leute es benutzen, ist die Chance hoch, dass sie es falsch benutzen“ – zudem sei der Server „unter der Last der Anfragen zusammengebrochen, was zum Ausfall des Downloaddienstes geführt habe“ (Golem, 28. Juni 2019).
„Roboter, Empathie und Emotionen“ – dieses Forschungsprojekt hatte die Einrichtung für Technologiefolgenabschätzung der Schweiz, die TA-SWISS, vor einiger Zeit ausgeschrieben. Den Zuschlag hat ein Konsortium von FHNW, ZHAW und Universität St. Gallen erhalten. Der Antragsteller, Prof. Dr. Hartmut Schulze von der Hochschule für Angewandte Psychologie FHNW, deckt die Psychologie ab. Der Co-Antragsteller, Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW, nimmt die Perspektive von Informations-, Roboter- und Maschinenethik ein, die Co-Antragstellerin, Prof. Dr. Maria Schubert von der ZHAW, die der Pflegewissenschaft. Die TA-SWISS stellte auf ihrer Website fest: „Welchen Einfluss haben Roboter … auf unsere Gesellschaft und auf die Personen, die mit ihnen interagieren? Sind Roboter vielleicht eher Spitzel als Vertraute? … Was erwarten wir von diesen Maschinen beziehungsweise was dürfen wir effektiv von ihnen erwarten? Zahlreiche soziologische, psychologische, wirtschaftliche, philosophische und rechtliche Fragen im Zusammenhang mit dem gegenwärtigen und künftigen Einsatz und Potenzial der Roboter sind noch offen.“ (Website TA-SWISS) Das Kick-off-Meeting mit einer hochkarätig besetzten Begleitgruppe fand am 26. Juni 2019 in Bern statt.
Abb.: Beim Berliner Kolloquium (Foto: Daimler und Benz Stiftung)
Ende Juni 2019 erschien die zweite Auflage des Lexikons zur Informationsethik von Oliver Bendel im Springer-Verlag. Zunächst kann man es über SpringerLink beziehen. Ende Juli wird es voraussichtlich in den Buchhandlungen verfügbar sein. Auf die „300 Keywords Informationsethik“ von 2016 folgten die „400 Keywords Informationsethik“. In beiden Fällen lautet der Untertitel „Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik“. Sowohl die Bereiche der Informations-, Roboter- und Maschinenethik als auch die der Künstlichen Intelligenz und der Robotik wurden ausgebaut. Es finden sich nun Begriffe wie „Brain-Computer Interface“, „Gesichtserkennung“ und „Echokammer“ darin. 2014 und 2015 war das Projekt noch mit dem Wunsch gestartet, die Informationsethik weiterleben zu lassen und die Maschinenethik einem breiteren Publikum nahezubringen. Das Buch kam 2016 auf den Markt und wurde seitdem etwa 40.000 Mal heruntergeladen (im Gesamten und in Teilen). In der Zwischenzeit explodierten die Themenbereiche förmlich. Eine zweite Auflage war dringend notwendig. Auf über 300 Seiten kann man sich nun einen Überblick über vergangene, gegenwärtige und zukünftige Entwicklungen verschaffen und sich Definitionen bekannter und weniger bekannter Phänomene aneignen. Weitere Informationen über www.springer.com/gp/book/9783658266639.
Abb.: Bendel in der Bibliothek der Hochschule für Wirtschaft FHNW in Windisch (Foto: Kai R. Joachim)
An der Hochschule für Wirtschaft FHNW entsteht zwischen Juni 2019 und Januar 2020 das siebte Artefakt der Maschinenethik. Ideen- und Auftraggeber ist Prof. Dr. Oliver Bendel. Die Maschinenethik bringt moralische und unmoralische Maschinen hervor, derzeit als Konzepte, Simulationen oder Prototypen. Die maschinelle Moral ist überwiegend fest verankert, über Prinzipien bzw. Metaregeln sowie Regeln. Die Maschinen sind damit zu bestimmten Aktionen in der Lage, zu anderen nicht. Ein Ansatz, der eine gewisse Flexibilität verheißt, ist das Moralmenü (kurz MOME). Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral, seine Vorstellungen und Überzeugungen zu Gut und Böse, seine Wertmaßstäbe, seine Verhaltensregeln auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde, und zwar im Detail. Er trifft womöglich auf bestimmte Voreinstellungen, hat aber eine gewisse Freiheit, diese zu verändern oder neue Standardeinstellungen festzulegen. Im Projekt wird ein MOME prototypisch implementiert, das auf ein bereits bestehendes oder ein im Projekt entwickeltes System zugreift.