Kategorie: Publikationen

KI im Google-Magazin

“Künstliche Intelligenz” ist der Titel der aktuellen Aufbruch-Ausgabe, die im Herbst 2018 erschienen ist. Das Google-Magazin ist seit wenigen Jahren auf dem Markt und wird von einer Agentur der Süddeutschen Zeitung produziert. Es liegt mehreren Zeitungen und Zeitschriften bei, etwa dem Spiegel (Ausgabe vom 14. Oktober 2018). In der Rubrik “Sorgen und Fragen” kommen Fernanda Viégas (Co-Leiterin der Google-Initiative “People + AI Research”), Prof. Dr. John-Dylan Haynes (Hirnforscher am Bernstein Center für Computational Neuroscience), Prof. Dr. Oliver Bendel (Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW) und Prof. Dr. Kathrin Möslein (Wirtschaftsinformatikerin an der Friedrich-Alexander-Universität Nürnberg) zu Wort. Das Interview mit Oliver Bendel kann mit freundlicher Genehmigung der Münchner Agentur hier heruntergeladen werden.

Abb.: Bei Google im Silicon Valley

Patientenverfügung für Pflegeroboter

Am 10. Oktober 2018 widmete sich der Bonner General-Anzeiger Robotern in der Pflege und in der Therapie. Abgedruckt ist ein Interview mit Oliver Bendel, Roboterphilosoph, Informations- und Maschinenethiker. Er hält grundsätzlich viel von Robotern in der Pflege und nimmt auch die Perspektive des Pflegers ein: Dieser soll weder ersetzt noch verdrängt werden, sondern ergänzt, er soll Hilfe und Unterstützung erhalten. Ein interessanter Prototyp war nach seiner Meinung Robear, der zusammen mit der Pflegekraft einen Patienten hochheben und umbetten konnte. Aus ethischer Sicht sei wichtig, dass wir keinen Betrug an den zu Pflegenden begehen: Er persönlich möchte später als dementer Patient nicht mit Pepper alleingelassen oder von Paro betreut werden. Er will aus seiner heutigen Freiheit und Vernunft heraus per Patientenverfügung diese Entscheidung treffen, auch wenn sie dann letztlich vielleicht falsch ist. Einen Roboter, der die Pflegekraft und ihn selbst unterstützt, kann er sich aber gut vorstellen.

Abb.: Ein Roboter in der Pflege

AI love you

Unter der Überschrift “AI love you” berichtete die Süddeutsche Zeitung am 29. September 2018 über den zunehmenden Gebrauch von Liebespuppen und die Weiterentwicklung von Sexrobotern. Vorausgegangen war ein einstündiges Interview mit Oliver Bendel, der als Informations- und Maschinenethiker dieses Phänomen erforscht. Der Journalist und er trafen sich im Münchner Excelsior am Hauptbahnhof und reisten von dort in Gedanken nach Dortmund, wo sich das Bordoll befindet, und nach Barcelona und Moskau. Auch in der Schweiz, erzählte der Ethiker, legt sich das eine oder andere Etablissement eine Liebespuppe zu. So weit wie das Bordoll, wo es keine Menschen mehr gibt, die Besitzerin und die Kunden ausgenommen, treibt es aber noch niemand. Im Bordoll interessieren sich die meist jungen Männer auch für Fantasyfiguren, für Elfen und Manga- und Animemädchen. So etwas muss erforscht werden, wie auch die Frage, ob man Liebespuppen in Pflege und Therapie einsetzen kann. Dieser Frage widmet sich wiederum ein aktueller Beitrag von Oliver Bendel in der IT for Health. Der Beitrag in der Süddeutschen kann hier kostenpflichtig abgerufen werden.

Abb.: Eine Liebespuppe

Das Ah-Erlebnis

VRODO hat ein Interview mit dem Roboterphilosophen, Informations- und Maschinenethiker Oliver Bendel geführt. Es ging um moralische Maschinen und am Rande auch um die Frage, ob Maschinen eines Tages Bewusstsein oder Selbstbewusstsein haben können. Für Oliver Bendel gehört zum Bewusstsein, dass eine innere Stimme ausruft: Ah, das ist ja die Welt! Diese innere Stimme kann seiner Meinung auch ein Tier haben. Jeder Igel, jede Kröte hat Bewusstsein. Zum Selbstbewusstsein gehört, dass die innere Stimme ausruft: Ah, das bin ja ich! Ein Affe hat Selbstbewusstsein. Der Roboterphilosoph denkt nicht, dass man ein echtes Bewusstsein von Maschinen wird schaffen können. Auf jeden Fall werde der Roboter nie mit seiner inneren Stimme ausrufen: Ah, das bin ja ich, der Roboter! “I, Robot” – das sei Science-Fiction. Die Forschung über maschinelles Bewusstsein hält Oliver Bendel dennoch für wichtig. Bei einem der Symposien der AAAI Spring Symposia an der Stanford University wird es um dieses Thema gehen. Das Interview wurde von Maximilan Schreiner geführt und kann über vrodo.de/was-ein-roboterphilosoph-ueber-maschinenmoral-denkt/ nachgelesen werden.

Abb.: Wie kommt Bewusstsein zustande?

Sprechende Maschinen

Schon vor tausenden Jahren träumte der Mensch davon, künstliche Kreaturen zu schaffen. Diese sollten seine Gehilfen sein, seine Begleiter, Geliebten und Krieger. Bei Homer und Ovid lernen wir sie kennen, schätzen und fürchten. Die meisten dieser Kreaturen, auch in Mittelalter, Renaissance und Barock, waren stumm. Damit wurde die Kluft zwischen ihnen und uns angedeutet. Eine Ausnahme bildeten die sprechenden Köpfe, die in die Zukunft blicken konnten. Heute tragen uns Text-to-Speech-Systeme die Inhalte von Websites vor, plaudern Sprachassistenten wie Siri und Alexa mit uns und melden sich Fahrzeuge laut und vernehmlich zu Wort. Ein weites Feld aus technischer, psychologischer und ethischer Perspektive. Der Artikel “Sprechende Maschinen” von Oliver Bendel, der im September 2018 in der UnternehmerZeitung erschienen ist, schlägt einen Bogen von der Antike bis zur Gegenwart und zeigt heutige Möglichkeiten und Herausforderungen bei synthetischen Stimmen auf. Der Beitrag kann hier heruntergeladen werden.

Abb.: Sprechende Menschen (mit Maschine)

Animals and Machines

Semi-autonomous machines, autonomous machines and robots inhabit closed, semi-closed and open environments. There they encounter domestic animals, farm animals, working animals and/or wild animals. These animals could be disturbed, displaced, injured or killed. Within the context of machine ethics, the School of Business FHNW developed several design studies and prototypes for animal-friendly machines, which can be understood as moral machines in the spirit of this discipline. They were each linked with an annotated decision tree containing the ethical assumptions or justifications for interactions with animals. Annotated decision trees are seen as an important basis in developing moral machines. They are not without problems and contradictions, but they do guarantee well-founded, secure actions that are repeated at a certain level. The article “Towards animal-friendly machines” by Oliver Bendel, published in August 2018 in Paladyn, Journal of Behavioral Robotics, documents completed and current projects, compares their relative risks and benefits, and makes proposals for future developments in machine ethics.

Fig.: In Australia

Tierhaltung und Technologie

In der Tier-Maschine-Interaktion geht es um Design, Evaluierung und Implementierung von (höherentwickelten bzw. komplexeren) Maschinen und Computersystemen, mit denen Tiere und die mit Tieren interagieren und kommunizieren. Animal Enhancement ist die Erweiterung des Tiers, vor allem zu seiner scheinbaren oder tatsächlichen Verbesserung in Bezug auf seine eigenen Interessen oder diejenigen des Menschen, etwa in wirtschaftlicher oder wissenschaftlicher Hinsicht. Im Blick sind u.a. Leistungssteigerung, Erhöhung der Lebensqualität und Optimierung der Verwertung. Beide Begriffe kommen in einem Artikel zur Massentierhaltung vor, der im August 2018 im Wirtschaftslexikon von Springer Gabler veröffentlicht wurde. Dieser beginnt mit den Worten: “Massentierhaltung, auch intensive Tierhaltung oder Intensivtierhaltung genannt, ist die massenhafte Haltung von Tieren unter beengenden, belastenden und meist nicht artgerechten Umständen.” Das Gegenteil ist die extensive Tierhaltung. Auch diese beinhaltet Probleme. Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/massentierhaltung-99932 heruntergeladen werden.

Abb.: Wasserbüffel in Mumbai in extensiver Tierhaltung

Raumfahrt und Ethik

“Zur Raumfahrt (Weltraumfahrt) gehören Reisen und Transporte in den, durch den und aus dem Weltraum zu zivilen oder militärischen Zwecken. Der Start auf der Erde erfolgt i.d.R. mit einer Trägerrakete. Das Raumschiff (Raumfahrzeug) ist, wie die Landefähre, bemannt oder unbemannt. Das Ziel kann die Umlaufbahn eines Himmelskörpers sein, ein Trabant, Planet oder Komet, der durch einen Astronauten respektive Kosmonauten oder Roboter (etwa einen Rover) erkundet, oder eine Gegend, die fotografiert und analysiert wird.” (Gabler Wirtschaftslexikon) Mit diesen Worten beginnt ein Beitrag von Oliver Bendel im Wirtschaftslexikon von Springer Gabler, veröffentlicht am 16. August 2018. Auch die Perspektive der Ethik wird eingenommen: “Die Umweltethik, die sich für gewöhnlich auf die Umwelt der Erde richtet, muss verstärkt Weltraum, Trabanten und Planeten einbeziehen. Die Informationsethik kann sich mit ihr zusammen mit den Folgen des Einsatzes von Informations- und Kommunikationstechnologien in einer unberührten, nichttechnisierten Welt befassen.” Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/raumfahrt-99958 abgerufen werden.

Abb.: Auf zu fremden Galaxien!

Trinkt Holly Golightly einen Coffee to go?

Kaffee ist für viele Philosophen und auch Ethiker ein Betriebsstoff und ein Lebenselixier. Vor über einem halben Jahrhundert entstand die mobile Variante, die das Straßenbild amerikanischer wie europäischer Städte prägt. In seinem Beitrag für das Wirtschaftslexikon von Springer Gabler vom 16. August 2018 erklärt Oliver Bendel: “Coffee to go ist Kaffee zum Mitnehmen, abgefüllt in einem Karton- oder Kunststoffbecher, auf dem ein Deckel sitzt, der mit einer Trinköffnung versehen sein kann.” (Gabler Wirtschaftslexikon) Der Informations- und Maschinenethiker wirft die Frage auf, ob der mobile Kaffee wirklich 1964 von 7-Eleven erfunden oder schon vorher verkauft wurde, und verweist auf den Film “Frühstück bei Tiffany” (1961). “In der berühmten Eingangsszene holt Holly Golightly (gespielt von Audrey Hepburn) vor dem Juweliergeschäft in Manhattan nebst einem süßen Teilchen einen Becher aus einer Papiertüte, macht den Deckel ab und nimmt einen Schluck.” Wasser, Tee, Kaffee? Gekauft oder selbst gemacht? Man weiß es nicht, nicht mit Sicherheit. Auch die Ethik wird am Ende gestreift: “Wirtschafts- und Umweltethik beschäftigen sich mit den moralischen Implikationen von Einwegprodukten und der Konsum- und Wegwerfgesellschaft. Die Konsumentenethik fragt nach der Verantwortung des Verbrauchers beim Kaffeekonsum in nicht durchweg selbstverschuldeten Prozessen und Strukturen.” Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/coffee-go-99952 aufgerufen werden.

Abb.: Snapshot aus “Frühstück bei Tiffany”

Beitrag über Nudging

“Beim Nudging (engl. ‘Anstoßen’, ‘Schubsen’ oder ‘Stupsen’) bewegt man jemanden auf mehr oder weniger subtile Weise dazu, etwas Bestimmtes einmalig oder dauerhaft zu tun oder zu lassen. Dabei können Voreinstellungen und Standards (Defaults) ebenso zum Einsatz kommen wie Produktinformationen und Warenpräsentationen. Angestrebt werden die Verhaltensänderungen der Personen und Gruppen etwa von Unternehmen oder vom Staat.” Mit diesen Worten beginnt ein Beitrag von Oliver Bendel, der Anfang August 2018 im Wirtschaftslexikon von Springer Gabler erschienen ist. Auch die Perspektive der Ethik wird eingenommen. Am Ende heißt es: “Manche Nudges führen u.U. nicht nur zu einer Verhaltens-, sondern auch zu einer Bewusstseinsänderung und einer Realitätsverschiebung. Wir lassen uns von sozialen Medien und Systemen der Künstlichen Intelligenz animieren und dirigieren, reagieren auf Lob und Tadel, akzeptieren Belohnungen und Geschenke, selbst wenn wir damit auf andere Druck ausüben und zu Gleichschaltung und Überwachung beitragen.” Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/nudging-99919 abgerufen werden.

Abb.: Auch eine Smartwatch ermöglicht Nudging

Cybersecurity und Ethik

“Cybersecurity oder IT-Sicherheit ist der Schutz von Netzwerken, Computersystemen, cyber-physischen Systemen und Robotern vor Diebstahl oder Beschädigung ihrer Hard- und Software oder der von ihnen verarbeiteten Daten sowie vor Unterbrechung oder Missbrauch der angebotenen Dienste und Funktionen. Bei den Daten handelt es sich sowohl um persönliche als auch um betriebliche (die wiederum persönliche sein können).” (Gabler Wirtschaftslexikon) In seinem Beitrag zu Cybersecurity, der Anfang August 2018 im Wirtschaftslexikon von Springer Gabler veröffentlicht wurde, erklärt der Wirtschaftsinformatiker und Informations- und Maschinenethiker Oliver Bendel, was Cybersecurity ist, was die einzelnen Merkmale sind und wie es mit dem gut- und böswilligen Hacken zusammenhängt. Auch auf ethische Fragen wird am Rande eingegangen. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/cybersecurity-99856.

Abb.: Hacken kann zur Sicherheit beitragen

Private Drohnen aus ethischer Sicht

Der Artikel “Private Drohnen aus ethischer Sicht: Chancen und Risiken für Benutzer und Betroffene” von Oliver Bendel erschien in der Zeitschrift Informatik-Spektrum 2015 als Onlineversion, 2016 in gedruckter Form. Er kann nun im Rahmen der Springer Nature SharedIt Initiative kostenlos online gelesen werden, über rdcu.be/4drA … Aus dem Abstract: “Es werden immer mehr private Flugdrohnen verkauft und genutzt. Sie fotografieren und filmen uns von oben, selbst wenn wir in unserem Garten liegen oder in unserem Haus sind, am Fenster vorbeigehend oder stehend. Aus der Sicht der Informationsethik, die im vorliegenden Beitrag eingenommen wird, gibt es viele Risiken beim Einsatz, aber auch einige Chancen, und zwar sowohl für die Besitzer als auch für die Betroffenen. Zu den herausgearbeiteten Risiken zählt die Gefährdung der informationellen und persönlichen Autonomie, zu den Chancen die Erweiterung menschlicher Möglichkeiten mit Hilfe der Informationstechnologie.”

Abb.: Eine Fotodrohne in Aktion

Gesprächsroboter und Social Bots

Ende August 2018 erscheint das Buch “Talk with the Bots: Gesprächsroboter und Social Bots im Diskurs”, herausgegeben von Theo Hug und Günther Pallaver, bei innsbruck university press. Autorinnen und Autoren sind u.a. Timo Kaerlein, Netaya Lotze, Andrea Knaut und Oliver Bendel. Sie alle trugen beim “Medientag 2017” der Universität Innsbruck vor, der in dem Buch verarbeitet wird. Aus dem Klappentext: “Immer öfter kommuniziert Software mit und für uns. Bots übernehmen oft unbemerkt komplexe Aufgaben und virtuelle Assistenzen verarbeiten die gesprochene ­Sprache. Die Technologieentwicklung gestattet uns mittlerweile, die Dienste von digitalen, oftmals sprachbasierten Assistenzsystemen in unseren Alltag zu integrieren. Besonders im Bereich der politischen Propaganda und Public Relations sind Social Bots seit einiger Zeit zu zweifelhafter Berühmtheit gelangt. … Der interdisziplinär ausgerichtete Band befasst sich mit dieser Thematik und sucht nach Antworten auf Fragen wie die folgenden: Wie können wir die Interaktion mit künstlichen Intelligenzen von jener mit Menschen unterscheiden? Inwieweit ist das wichtig? Was bedeutet diese Entwicklung für das Alltagsleben und für den Bereich der Kommunikation?” (Klappentext iup) Weitere Informationen über www.uibk.ac.at/iup/buecher/9783903187290.html.

Abb.: Cover des Buchs

Fiktionale und reale Hologramme

Leia, die in “Star Wars” als Hologramm eine Nachricht überbringt, Darth Vader, der mit dem Imperator Pläne schmiedet, obwohl beide weit entfernt voneinander sind, William Riker in “Star Trek”, der sich – Stichwort “Holodeck” – durch virtuelle Landschaften bewegt, Officer K in “Blade Runner 2049″, der mit einer holografischen Gefährtin namens Joi zusammenwohnt und auf holografische Tänzerinnen und Sänger (Frank Sinatra unter Glas und Elvis Presley auf der Bühne) trifft – in all diesen Fällen kommen fiktionale Hologramme zum Einsatz. Aber auch in der Realität tut sich etwas, und man kann nicht nur Hologramme mit Holografiepyramiden erzeugen, ob für den Privatgebrauch mit dem Smartphone oder zur Produktpräsentation auf Messen, sondern sie sich auch, gefangen in einer Art Kaffeemaschine (Gatebox genannt), in das Schlaf- oder Wohnzimmer stellen. In seinem Beitrag “Hologramm” für das Wirtschaftslexikon von Springer Gabler – abrufbar über wirtschaftslexikon.gabler.de/definition/hologramm-99480 – geht Oliver Bendel auf den Begriff der Holografie und auf fiktionale und reale Hologramme ein. Auch Fragen der Ethik werden aufgeworfen.

Abb.: Hologrammen gehört die Zukunft

Handbuch zur Maschinenethik

Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum “Handbuch Maschinenethik”, das von Oliver Bendel herausgegeben wird. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden (elf sind bereits online), findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 … Ende 2018 soll das gedruckte Werk erscheinen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, Julian Nida-Rümelin, deutscher Philosoph und ehemaliger Kulturstaatsminister, Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet, die Stuttgarter Philosophin Catrin Misselhorn, die ebenfalls einen hervorragenden Ruf in der Disziplin hat, und die Technikethiker Karsten Weber und Thomas Zoglauer. Oliver Bendel selbst steuert sieben Beiträge bei. Er klärt die Frage, wozu wir Maschinenethik brauchen, geht auf Pflegeroboter und Sexroboter aus Sicht der Maschinenethik ein und stellt Projekte zu moralischen und unmoralischen Maschinen vor.

Abb.: Die Erschaffung der Maschine

Ethische Leitlinien der GI

Die Ethischen Leitlinien der Gesellschaft für Informatik e.V. (GI) wurden in einer neuen Version am 29. Juni 2018 vom Präsidium verabschiedet. An den alten Versionen von 1994 und 2004 hatte es einige Kritik gegeben, die teilweise unerhört verhallte. Nun hat die Ethik einen hohen Stellenwert und die Fachgruppe “Informatik und Ethik”, die federführend bei der Weiterentwicklung war, mit Dr. Stefan Ullrich einen kompetenten Vertreter beider Disziplinen. In der Präambel wird betont, dass man den Willen hat, das “Handeln an den Werten auszurichten, die dem Grundgesetz der Bundesrepublik Deutschland und der Charta der Grundrechte der Europäischen Union zu Grunde liegen”. “Die GI-Mitglieder fühlen sich insbesondere dazu verpflichtet, die Menschenwürde zu achten und zu schützen. Wenn staatliche, soziale oder private Normen im Widerspruch zu diesen Werten stehen, muss dies von den GI-Mitgliedern thematisiert werden.” (Website GI) Die Leitlinien können über gi.de/ueber-uns/organisation/unsere-ethischen-leitlinien/ heruntergeladen werden.

Abb.: GI-Mitglieder sollen den Werten des Grundgesetzes verpflichtet sein

Die Moral der Roboter

In der neuen Ausgabe der Zeitschrift cooperativ (2/18) widmet man sich der Frage, ob Roboter Moral brauchen. Oliver Bendel zeigt seit einigen Jahren, wie maschinelle Moral entsteht, aus der Maschinenethik heraus, in Zusammenarbeit mit Künstlicher Intelligenz und Robotik. Ob Roboter Moral brauchen, muss von Fall zu Fall entschieden werden. Es bieten sich Stellvertretermaschinen mit einer Stellvertretermoral an, die der Besitzer oder Benutzer mit Hilfe eines Moralmenüs erzeugen kann, mit einer gewissen Freiheit, die auf der einen Seite von Voreinstellungen, auf der anderen Seite von Verordnungen und Gesetzen eingeschränkt wird. Stellvertretermaschinen dieser Art können in geschlossenen oder halboffenen Umgebungen unterwegs sein, etwa als Staubsaugerroboter im Haushalt oder als Sicherheitsroboter auf dem Betriebsgelände. Oliver Bendel kommt in dem Beitrag von Hermann Fritzl ebenso zu Wort wie Matthias Scheutz von der Tufts University School of Engineering und Bertram F. Malle von der Brown University. Der Artikel mit dem Titel “Brauchen Roboter Moral?” kann über issuu.com/cooperativ_oegv/docs/cooperativ_02_18_web aufgerufen werden. Zudem steht er hier als PDF zur Verfügung.

Abb.: Elektro hat noch keine Moral

Geplante Social-Media-Richtlinien des ORF

ORF-Generaldirektor Alexander Wrabetz hat einen Entwurf für Social-Media-Richtlinien vorgelegt. Ist das Dokument, das derzeit in den sozialen Medien kursiert, echt, ist man beim Sender nicht in der Lage, den Begriff richtig zu schreiben. Mehrmals ist von “ORF Social Media-Richtlinien” die Rede. In den Medien wird die falsche Schreibweise teils stillschweigend korrigiert, was eine Verfälschung des Originals darstellt, teils kommentarlos übernommen. Aber weg vom Formalen, hin zum Inhaltlichen. Der Spiegel fasst zusammen, dass bei Inkrafttreten der Dienstanweisung die Mitarbeiterinnen und Mitarbeiter des ORF sich “nicht mehr politisch kommentierend äußern” dürfen – “auch nicht als Privatpersonen” (SPON, 27. Juni 2018). Sogar “Likes, Dislikes, Recommends, Retweets oder Shares” seien zu unterlassen, denn eine “Meinungsbekundung” (SPON, 27. Juni 2018) könne auch indirekt erfolgen. Die Zeitschrift spricht in der Überschrift ihres Artikels von einem “Maulkorb”. In ihrer Analyse stellt sie fest, dass sich mit der geplanten Verordnung “Vertreter der Regierungsparteien ÖVP und FPÖ im Stiftungsrat … durchgesetzt haben” (SPON, 27. Juni 2018). SRF hatte ebenfalls rigide Richtlinien, die vor der No-Billag-Initiative etwas gelockert wurden, damit sich die Journalisten gegen diese aussprechen konnten. Grundsätzlich handelt es sich bei Social-Media-Richtlinien dieser Art um einen massiven Eingriff in die Meinungsfreiheit, der von Medien- und Informationsethik untersucht werden kann.

Abb.: Müssen ORF-Mitarbeitende künftig schweigen?

A Moral Menu for a Domestic Robot

LADYBIRD, the animal-friendly vacuum cleaning robot, was conceived in 2014 by Oliver Bendel and introduced at Stanford University (AAAI Spring Symposia) in 2017 and then implemented as a prototype at the School of Business FHNW. In the context of the project, a menu was proposed with which the user can set the morale of the vacuum cleaner robot. As the name implies, it spares ladybirds. It should also let spiders live. But if you want to have certain insects sucked in, you could define this via a menu. It is important that LADYBIRD remains animal-friendly overall. The idea was to develop a proxy morality in detail via the menu. The vacuum cleaner robot as a proxy machine does what the owner would do. In 2018 the moral menu (MOME) for LADYBIRD was born as a design study. It can be combined with other approaches and technologies. In this way, the user could learn how others have decided and how the personal morality that he has transferred to the machine is assessed. He could also be warned and enlightened if he wants to suck in not only vermin but also spiders.

Fig.: Moral menu for LADYBIRD

I Hurt Myself Today

Niemand sang das Lied von Schmerz und Leid so schön wie Johnny Cash: “I hurt myself today/To see if I still feel/I focus on the pain/The only thing that’s real”. Die Philosophie hat sich immer wieder mit dem Leiden beschäftigt, und dieses rückte bei Jeremy Bentham in den Mittelpunkt, mit der Aussage, “the question is not, Can they reason? nor, Can they talk? but, Can they suffer?” – sein Modell der normativen Ethik umfasste Menschen wie Tiere. Niemand will leiden, sich geißelnde Mönche ausgenommen, aber wenn die Fähigkeit zu leiden fehlt, ist dies ein Mangel. Forscher der Johns Hopkins School of Medicine haben nun, wie ICTkommunikation meldet, “eine neue Prothesenhaut entwickelt, die Schmerz und Berührungsintensität fühlen lässt”. Sie generiere elektrische Impulse, welche die Nerven im Oberarm stimulieren. “Es handelt sich bei der Haut um eine dünne Schicht aus Gummi und Stoff, die über den Fingerspitzen einer Prothese getragen wird.” (ICTkommunikation, 25. Juni 2018) Das neue Gadget wurde laut der Zeitschrift bereits an Amputierten getestet, die den Einsatz als “belebend” beschrieben haben. “Schmerz ist natürlich unerfreulich. Dennoch ist er essenziell und fehlt bei Prothesen, die Amputierten derzeit zur Verfügung stehen”, wird Luke Osborn von der amerikanischen Hochschule zitiert. Bei Johnny Cash ging es weiter mit den Worten: “The needle tears a hole/The old familiar sting/Try to kill it all away/But I remember everything.” Der Beitrag kann hier abgerufen werden.

Abb.: Hier überstrahlt das Glück der Zukunft den Schmerz der Gegenwart