The LADYBIRD project starts in March 2017. More and more autonomous and semi-autonomous machines make decisions that have moral implications. Machine ethics as a discipline examines the possibilities and limits of moral machines. In this context, Prof. Dr. Oliver Bendel developed various design studies and thus submitted proposals for their appearance and functions. He focused on animal-friendly machines which make morally sound decisions, and chatbots with specific skills. The project is about a service robot, which shall spare beneficial insects – a vacuum cleaner called LADYBIRD. An annotated decision tree modelled for this objective and a set of sensors will be used. Three students work from March to October in the practice project at the School of Business FHNW. Since 2013, the principal Oliver Bendel published several articles on LADYBIRD and other animal-friendly machines, e.g., „Ich bremse auch für Tiere (I also brake for animals)“ in the Swiss magazine inside.it. The robot will be the third prototype in the context of machine ethics at the School of Business FHNW. The first one was the GOODBOT (2013), the second one the LIEBOT (2016). All these machines can be described as simple moral machines.
„Programmierte Moral für autonome Maschinen“ – so der Titel einer Diskussionsveranstaltung von Telepolis und Westendverlag am Rande der Buchmesse in Frankfurt. Auf der Website der Zeitschrift heißt es: „Maschinen und Roboter, die immer selbständiger handeln und entscheiden sollen, ziehen als Saug- und Mähroboter, als Pflege-, Spiel-, Service- oder auch Sexroboter, als unverkörperte Agenten, als Überwachungs- oder auch als Kampfroboter in die Lebenswelt ein. Wir müssen den Umgang mit den neuen Mitbewohnern lernen und diesen müssen höchst unterschiedliche Regeln im Umgang mit den Menschen und der Umwelt einprogrammiert werden. Autonome Fahrzeuge könnten bald massenhaft auf den Straßen fahren. Dass sie keine hundertprozentige Sicherheit bei ihren Entscheidungen bieten, zumal wenn sie mit menschlichen Fahrern konfrontiert sind, hat sich bereits an Unfällen gezeigt.“ (Website Telepolis) Die Gäste in der ehemaligen Fabrikhalle der Firma Naxos-Union namens Naxoshalle, Prof. Dr. Catrin Misselhorn, Direktorin des Instituts für Philosophie der Universität Stuttgart, Prof. Dr. Oliver Bendel, Professor am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW, und Peter Weibel, Medienkünstler und Medientheoretiker, Vorstand des Zentrums für Kunst und Medien Karlsruhe, diskutieren über moralische Maschinen und maschinelle Moral. Vorgestellt werden auch zwei Bücher, „Die Moral in Maschine“ von Oliver Bendel (erschienen bereits im Februar) und „Programmierte Ethik“, herausgegeben von Florian Rötzer, mit Beiträgen u.a. von Oliver Bendel, Catrin Misselhorn, Raúl Rojas und Hans-Arthur Marsiske. Es moderiert Florian Rötzer, Chefredakteur von Telepolis. Weitere Informationen über www.heise.de/tp/artikel/49/49560/1.html.
„Forscher arbeiten unter Hochdruck an sozialen Robotern. Sie sollen echte Gefährten werden, sogar eigene Persönlichkeit entwickeln. So schwindet die Differenz zwischen Mensch und Maschine. Das wirft ethische Fragen auf.“ (RP, 10. März 2016) Mit diesen Worten beginnt der Artikel „Soziale Roboter auf dem Vormarsch“ von Dorothee Krings, erschienen am 10. März 2016 in der Rheinischen Post. Eingegangen wird auf zwei neue Projekte in diesem Bereich: An der Uni Bielefeld wird „an einem Maschinen-Lehrer gebaut, der Einwandererkindern beim Deutschlernen helfen soll“ (RP, 10. März 2016). „Nao ist nur 60 Zentimeter groß, ein niedliches Spielzeug, aber er kann sehen, hören und bald auch die Stimmungslage seines Gegenübers einschätzen – und auf Unlust reagieren.“ (RP, 10. März 2016) In Freiburg „wird an Fritz getüftelt, einem Gestell mit Comicgesicht, das Blickkontakt aufnehmen und die Mundwinkel sinken lassen kann, wenn man sich von ihm abwendet“. Er soll „durchs Museum führen und merken, wenn seine Zuhörer sich langweilen“ (RP, 10. März 2016). „In 20 Jahren wird man Roboter haben, die wirklich unter uns leben, mit denen wir reden, die wir lieben“, wird Oliver Bendel zitiert, „einer der führenden Maschinenethiker, der in der Schweiz lehrt“ (RP, 10. März 2016). Dabei sieht er neben den Chancen die Risiken und macht Vorschläge, wie das Zusammenleben gelingen kann. Er spricht von einem V-Effekt für Roboter, „frei nach dem Theater von Brecht“; „der Roboter hält inne und betont, dass er nur eine Maschine ist“ (RP, 10. März 2016). Der Artikel kann über www.rp-online.de/politik/soziale-roboter-auf-dem-vormarsch-aid-1.5824498 abgerufen werden.
Die Maschinenethik hat die Moral von Maschinen zum Gegenstand. Die meisten ihrer Vertreter und Anhänger sitzen in den USA, doch auch in Europa wächst das Interesse am Thema. Philosophen, Robotiker oder Experten für Künstliche Intelligenz stellen sich Fragen dieser Art: Können Maschinen gut oder böse sein? Kann man von einer Moral der Maschinen sprechen? Verwendet man Regeln oder Fälle? Hat die Maschinenethik eine Existenzberechtigung? Ist sie Konkurrenz oder Pendant zur Menschenethik? Letzten Endes geht es darum, ob bzw. wie man (teil-)autonomen Systemen so etwas wie Moral beibringen kann. Untersucht und erweitert werden unter anderem Chatbots, Serviceroboter, autonome Drohnen, ob zivil oder militärisch genutzt, und selbstständig fahrende Autos. Im Telepolis-Buch „Die Moral in der Maschine“ (Heise Medien), erschienen im Februar 2016, finden sich (populär-)wissenschaftliche und journalistische Beiträge von Oliver Bendel aus den Jahren 2012 bis 2016 zur Roboterethik und zur Maschinenethik. Sie sind in ganz unterschiedlichen schweizerischen und deutschen Zeitungen und Zeitschriften sowie auf einschlägigen Plattformen erschienen und widmen sich technischen Implementierungen, vor allem aber philosophischen Implikationen.
Abb.: Auch das Trolley-Problem kommt im Buch vor, als Roboterauto-Problem
„Wer ist verantwortlich, wenn künstliche Intelligenz versagt?“ Die Sendung bei Deutschlandradio Kultur vom 12. Januar 2016 mit diesem Titel widmete sich aktuellen Entwicklungen in der Robotik und in Roboter- und Maschinenethik. Zu Wort kommen u.a. Eric Hilgendorf, Experte für Roboterrecht an der Universität Würzburg, Ken Goldberg, Robotiker an der University of California, und Oliver Bendel, Informationsethiker und Maschinenethiker an der Hochschule für Wirtschaft FHNW. Zu Ken Goldberg wird auf der Website gesagt: „Ken Goldberg von der University of California in Berkley Kalifornien ist einer der renommiertesten Robotik-Wissenschaftler weltweit. Er spricht von der Revolution, die auf seinem Arbeitsgebiet gegenwärtig stattfindet. Die Vernetzung von fast allem mit allem – Web 4.0 befreit auch die Roboter aus ihrer Isolation. Sie können nun direkt voneinander und von den Menschen lernen und auf unerhörte Rechnerkapazitäten zugreifen. Cloud Robotics nennt Goldberg das Konzept.“ (Website DRadio Kultur, 12. Januar 2016) Oliver Bendel wird mit diesen Worten vorgestellt: Er „ist Philosoph und Professor für Wirtschaftsinformatik an der Fachhochschule der Nordwestschweiz“. „Bei ihm spürt man die Neugier darauf, was da zwischen Menschen und Maschinen entsteht. Es ist schon mehr ein Miteinander. Am Arbeitsplatz müssen die Roboter aufpassen und ausweichen, um niemanden anzufahren oder mit den Greifern zu verletzen. Und wir Menschen tun gut daran, die Umgebung übersichtlich zu strukturieren, damit sich die Maschinen zurechtfinden.“ (Website DRadio Kultur, 12. Januar 2016) Der Beitrag kann über ondemand-mp3.dradio.de angehört werden.
„Robots between the Devil and the Deep Blue Sea“ lautet der Titel des Beitrags, der am 1. Dezember 2015 in der brasilianischen Zeitschrift Liinc em Revista erschienen ist. Man könnte auch sagen: „Roboter zwischen Skylla und Charybdis“. Oliver Bendel stellt klassische Dilemmata vor und überträgt sie ins Informationszeitalter. Insbesondere interessiert der Einsatz von Chatbots, Robotern, Drohnen und selbstständig fahrenden Autos, der immer wieder problembehaftet ist. Bei den Lösungsansätzen wird u.a. die Perspektive der Maschinenethik eingenommen. Es stellt sich heraus, dass klassische Dilemmata für die Herausforderungen der Gegenwart nützlich sind und dabei helfen, die Entscheidungsmöglichkeiten teilautonomer und autonomer Systeme zu diskutieren sowie Robotik, Künstliche Intelligenz und Informatik in dieser Frage zu sensibilisieren und ihre Ergebnisse und Erzeugnisse zu optimieren. Skizziert werden das „Roboterauto-Problem“, die „Parkbucht des Karneades“, „Buridans Robot“ und das „Lügenbot-Problem“. Der Beitrag kann über die Website der Zeitschrift kostenlos heruntergeladen werden.
Auf seiner Vortrags- und Lesereise vom 14. bis 16. September 2015 durch die Niederlande erzählte Oliver Bendel von seinen Handyromanen und -haikus und trug kurze Passagen aus seinen Werken vor, etwa aus „Handygirl“ (2009 – 2010). Handygirl ist ein Avatar und lebt auf dem Handy von Liza. Sie liest die SMS vor und ist eifersüchtig, wenn Liza über ihr Notebook chattet. Niemand ahnt, dass Handygirl eines Tages zur Superheldin wird. Am wenigsten Handygirl selbst. Doch eines Tages geschieht es: Als Liza in Gefahr gerät und fürchterliche Angst bekommt, steigt Handygirl aus dem Handy und rettet und tröstet sie. Sie wird eine Superheldin, vor allem aber ein Mensch; und für Augenblicke lebt sie wirklich. Handygirl war eine Inspiration für den GOODBOT, der 2013 an der Hochschule für Wirtschaft FHNW als Prototyp entwickelt wurde, und den Oliver Bendel am Ende der Veranstaltungen als moralische Maschine vorstellte. Noch früher als „Handygirl“ war die Serie um Lucy Luder entstanden, nämlich im Jahre 2007. Zudem hatte es den Handyroman „lonelyboy18“ (2009) gegeben. Stationen waren u.a. Universiteit Leiden, Universiteit Groningen und Universiteit Utrecht. Eingeladen haben den Wissenschaftler und Schriftsteller die Goethe-Institute Amsterdam und Rotterdam und die Deutsche Bibliothek in Den Haag. In der Reihe, an der schon Hans Magnus Enzensberger, Friedrich Christian Delius, Peter Stamm und Kathrin Passig mitgewirkt haben, ging es dieses Mal um die Digitalisierung der Literatur.
Die Referenten der Tagung „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“, veranstaltet von der Daimler und Benz Stiftung sowie vom Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres), stehen fest. Auf der Website der Einrichtung an der Universität Köln heißt es: „Während der eintägigen Veranstaltung soll aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können. Neben Ausführungen zu Entwicklungsstand, Eigenschaften und Einsatzmöglichkeiten autonomer Systeme soll deren Einsatz in den Bereichen Gesundheit, Wirtschaft, Politik und Verkehrswesen insbesondere aus ethischer, philosophischer und sozialwissenschaftlicher Perspektive betrachtet werden.“ (Website ceres) Die Leitung der Tagung, die am 24. November 2015 in Berlin stattfindet, hat Christiane Woopen inne, die Referenten sind Alin Albi Schäffer, Oliver Bendel, Hartmut Hirsch-Kreinsen, Norbert Lammert, Catrin Misselhorn, Jochen Steil und Johannes Weyer. Weitere Informationen über ceres.uni-koeln.de/veranstaltungen/tagungen/roboterethik und www.daimler-benz-stiftung.de.
In seinem Artikel „Das moralische Auto“ lässt Hans-Arthur Marsiske sowohl Ethiker als auch Juristen zu Wort kommen. Der Maschinenethiker Oliver Bendel, Hochschule für Wirtschaft FHNW, schätzt moralische Maschinen, konzipiert sie auch selbst, ist aber der Meinung, dass sie bestimmte Entscheidungen nicht übernehmen sollten, etwa über Leben und Tod von Menschen im Straßenverkehr. Er konzentriert sich auf „gute“ und „richtige“ Entscheidungen gegenüber Tieren. Patrick Lin, Philosoph an der California Polytechnic State University, ist der Ansicht, „dass autonome Fahrzeuge bei einem unvermeidlichen Zusammenstoß in der Lage sein sollten, die Kollision zu optimieren, also so zu reagieren, dass der Schaden möglichst gering ausfällt“. Er bezieht Menschen ausdrücklich mit ein; die Maschine wird also darüber urteilen, wer überleben darf und wer sterben muss. Der Jurist Eric Hilgendorf befürchtet grundsätzlich, „dass autonome Fahrzeuge das deutsche Rechtsverständnis unter Druck setzen könnten, da es schwieriger zu programmieren sei als das angelsächsische“. Sowohl Lin als auch Bendel plädieren für eine breite gesellschaftliche Diskussion. Der Beitrag ist am 29. August 2015 in der Zeitung Neues Deutschland erschienen und kann über www.pressreader.com abgerufen werden.
Die Konferenz „Roboterethik – Sie sind stark, klug, selbstständig. Und was wird aus uns?“ findet am 24. November 2015 in Berlin statt. Veranstalter sind Daimler und Benz Stiftung sowie Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres). Auf der Website zur Tagung heißt es: „Während der eintägigen Veranstaltung soll aus verschiedenen Blickwinkeln beleuchtet werden, wie autonome Systeme unser Leben und unsere Gesellschaft verändern und welche ethischen Spannungsfelder hierdurch in unterschiedlichen Lebensbereichen aufgeworfen werden bzw. zukünftig entstehen können. Neben Ausführungen zu Entwicklungsstand, Eigenschaften und Einsatzmöglichkeiten autonomer Systeme soll deren Einsatz in den Bereichen Gesundheit, Wirtschaft, Politik und Verkehrswesen insbesondere aus ethischer, philosophischer und sozialwissenschaftlicher Perspektive betrachtet werden.“ (Website ceres) Beiträge gibt es u.a. von Prof. Dr.-Ing. Alin Albu-Schäffer, Deutsches Zentrum für Luft- und Raumfahrt, Acting Head of the Institute of Robotics and Mechatronics, Prof. Dr. rer. nat. Jochen Steil, Universität Bielefeld, Managing Director Research Institute for Cognition and Robotics, und Prof. Dr. phil. Catrin Misselhorn, Universität Stuttgart, Direktorin des Instituts für Philosophie und Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie. Prof. Dr. oec. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker an der Hochschule für Wirtschaft FHNW, hält den Vortrag „Die Moral in der Maschine“. Weitere Informationen über ceres.uni-koeln.de.
„Ein Gespräch über Bettina Wulff, Self-Driving Cars und mitfühlende Staubsauger.“ So heißt es im Teaser zu einem Interview, das Watson mit Oliver Bendel geführt hat. Der Informations- und Maschinenethiker äußert seine Skepsis gegenüber der Autocomplete-Funktion von Google. Zunächst gab es um Bettina Wulff nur gewisse Gerüchte. Diese brachten viele Menschen dazu, nach ihr zu googeln, zur Vergangenheit dieser Frau. Sie benutzten bestimmte Begriffe, von denen sie gehört hatten. Aufgrund des massenhaften Verhaltens hat die Autocomplete-Funktion dann „Bettina Wulff“ und diese Begriffe angezeigt. Aber welche Wirklichkeit wird damit abgebildet? Nur die Wirklichkeit, welche die Benutzer im Kopf haben. Und die Wirklichkeit eines virtuellen Phänomens. Oliver Bendel fordert, dass die Betreiber eingreifen, dabei aber offenlegen, was sie warum gemacht haben. Er plädiert zudem für einfache moralische Maschinen, etwa für bestimmte Fahrerassistenzsysteme und Funktionen von autonomen Autos, und für LADYBIRD, einen tierfreundlichen Saugroboter. Das Interview ist am 9. Februar 2015 erschienen und über www.watson.ch aufrufbar.
Abb.: Die Autocomplete-Funktion von Google kann problematisch sein
Zur ersten europäischen Tagung zur Technologiefolgenabschätzung sind im Juli 2014 die Proceedings erschienen. Sie können über die PACITA-Website kostenlos als PDF heruntergeladen werden und haben ca. 440 Seiten. Die von der EU getragene Konferenz fand im März 2013 in Prag statt. Im Buch ist, was ethische Fragen angeht, insbesondere „Part V – Facing New and Emerging Technologies“ relevant. Von Marie-des-Neiges Ruffo (Université Paris-Sorbonne) stammt der Beitrag „Why Autonomous Unmanned Aerial Vehicles Will Lose the War“, von Oliver Bendel (Hochschule für Wirtschaft FHNW) „Towards Machine Ethics“ (Kapitel „Emerging Technologies and Ethics“). Im Kapitel „Privacy Aspects“ finden sich u.a. die Beiträge „Locating, Tracking and Tracing“ von Lorenz M. Hilty (Universität Zürich und EMPA) et al. und „Privacy Aspects of Social Networks – An Overview“ von Stefan Strauß und Michael Nentwich (beide vom Institut für Technikfolgen-Abschätzung der Österreichischen Akademie der Wissenschaften). Der Band kann auch in gedruckter Form erworben werden. Weitere Informationen über die PACITA-Website.
Der GOODBOT, der Anfang 2014 als Prototyp das Licht der Welt erblickt hat, wandert bereits durch die Medien. Die ICTkommunikation schrieb am 23. Februar im Artikel „Studierende der FHNW entwickeln virtuellen Gesprächspartner“: „Drei Studierende der Hochschule für Wirtschaft FHNW (Fachhochschule Nordwestschweiz) haben einen Prototyp für den ‚Goodbot‘ entwickelt, einen virtuellen Gesprächspartner, der moralisch angemessen reagieren soll.“ Die Netzwoche stellte am 26. Februar einen Bezug zur Urmutter aller Plappermaschinen her: Wer schon einmal mit Eliza gesprochen habe, der wisse, „dass sich eine solche Software nicht wirklich als Gesprächspartner eignet, wenn es einem schlecht geht“ (Netzwoche Online, 26. Februar 2014). „Zwar fragt Eliza zu Beginn höflich nach dem aktuellen Befinden. Doch den positiven Eindruck, den der Chatbot damit erweckt, zerstört er gleich wieder.“ Das GOODBOT-Projekt, das von Oliver Bendel geleitet wird, soll im Juni 2014 in die nächste Phase gehen.
Der Artikel „Ich bremse auch für Tiere: Überlegungen zu einfachen moralischen Maschinen“ von Oliver Bendel ist am 4. Dezember 2013 in inside-it.ch erschienen (direkt über www.inside-it.ch/post/ich-bremse-auch-fuer-tiere-20131204). Er hebt an mit den Worten: „Wie kann man gute Autos noch besser machen? Oder gute Drucker? Oder gute Sauger? Indem man ihnen Manieren und Moral beibringt. Für das eine ist der Knigge zuständig, für das andere die Philosophie – seit nunmehr 2500 Jahren.“ Es wird kurz erläutert, was Maschinenethik ist und was „Moralisieren“ im vorliegenden Kontext bedeutet – dann werden verschiedene Beispiele genannt, die teilweise auch für IT-Unternehmen relevant sind und mehrheitlich mit dem Leben oder dem Tod von Menschen und Tieren zu tun haben. Konkret werden Chatbots, Haushalts- und Gartenroboter, private Drohnen, selbstständig fahrende Autos, Windkraftanlagen und 3D-Drucker aus Sicht der Maschinenethik skizziert. Damit denkt der Autor das Konzept der einfachen moralischen Maschinen weiter, das er auf der Plattform KMU Business World entwickelt hatte. Der Beitrag endet mit dem Satz: „Jedes (teil-)autonome System steht eines Tages vor der gleichen Herausforderung. Es kann gut sein und bleiben – oder es kann besser werden, als Teil einer technischen und moralischen Evolution.“
Prof. Dr. Robert Trappl hält am 12. November 2013 im Austrian Research Institute for Artificial Intelligence (OFAI) einen Vortrag mit dem Titel „Ethik für Roboter – ein brisantes Forschungsgebiet“. In der Pressemitteilung heißt es: „Wenn Roboter Partner am Arbeitsplatz werden oder wenn sie für längere Zeit mit älteren Menschen oder Menschen mit speziellen Bedürfnissen zusammenleben werden, um ihnen ein selbstbestimmtes Leben in ihren eigenen Räumen zu ermöglichen, werden durch diese komplexen sozialen Situationen immer häufiger ethische Fragen und deren Beantwortung eine Rolle spielen.“ Im September 2013 waren auf Einladung des OFAI Wissenschaftlerinnen und Wissenschaftler „aus Frankreich, den Niederlanden, Österreich, Portugal, Ungarn und den USA in Wien zusammengekommen, um Voraussetzungen, Methoden, Implementierungen und Tests für ein Entwicklungshandbuch für ethische Systeme für Roboter zu diskutieren“ (Zitat aus der Pressemitteilung). In dem Vortrag wird eine Einführung in das Forschungsgebiet gegeben, und es werden erste Ergebnisse präsentiert. Er findet ab 18.30 Uhr am Institut (Freyung 6, Stiege 6, 1010 Wien, Österreich) statt.
Auf der Plattform KMU Business World ist am 30. August 2013 der Artikel „Einfache moralische Maschinen“ von Oliver Bendel erschienen. Eine Vorabveröffentlichung brachte der Blog des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW. Moralische Maschinen sind nach der Meinung des Philosophen und Wirtschaftsinformatikers bereits heute möglich. Man dürfe sie nur nicht zu kompliziert denken und zu komplex gestalten. Wenn es sich um spezialisierte autonome oder teilautonome Systeme handele, könne man bei ihren Kernfunktionen ansetzen und sie mit geringfügigen Änderungen, mit wenigen zusätzlichen Komponenten in einfache moralische Maschinen verwandeln. Wie das geschehen kann, wird an vier Beispielen gezeigt, an Servicerobotern, privaten Drohnen, Chatbots und selbstständig fahrenden Autos.
Abb.: Eine einfache moralische Maschine kann man einfach umsetzen
Im Gabler Wirtschaftslexikon wird seit 3. Juli 2013 die Roboterethik definiert. Diese kann man sowohl der Maschinen- als auch der Menschenethik zuordnen. In der Roboterethik werde danach gefragt, ob ein Roboter ein Subjekt der Moral sein und wie man diese implementieren kann. Auch der Roboter als Objekt der Moral sowie sein Einfluss auf Menschen sei von Belang. Oliver Bendel erklärt in seinem Beitrag den Begriff der Roboterethik, nimmt die Perspektive der Robotik ein, erwähnt die Robotergesetze von Asimov und gibt eine Einschätzung der Disziplin und einen Ausblick auf ihre weitere Entwicklung. Der Beitrag ist direkt über wirtschaftslexikon.gabler.de/Definition/roboterethik.html abrufbar. Er wurde dem Sachgebiet „Grundlagen der Wirtschaftsinformatik“ zugewiesen. Für das Gabler Wirtschaftslexikon schreiben nach eigenen Angaben über „150 Experten aus Wissenschaft und Praxis“. Mehr als „25.000 Stichwörter stehen kostenlos“ bereit.
Ein Artikel in der UnternehmerZeitung vom 2. Juli 2013 geht auf das GOODBOT-Projekt ein, das im Juni 2013 an der Hochschule für Wirtschaft FHNW gestartet ist. Der „moralische Chatbot“ soll auch auf Selbstmorddrohungen oder Ankündigungen von Amokläufen adäquat reagieren und überhaupt ein angenehmer Zeitgenosse (und trotzdem kein Langweiler) sein. Es werden sieben Regeln genannt, die „hinsichtlich seiner Akte und Sprechakte gegenüber dem Benutzer“ gelten sollen. Dazu gehört auch eine Transparenzregel: „Der GOODBOT macht dem Benutzer klar, dass er eine Maschine ist.“ (Regel 1) Und eine Regel zur Beobachtung: „Der GOODBOT ist kein Spitzel und wertet Gespräche mit dem Benutzer nicht aus.“ (Regel 6) Für das Projekt wurden verschiedene konzeptionelle Vorleistungen wie der Regelkatalog erbracht. Von Juni 2013 bis Januar 2014 arbeiten sich drei Studierende der Hochschule in die Maschinenethik und die Roboterethik ein und entwickeln einen Prototyp. Initiator und Leiter des Projekts ist der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Der Artikel ist in der siebten Ausgabe der UnternehmerZeitung auf den Seiten 30 und 31 zu finden.