Über die Schönheit weiblicher Roboter

Die Hersteller humanoider Roboter ahmen gerne Frauen nach. Es gibt mehrere Gründe dafür, und manche hat auch Hiroshi Ishiguro genannt, der in Wien bei der Konferenz “Robophilosophy” neben Joanna Bryson und Oliver Bendel eine Keynote gegeben hat. Frauen wirken, so eine Annahme, vertrauenswürdiger und anziehender auf uns als Männer. Gerade Kinder erschrecken nicht vor ihnen, selbst wenn es gar keine Menschen sind. Eine andere Annahme ist, dass Frauen und ihre künstlichen Ebenbilder vieles gemeinsam haben, weil Frauen selbst künstliche Elemente in sich und auf sich tragen. Die meisten Frauen schminken sich, überdecken Unreinheiten und Farbveränderungen, entfernen Haare, manche korrigieren scheinbare Mängel und Fehler mit Hilfe von Einspritzungen und Schönheitsoperationen. Tatsächlich sehen manche Frauen, die viel an sich gemacht haben und haben machen lassen, ein wenig aus wie Roboter, und genau das ist günstig für die Hersteller. Das Resultat sind Maschinen wie Sophia und Erica (die von Ishiguro geschaffen wurde). Sie sind künstliche Geschöpfe, gestaltet nach der künstlichen Schönheit der Frau. Dass es auch anders geht, zeigt ein männlicher humanoider Roboter, der Werbung für Westworld macht. Mit viel Akribie hat man ihm Haare verpasst, auf den Armen, im Gesicht, kleine Warzen und Male. Gerade dadurch sieht er besonders real (und besonders interessant) aus. Es wäre an der Zeit, einen weiblichen Roboter zu schaffen, der sich an der natürlichen Schönheit der Frau orientiert. Nicht, um das eine oder das andere Verhalten zu kritisieren, sondern um Stereotype aufzubrechen. Künstlerisch und technisch möglich ist das allemal. Ishiguros Geminoid ist übrigens ein eigener Fall. Er orientiert sich an der künstlichen Schönheit des Mannes.

Abb.: Roboter können Stereotype festigen und aufbrechen

Diskussion um die elektronische Person

Haben Roboter Rechte bzw. soll man sie mit Rechten ausstatten? Die eine Frage ist ethisch, die andere rechtlich deutbar. Oliver Bendel hält als Ethiker nichts von Rechten für Roboter. Dies können weder empfinden noch leiden, sie haben kein Bewusstsein, sie sind keine echten Personen, aber auch keine echten Lebewesen. Im Zivilrecht kann man, so seine Meinung, ohne weiteres eine elektronische Person konstruieren, die man verklagen kann und die dann haften muss (etwa über ein Budget, das sie hat, oder einen Fonds, mit dem sie verbunden ist). Einerseits ist das die Lösung für das Problem, dass sich in vielen Fällen kaum mehr eindeutig verantwortliche natürliche oder juristische Personen ausmachen lassen. Andererseits eben nicht, denn woher sollte das Geld kommen – wenn nicht von natürlichen und juristischen Personen, die mit dem Roboter in irgendeiner Verbindung stehen? Und bei selbstlernenden Systemen wie Tay wird es vollends kompliziert, wobei dieser Fall ins Strafrechtliche hineinreicht. Eine Gruppe von KI-Forschern, Philosophen, Theologen und Rechtswissenschaftlern hat sich in einem offenen Brief gegen die Schaffung des Status einer elektronischen Person gewandt, wie eine Arbeitsgruppe des Europäischen Parlaments sie dieses Jahr vorgeschlagen hat. Der Artikel “Streit um Rechte von Robotern” stellt die unterschiedlichen Positionen dar. Er ist am 21. April 2018 in der Aargauer Zeitung erschienen und kann über www.aargauerzeitung.ch/leben/forschung-technik/streit-um-rechte-von-robotern-wer-haftet-wenn-etwas-schief-geht-132457958 aufgerufen werden.

Abb.: Braucht es eine elektronische Person?

Black Ducks

Eine kleine schwarze Ente ist seit vielen Jahren das Favicon der Website von Oliver Bendel. Die NZZ schreibt in einem Beitrag vom 20. April 2018: “Als schwarze Enten werden im Arabischen schwarze Schafe, also ausgegrenzte Gruppenmitglieder bezeichnet.” (NZZ, 20. April 2018) In “Jenseits von Himmel und Hölle” von Daniel Steinvorth geht es um eine Sendung auf YouTube, die von den Betreibern wie folgt beschrieben wird: “Black Ducks is a talk show on YouTube that interviews atheists, humanists, and non-religious individuals from the Arab world … to achieve a secular society in the Middle East and North Africa. Another goal is to offer solace and courage to those who are atheists and humanists in secret so they may know they are not alone in the world.” (YouTube-Channel The Black Ducks) Die Betreiber und Mitwirkenden, die sich Vernunft und Aufklärung verschrieben haben, setzen sich Lebensgefahr aus. Der Gründer der Sendung, Ismail Mohamed, wurde in Alexandria fast erschossen und in Kairo vom Mob bedrängt und mit dem Messer bedroht. Im Teaser des NZZ-Beitrags heißt es: “Wer in der arabischen Welt nicht an Gott glaubt, gilt wahlweise als Extremist oder als psychisch gestört. Auch in Ägypten steht Atheismus womöglich bald unter Strafe.” Am Rande sind Begriffe und Methoden von Wirtschafts- und Informationsethik gefragt: “2015 bewirkte eine Beschwerde gegenüber Google …, dass die Sendung zweimal für mehrere Monate eingestellt werden musste. Mohamed verlor auf einen Schlag seine Follower und seine Werbeeinnahmen …” (NZZ, 20. April 2018)

Abb.: Eine kleine gelbe Ente in Sevilla

Pro und Contra zur Robotersteuer

“Wenn immer mehr Roboter statt Menschen arbeiten, wer zahlt dann eigentlich noch Steuern? Die Roboter! Das hat zumindest Bill Gates vorgeschlagen und damit eine interessante Diskussion um die Zukunft der Arbeit angeregt. Neue Technologien verändern unsere Arbeitswelt nachhaltig: Psychologen beraten uns über Skype, Architekten entwickeln Baupläne für Berlin-Mitte in einem Coworking-Space in Thailand und nette Roboterdamen beantworten unsere Fragen am Flughafen. Und das ist nur der Anfang.” (Netzpiloten, 18. April 2018) Mit diesen Worten beginnt ein Artikel von Marinela Potor im Magazin der Netzpiloten vom 18. April 2018. Das Thema ist die Robotersteuer, die von Bill Gates, wie gesagt, befürwortet und von Oliver Bendel, der im Beitrag zu Wort kommt, kritisch gesehen wird. Er ist dafür, alle Konzepte zu diskutieren, die dazu beitragen können, den Lebensunterhalt der Menschen zu sichern. Aber die Robotersteuer, so seine Meinung, könnte technische, wirtschaftliche und gesellschaftliche Entwicklungen behindern und sei praktisch nur schwer umzusetzen, was nicht zuletzt an der Unterschiedlichkeit und der Vernetztheit der Systeme liege. Der Artikel mit dem Titel “Sollten Roboter Steuern zahlen?” kann über www.netzpiloten.de/robotersteuer-arbeitsplaetze-steuereinnahmen/ aufgerufen werden.

Abb.: Nao will keine Steuern zahlen

Der Niedergang der Sexualwissenschaft

Die Deutsche Presse-Agentur (dpa) war vor einiger Zeit im Gespräch mit Oliver Bendel, für den Beitrag “Sexroboter – Hype oder Trend?”. Am Rande erwähnte der Informations- und Maschinenethiker aus Zürich, dass die Sexualwissenschaft in Deutschland kaum noch eine Bedeutung habe. Nach seiner Einschätzung tut man sich an den Hochschulen schwer mit dem Thema. Die dpa ging dem Hinweis nach und verfasste einen Beitrag, der in der ÄrzteZeitung veröffentlicht wurde. Im Teaser heißt es: “Deutschland hat nur zwei große sexualwissenschaftliche Zentren. Der Westen sei geradezu prüde bei dem Thema, bemängeln Forscher – dabei würden sexuelle Krankheiten medizinisch oft auf andere Probleme hindeuten.” (ÄrzteZeitung, 12. Februar 2018) “Die aktuelle Situation in Deutschland ist ein Armutszeugnis”, wird Heinz-Jürgen Voß von der Gesellschaft für Sexualwissenschaft zitiert. “Überall dort, wo Menschen mit Menschen zu tun haben, in Kitas, Schulen, Einrichtungen der Sozialen Arbeit sowie Bildungseinrichtungen für Erwachsene, spielten Fragen zu Körper, Geschlecht und Sexualität eine Rolle.” Das bedeutet, so Voß, “dass Fachkräfte ausgebildet sein sollten, professionell mit den entsprechenden Fragen umzugehen” (ÄrzteZeitung, 12. Februar 2018). Der Artikel “Sex auf dem Abstellgleis” ist über www.aerztezeitung.de/panorama/article/957332/50-jahre-nach-1968-sex-abstellgleis.html abrufbar.

Abb.: Der Niedergang der Sexualwissenschaft

Die Rechte von Sophia

Haben Roboter Rechte? Dieser Frage geht Oliver Bendel in der Zeitschrift Edison nach, in der Ausgabe 2/2018. Die zuständige Disziplin ist die Roboterethik (bzw. die Roboterphilosophie). Während sich die Maschinenethik auf die maschinelle Moral und damit allenfalls verbundene Pflichten oder Verpflichtungen konzentriert, interessiert sich die Roboterethik auch für moralische Rechte von Maschinen, insbesondere von Robotern. Schon vor Jahrzehnten hat man über diese Frage nachgedacht, doch in letzter Zeit gibt es diesbezügliche Überlegungen und Forderungen, denen man als Ethiker etwas entgegensetzen muss. Denn Oliver Bendel ist der Meinung, dass Roboter keine Rechte haben, haben werden und haben sollen. In seinen Ausführungen zieht er Vergleiche mit Menschen, Tieren und Pflanzen (Tiere haben Rechte, Pflanzen nicht). Er erwähnt in “Haben Roboter Rechte?” auch Sophia, den humanoiden Roboter, dem in Saudi-Arabien die Staatsbürgerschaft verliehen wurde. Ihr wird in Edison auch ein eigener Beitrag gewidmet. Das Magazin kann über edison-magazin.handelsblatt.com/epaper/13.04.2018 bestellt werden.

Abb.: Haben Roboter Rechte?

Warhol in der Wüste

Im Palm Springs Art Museum findet derzeit die Ausstellung “Andy Warhol: Prints from the Collections of Jordan D. Schnitzer and His Family Foundation” statt. Auf der Website des Museums ist zu lesen: “This retrospective encompasses over 250 works on loan from Schnitzer’s comprehensive collection, and establishes Warhol’s graphic production as it evolved over four decades.” In seiner Autobiografie “POPism” erinnert sich Andy Warhol, so die ZEIT am 6. August 2008, an die 60er-Jahre. “Er hat das Buch 1980 seiner Assistentin Pat Hackett diktiert, daher rührt der plaudernde Tonfall dieser Memoiren. ‘Ich möchte eine Maschine sein’, lautete Warhols Credo, mit dem er Jackson Pollocks berühmten Satz ‘Ich möchte Natur sein’ zurückwies. Es galt, die Kunst von der Abstraktion und ‘dem Innerlichkeitskram’ zu befreien.” (ZEIT, 6. August 2008) Das ist ihm, wie die Ausstellung in der Wüstenstadt zeigt, hervorragend gelungen. Er führt Kunst, Kitsch, Kommerz und Kommunikation zusammen und bietet damit auch Material für Informations- und Medienethik. Die Ausstellung läuft noch bis zum 28. Mai 2018. Weitere Informationen über www.psmuseum.org.

Abb.: Bei Palm Springs

Netzkommunikation in Krisensituationen

Die Friedrich-Ebert-Stiftung lädt in der Reihe denkraum_medien wieder zu einer Diskussionsrunde ein, dieses Mal unter dem Titel “Ausfall im Störfall? Netzkommunikation in Krisensituationen”. Den Impulsvortrag hält die Autorin und IT-Compliance-Managerin Dr. Aleksandra Sowa. Aus der Medienmitteilung: “Das Internet ist global zum primären und alternativlosen Kommunikationsnetz geworden. Aber das Medium erweist sich als störanfällig und öffnet Tür und Tor für verschiedene Formen des Missbrauchs. Ob eine an alle Bewohner Hawaiis abgeschickte SMS, die vor einem Raketenangriff warnt, oder eine automatische Ansage in der Berliner U-Bahn, die dazu auffordert, geschlossene Räume nicht zu verlassen: Für die Menschen ist kaum zu unterscheiden, ob eine echte Gefahr droht oder ob es sich um einen Fehlalarm oder eine Notfallübung handelt. Sind Hacker in die Frühwarnsysteme eingedrungen und testen ihr Können? Sind ausländische Cyberkrieger im Netz unterwegs, um für Massenpanik zu sorgen? Was kann, muss oder darf der Staat tun, um seine Bürger angesichts einer – wahren oder fiktiven – Krise verlässlich zu informieren, aufzuklären und zu schützen? Wieweit steht die Privatwirtschaft, in deren Händen sich fast vollständig die kritischen Infrastrukturen befinden, in der Verantwortung?” Weitere Informationen über www.fes.de.

Abb.: Auch auf Kauai herrschte Entsetzen

Videos zur Handelsblatt-Jahrestagung

Am Rande der Handelsblatt-Jahrestagung “Strategisches IT-Management” (15. bis 17. Januar 2018 in München) wurden Interviews mit den Vortragenden geführt und aufgezeichnet. Am zweiten Tag hatte zuerst Prof. Dr.-Ing. habil. Alois C. Knoll (Lehrstuhlinhaber für Echtzeitsysteme und Robotik, Technische Universität München) zum Human-Brain-Projekt der EU referiert, danach Dr. Martin Hofmann, Group CIO, Volkswagen AG über “Augmented Intelligence: AI in enterprise context”. Prof. Dr. oec. HSG Oliver Bendel (Professor für Wirtschaftsinformatik, Informationsethik und Maschinenethik, Hochschule für Wirtschaft FHNW) war auf “Die Ethik als Partnerin von Robotik und KI” eingegangen. Im Video erläutert er, was Maschinenethik ist. Auf dem Panel hatten er, Prof. Dr.-Ing. habil. Alois C. Knoll, Prof. Dr. Dr. Eric Hilgendorf (Leiter der Forschungsstelle RobotRecht, Julius-Maximilians-Universität Würzburg) und Dr. Ole Wintermann (Senior-Projektleiter, Co-Founder, Blogger, Bertelsmann Stiftung) zum Thema “Sind intelligente Maschinen und Roboter die besseren Menschen?” diskutiert. Auch dazu steht ein Video zur Verfügung. Alle Videos finden sich über veranstaltungen.handelsblatt.com/it-jahrestagung/videos-2018/.

Abb.: Oliver Bendel bei seinem Vortrag (Foto: Handelsblatt)

Cloud Computing aus Sicht der Ethik

Im Frühjahr 2018 erscheint “Cloud Computing: Die Infrastruktur der Digitalisierung” bei Springer Vieweg, herausgegeben von Stefan Reinheimer. Das Buch thematisiert Chancen und Risiken des Cloud Computing, “bringt Lesern das Thema durch anschauliche Beispiele aus Forschung und Praxis näher und zeigt die Implikationen auf, die aus dieser neuen Infrastruktur resultieren”. “Die Beitragsautoren präsentieren technische Lösungen, Geschäftsmodelle und Visionen, die einerseits die Herausforderungen und Hürden des Cloud Computing aufgreifen – technisch, rechtlich, prozessbezogen – und andererseits die Chancen und Nutzen dieses Architekturansatzes in den Mittelpunkt stellen.” (Website Springer) Der Beitrag von Oliver Bendel behandelt “Cloud Computing aus Sicht der Ethik”. “Zahlreiche Unternehmen transferieren Daten ihrer Kunden in die Cloud, oder diese werden selbst aktiv, nutzen spezielle Dienste und soziale Medien. Es stellen sich viele Fragen: Wird der Benutzer genügend informiert? Sind ihm alle Konsequenzen des Vorgangs klar? Was ist, wenn Inhalte als verdächtig angesehen und Informationen an Behörden weitergereicht werden? Wie können lebenswichtige und personenbezogene Daten geschützt werden? Der Beitrag stellt Probleme rund um Cloud Computing für Privatkunden aus Sicht des Verbraucherschutzes und der Informationsethik systematisch dar, mit Fokus auf Bild und Text. Aus der Unternehmensethik heraus werden Vorschläge für Anbieter unterbreitet.” (Abstract) Weitere Informationen und Bestellung über www.springer.com/de/book/9783658209667.

Abb.: Das Cover des Herausgeberbands (Foto: Springer)

KI ist hier, um zu bleiben

In der Automation & Robotics vom März 2018, einer Beilage im Manager Magazin, findet sich ein Beitrag von Jan Philipp Albrecht (innen- und justizpolitischer Sprecher der Grünen-Fraktion im Europäischen Parlament). Er schreibt: “Wir stehen an der Schwelle zu einer Ära, in der immer höher entwickelte Technologien eine neue industrielle Revolution entfesseln können. Künstliche Intelligenz ist allgegenwärtig, und sie ist hier, um zu bleiben.” Unter dem Stichwort “Simplexity” führt Prof. Dr. Andreas Dengel (DFKI) aus: “KI definiert die neue Arbeitsteilung von Mensch und Maschine”. Im Interview erklärt Oliver Bendel, was Maschinenethik ist und wie sie mit KI und Robotik zusammenhängt. Er ist gegen eine vorschnelle Regulierung in der Entwicklung. Wenn Regulierung stattfinden soll, dann in den Anwendungsgebieten. An anderer Stelle hatte der Informations- und Maschinenethiker eine Roboterquote für öffentliche Räume gefordert, zum einen wegen der Kollisionsgefahr (bei Transport- und Sicherheitsrobotern), zum anderen wegen der Gefahr der Überwachung (bei Servicerobotern aller Art). Das Interview kann hier heruntergeladen werden.

Abb.: KI ist hier, um zu bleiben

Cult of the Machine

An extraordinary exhibition is currently taking place at the de Young Museum in San Francisco. The title “Cult of the Machine” indicates what it is all about: “Characterized by highly structured, geometric compositions with smooth surfaces, linear qualities, and lucid forms, Precisionism – a style that emerged in America in the teens and flourished during the 1920s and 1930s – reconciled realism with abstraction, and wed European art movements, such as Purism, Cubism, and Futurism, to American subject matter to create a streamlined, ‘machined’ aesthetic with themes ranging from the urban and industrial to the pastoral. The tensions and ambivalences about industrialization expressed in works by the Precisionists are particularly fascinating and relevant to a contemporary audience in the midst of a Fourth Industrial Revolution, in which robots are replacing human labor for various functions, underscoring many of the same excitements and concerns about modernization that existed nearly one hundred years ago.” (Website de Young Museum) The exhibition will run from 24 March to 12 August 2018. Further information is available via deyoung.famsf.org/exhibitions/cult-machine.

Fig.: The exhibition sign

AI and Society IV

Nach dem Mittagessen spannte Oliver Bendel beim Symposium “AI and Society” den Bogen “From GOODBOT to BESTBOT”. Sein BESTBOT-Projekt, das GOODBOT und LIEBOT zusammenführt, startete eine Woche vorher an der School of Business FHNW (der mit der Implementierung beauftragte Student ist David Studer). Der BESTBOT, ein Artefakt der Maschinenethik, soll Probleme des Benutzers auch über Gesichtserkennung identifizieren, was wiederum Probleme für den Benutzer schafft, die ebenfalls diskutiert werden sollen, und zwar aus Sicht der Informationsethik. “Toward Beneficial Human-Level AI … and Beyond” thematisierte maschinelles Bewusstsein und “superintelligence” und das TalaMind-Projekt. Philip Jackson betonte, dieses “will help to achieve beneficial human-level AI and superintelligence” schneller und besser als andere Methoden. Andrew Williams sprach über “The Potential Social Impact of the Artificial Intelligence Divide”. Er fragte nach den Vorurteilen und Verzerrungen, die über KI verstärkt werden. Bei der abschließenden Diskussionsrunde war ein Thema der Zusammenhang zwischen natürlicher Sprache und menschlicher und maschineller Moral, ein anderes die Entwicklung des Arbeitsmarkts angesichts der Übernahme von Arbeit durch KI-Systeme und Roboter.

Abb.: Palmen an der Stanford University

AI and Society III

Das “AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” an der Stanford University ging am 27. März 2018 um 9.15 Uhr in die zweite Runde (oder in die dritte, wenn man die Halbtage zählt). Den Invited Talk hielt Emma Brunskill, Stanford University, zum Thema “Beyond Expected Reward: Considerations for Reinforcement Learning in High Stakes Domains”. Sie stellte die Frage, wie ein Agent aus Erfahrung lernen kann, gute Entscheidungen zu treffen, wenn die Erfahrung kostspielig oder risikobehaftet ist. Die Session “Applications and Interactive Agents” startete mit “Interactive Agent that Understands the User”. Piotr Gmytrasiewicz präsentierte ein assistierendes KI-System namens MARTHA. Emanuelle Burton stieß in “The Heart of the Matter” vor und fragte nach der “Patient Autonomy as a Model for the Wellbeing of Technology Users” (so der Untertitel). Sie stellte eine Case Study mit dem Titel “Joe the heart patient” vor. In “The Uncanny Return of Physiognomy” kritisierte Oliver Bendel neuere Verfahren der Gesichtserkennung, mit denen z.B. sexuelle Orientierungen und kriminelle Tendenzen festgestellt werden sollen, und ordnete sie Physiognomik, der Pseudowissenschaft von Lavater und Co. sowie Biometrik in ihrer unseriösen Form (in der Tradition von Peter Camper) zu.

Abb.: Auch am zweiten Tag war bestes Wetter in Stanford

AI and Society II

Nach dem Lunch ging es beim Symposium “AI and Society” am 26. März 2017 um 14.00 Uhr weiter mit der Session “Ethics and Moral Agents”. Umang Bhatt trug vor zum Thema “Maintaining The Humanity of Our Models”. Er ging auf eine Krankheitsdiagnose durch ein KI-System und später auf Obdachlose in L.A. ein und setzte dies in Beziehung zur Bias-Problematik. In “Ethics as Aesthetic for Artificial General Intelligence” stellte Dan Ventura die Frage: “How can we ensure an AI agent behaves ethically?” Er schlug den Schönheitssinn als Bestandteil der Metaethik vor. Rafal Rzepka betonte in “Importance of Contextual Knowledge in Artificial Moral Agents Development”, dass Fühlen, Beobachten und Zählen wichtig für moralisches Verhalten seien, wobei das Fühlen nicht die Domäne von Computern sei. Er setzt auf Geschichten als Grundlage für die Entscheidungen der Systeme. Abschließend fand die Discussion Session statt, moderiert von Venerable Tenzin Priyadashi und Judy Wajcman.

Abb.: Unter den Blüten an der Stanford University

AI and Society I

Das Symposium “AAAI 2018 Spring Symposium on AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents” an der Stanford University begann am 26. März 2018 um 9 Uhr. Den Invited Talk hielt Vince Conitzer, Duke University, über “Moral Artificial Intelligence, Kidney Exchanges, and Societal Tradeoffs”. Er diskutierte ausführlich das Parking Game. Sodann stellte er die Moral Machine des MIT vor und ging auf einen “kidney exchange algorithm” und “underdemanded pairs” ein. Von 11.00 bis 12.30 Uhr fand die Session “Moral Decision Making” statt. In “Towards Provably Moral AI Agents in Bottom-up Learning Frameworks” forderten Nolan P. Shaw und Ryan W. Orr “robustness”, “simplicity”, “consistence” und “universality” von ihren moralischen Maschinen; diese sollen über neuronale Netzwerke von moralischen Agenten aller Art lernen. In “A Military AI System with Ethical Rules” brachte Yetian Wang Knowledge Representation und Machine Learning zusammen. Der letzte Vortrag vor dem Mittagessen – das man in den Cafés der Umgebung bei Bilderbuchwetter einnahm – war “Preferences and Ethical Principles in Decision Making”. Das Thema von Kristen Brent Venable waren CP-Nets.

Abb.: Das Wahrzeichen der Stanford University

Im smarten Shuttle unterwegs

“Der automatisierte Verkehr fasziniert und irritiert. Die Meinungen gehen auseinander, auf den Plätzen, auf den Podien, in den Medien. Ich bin überzeugt, dass das autonome Auto nichts in den Innenstädten verloren hat. Zu viele Dinge, Lebewesen und Ereignisse, die es zu beurteilen hat, zu viele Situationen, in denen Kommunikation gefragt ist, ein Handzeichen, ein Blickkontakt. Der hoch- und vollautomatische bzw. autonome PKW gehört auf die Autobahn. Dort trägt er dazu bei, die Zahl der Unfälle zu reduzieren. Und gerät kaum in Situationen, in denen er moralische Urteile fällen und z.B. zwischen menschlichen Opfern entscheiden müsste.” (ICTkommunikation, 22. März 2018) In den Städten sollten nach der Meinung von Oliver Bendel keine autonomen Autos fahren, aber autonome Busse und Shuttles, mit geringer Geschwindigkeit, auf virtuellen Schienen bzw. auf speziellen Spuren. Der Gastbeitrag “Im smarten Shuttle unterwegs” des Informations- und Maschinenethikers für die ICTkommunikation ist am 22. März 2018 erschienen und kann über ictk.ch/content/im-smarten-shuttle-unterwegs aufgerufen werden.

Abb.: Das SmartShuttle der PostAuto AG

Ein Ungeheuer namens Facebook

“Immer wieder hat Facebook Daten illegal genutzt und herausgegeben. Benutzer und Datenschützer haben das Unternehmen immer wieder erfolgreich zurückgedrängt. Aber es ist wie das Ungeheuer, dem man zwei Köpfe abschlägt und dem gleich vier neue Köpfe wachsen. Niemand scheint Anstoß daran zu nehmen, ein Akteur in einem offenbar illegalen Netzwerk zu sein. Bei Privatpersonen ist das befremdlich genug; aber dass tausende achtbare Unternehmen und Hochschulen auf der Plattform aktiv und auch noch stolz darauf sind, ist erstaunlich. Ein Teil der organisierten Kriminalität zu sein, ist nicht mehr nur in Italien oder in Russland selbstverständlich. Es ist auf der ganzen Welt verbreitet und chic. … Die Meldungen, dass Privatpersonen und Staatsdiener gegen die Unternehmen klagen, nehmen zu. Es sind Jurastudenten darunter, die sich profilieren wollen, und Benutzer, die ernsthaft um ihre Daten besorgt sind. Und Datenschützer verschiedener Länder. Vielleicht resultiert ja eine Massenbewegung daraus, und man kann eines Tages Facebook einen Daumen zeigen, der nach unten weist.” (Oliver Bendel, “Die Rache der Nerds”, 2012)

Abb.: Ein Ungeheuer namens Facebook

Autonome Fahrräder

Im März 2017 erfuhr die connectUS-Delegation der Hochschule für Wirtschaft FHNW am MIT von dem autonomen Dreirad, das dort entwickelt wurde. Sie wurde durch die heiligen Hallen der berühmten Hochschule geführt und durfte einen Blick auf die aktuellen Prototypen werfen. Auf der Website heißt es: “The PEV is a low-cost, agile, shared-use autonomous bike that aims to solve the ‘last-mile’ urban mobility challenge of today, and to become a healthy, sustainable alternative to cars for cities of tomorrow. The PEV can be either an electrically-assisted tricycle for passenger commute or an autonomous carrier for delivering packages.” Auch die Universität Marburg setzt auf das autonome Dreirad, wie MDR am 20. März 2018 meldete: “Selbstfahrende Autos sind schon länger im Gespräch, selbstfahrende Fahrräder aber haben die wenigsten bisher gesehen. Die Uni Magdeburg erforscht, wie Fahrräder autonom durch die Stadt fahren können, um Nutzern flexibel zur Verfügung zu stehen. Für Einkäufe oder andere Transporte könnte man sie dann mieten.” (Website MDR, 20. März 2018) Oliver Bendel, der Mitglied der Delegation war, ist skeptisch gegenüber autonomen Dreirädern, da diese die Komplexität in Städten erhöhen und Kollisionen nicht zu vermeiden sein werden, ähnlich wie bei Servicerobotern.

Abb.: Am MIT

Was ist und will Roboterphilosophie?

Roboterphilosophie ist ein Teilgebiet der Philosophie, das sich mit Robotern sowie mit Erweiterungsoptionen wie künstlicher Intelligenz befasst. Dabei geht es vor allem (aber nicht nur) um mehr oder weniger autonome Serviceroboter, Pflege-, Transport- und Kampfroboter eingeschlossen. Beteiligt sind Disziplinen wie Erkenntnistheorie, Ontologie, Ästhetik und Ethik, darunter Roboterethik und Maschinenethik; die Technikphilosophie kann einerseits als übergeordnete Instanz verstanden werden, andererseits auch als gleichgestellte, insofern sie Roboter meist lediglich als technische Hilfsmittel und weniger als künstliche Mitgeschöpfe und Zeitgenossen begreift und die Roboterphilosophie mit ihrer spezifischen Perspektive neben sich braucht. In seinem Beitrag für das Wirtschaftslexikon von Springer Gabler erklärt Oliver Bendel, was Roboterphilosophie ist und will. Der Beitrag ist am 21. März 2018 erschienen und kann über wirtschaftslexikon.gabler.de/definition/roboterphilosophie-54555 aufgerufen werden.

Abb.: Was ist und will Roboterphilosophie?