Kategorie: Projekte

Was tun gegen Plastik im Wasser?

Das Projekt mit dem Titel “Wie kann der Kampf gegen Plastikvermüllung und -verschmutzung von Gewässern gewonnen werden?” beginnt Ende September 2018 an der FHNW. Die Gewässer auf der ganzen Welt sind hochgradig mit Kunststoff belastet. Fische, Wasservögel und andere Lebewesen nehmen die Partikel auf und scheiden sie verändert aus. Auch der Mensch hat immer öfter Petflaschen auf seinem Speiseplan, durchaus unfreiwillig und mit nicht absehbaren gesundheitlichen Folgen. Es gibt unterschiedliche Strategien, Konzepte und Technologien gegen die Plastikverschmutzung und -vermüllung von Gewässern. In dem genannten Projekt, betreut von Oliver Bendel von der Hochschule für Wirtschaft, soll erfasst werden, welche Verfahren in der Schweiz und auf der ganzen Welt üblich und möglich sind, um Gewässer von Kunststoff und anderen Schadstoffen zu befreien, von künstlichen Inseln, Schiffen mit Netzen bis hin zu Robotern. Bereits 2015 wurde das CLEANINGFISH-Projekt durchgeführt. Schwärme von Robotern könnten, so die Idee, rund um die Uhr Flüsse und Seen durchstreifen, die Plastikteilchen schlucken und an Stationen deponieren. Sie könnten auch Gegenstände am Grund des Bodens, wohin man mit üblichen Verfahren meist nicht vorzudringen vermag, einsammeln und abschleppen. Die Studie hatte festgehalten, dass der CLEANINGFISH einige Probleme lösen, andere aber schaffen könnte.

Abb.: Der Strand von Elephanta in Indien

Animals and Machines

Semi-autonomous machines, autonomous machines and robots inhabit closed, semi-closed and open environments. There they encounter domestic animals, farm animals, working animals and/or wild animals. These animals could be disturbed, displaced, injured or killed. Within the context of machine ethics, the School of Business FHNW developed several design studies and prototypes for animal-friendly machines, which can be understood as moral machines in the spirit of this discipline. They were each linked with an annotated decision tree containing the ethical assumptions or justifications for interactions with animals. Annotated decision trees are seen as an important basis in developing moral machines. They are not without problems and contradictions, but they do guarantee well-founded, secure actions that are repeated at a certain level. The article “Towards animal-friendly machines” by Oliver Bendel, published in August 2018 in Paladyn, Journal of Behavioral Robotics, documents completed and current projects, compares their relative risks and benefits, and makes proposals for future developments in machine ethics.

Fig.: In Australia

Buch zu Pflegerobotern

Das Buch “Pflegeroboter”, herausgegeben von Oliver Bendel, bündelt technische, wirtschaftliche, medizinische und ethische Reflexionen über Pflegeroboter. “Pflegeroboter, im Moment noch mehrheitlich Prototypen, unterstützen oder ersetzen menschliche Pflegekräfte bzw. Betreuer. Sie bringen Kranken und Alten die benötigten Medikamente und Nahrungsmittel, helfen beim Hinlegen und Aufrichten oder alarmieren den Notdienst. Vorteile von Pflegerobotern sind durchgehende Verwendbarkeit und gleichbleibende Qualität der Dienstleistung. Nachteile sind Kostenintensität (bei möglicher Amortisation) und Komplexität der Anforderungen. Unter der wissenschaftlichen Leitung von Prof. Dr. Oliver Bendel trafen sich im September 2017 Vertreter verschiedener wissenschaftlicher Disziplinen im Rahmen eines Ladenburger Diskurses der Daimler und Benz Stiftung, um über den aktuellen und künftigen Einsatz von Pflegerobotern zu sprechen und Forschungspotenziale zu identifizieren. Die Autoren gehen in ihren Beiträgen auch Fragen aus Wirtschafts-, Medizin- und Informationsethik nach: Wer trägt die Verantwortung bei einer fehlerhaften Betreuung und Versorgung durch die Maschine? Inwieweit kann diese die persönliche und informationelle Autonomie des Patienten unterstützen oder gefährden? Ist der Roboter eine Entlastung oder ein Konkurrent für Pflegekräfte? Antworten müssen von Wissenschaft und Gesellschaft gefunden werden.” (Information Springer) Das Buch kommt im November 2018 in gedruckter Form und als Open-Access-Ausgabe heraus. Weitere Informationen über www.springer.com/de/book/9783658226978. Zur Verfügung steht auch ein Flyer.

Abb.: Das Cover des neuen Buchs

Successful Completion of the BESTBOT Project

The BESTBOT was developed at the School of Business FHNW from March to August 2018. Predecessor projects were GOODBOT (2013) and LIEBOT (2016). Prof. Dr. Oliver Bendel has been doing research in the young discipline of machine ethics for several years. In cooperation with robotics and artificial intelligence (AI), it designs and produces moral machines. At the beginning of 2018 Bendel presented his paper “From GOODBOT to BESTBOT” at Stanford University, which laid the foundation for the BESTBOT project. David Studer programmed the chatbot in Java. Prof. Dr. Bradley Richards assisted him in technical matters. Like LIEBOT, BESTBOT is a networked system that exploits search engines and dictionaries. It analyzes the user’s text input with text-based emotion recognition software. At the same time, face recognition is used, again with emotion recognition. For example, if the user states that he is doing well but reveals something else on his face, the chatbot addresses this contradiction. It recognizes both small and big worries. Like the GOODBOT, the BESTBOT can escalate over several levels and provide a suitable emergency number. Like its predecessor, it makes it clear that it is only a machine. It is also special that it cites the source of factual allegations. The BESTBOT will be presented at conferences in 2019.

Fig.: The chatbot uses face recognition

Gatebox geht in Serie

Die Gatebox wurde vor einiger Zeit in Japan an einige Personen und Einrichtungen abgegeben. Wie das Unternehmen Ende Juli 2018 mitteilte, geht man nun in die Serienproduktion. Tatsächlich lässt sich auf der Website das Gerät bestellen, das einer Kaffeemaschine ähnelt. In der gläsernen “Kaffeekanne” wohnt das Animemädchen Azuma Hikari. Sie ist ein Hologramm, verbunden mit einem Dialogsystem und einem KI-System. Sie kommuniziert mit ihrem Besitzer, selbst wenn dieser unterwegs ist (indem sie Nachrichten auf sein Smartphone schickt), und lernt dazu. SRF hat einen jungen Mann besucht, der mit der Gatebox zusammenlebt. “Ich liebe meine Frau”, wird Akihiko Kondo zitiert. Der Sender schreibt: “Umarmen oder küssen kann er sie nicht. Der Japaner ist mit einem Hologramm zusammen.” (SRF) Wer denkt, dass die Liebe zu Manga- und Animemädchen ein rein japanisches Phänomen ist, sieht sich getäuscht. Im Dortmunder BorDoll (aus “Bordell” und “Doll” oder “Love Doll”) sind die entsprechenden Liebespuppen heiß begehrt. Auch hier sind es junge, gegenüber echten Mädchen schüchterne Männer, die ein Begehren in der Tradition des Pygmalion entwickelt haben. Akihiko Kondo träumt davon, dass er mit Azuma Hikari eines Tages in die Welt hinaus und mit ihr Händchen halten kann. Bis dahin ist es aber ein langer Weg, und das Animemädchen wird noch lange ihr kleines Gefängnis brauchen.

Abb.: Die Liebe zu einem Animemädchen bleibt unerwidert

Handbuch zur Maschinenethik

Seit Ende 2016 sitzen renommierte Wissenschaftlerinnen und Wissenschaftler an ihren Kapiteln zum “Handbuch Maschinenethik”, das von Oliver Bendel herausgegeben wird. Eine Übersicht über die Beiträge, die laufend elektronisch veröffentlicht werden (elf sind bereits online), findet sich über link.springer.com/referencework/10.1007/978-3-658-17484-2 … Ende 2018 soll das gedruckte Werk erscheinen. Mit dabei sind etwa Luís Moniz Pereira aus Lissabon, einer der bekanntesten Maschinenethiker der Welt, Julian Nida-Rümelin, deutscher Philosoph und ehemaliger Kulturstaatsminister, Roboterethikerin Janina Loh, die in Wien mit Mark Coeckelbergh zusammenarbeitet, die Stuttgarter Philosophin Catrin Misselhorn, die ebenfalls einen hervorragenden Ruf in der Disziplin hat, und die Technikethiker Karsten Weber und Thomas Zoglauer. Oliver Bendel selbst steuert sieben Beiträge bei. Er klärt die Frage, wozu wir Maschinenethik brauchen, geht auf Pflegeroboter und Sexroboter aus Sicht der Maschinenethik ein und stellt Projekte zu moralischen und unmoralischen Maschinen vor.

Abb.: Die Erschaffung der Maschine

Google Duplex gibt sich zu erkennen

“Google hat ein neues Video seines telefonierenden Sprachassistenten veröffentlicht. Die … Funktion namens Duplex identifiziert sich jetzt eindeutig am Anfang eines Telefonats.” (Golem, 29. Juni 2018) Damit ist bei Google Duplex die erste der “10 Regeln für gute Maschinen” umgesetzt, die sich vor allem auf virtuelle Assistenten und Bots beziehen: “Ich, die Maschine, mache deutlich, dass ich eine Maschine bin.” Zudem wird die erste Funktion des Moralmenüs für Sprachassistenten berücksichtigt, als Voreinstellung, die sich nicht aushebeln lässt. Diese entspricht der Voreinstellung von LADYBIRD, der niemals Marienkäfer tötet. Golem schreibt weiter: “Damit unterscheidet sich die Funktion merklich von dem auf der I/O 2018 gezeigten Beispiel. Dort hatte der Assistant am Telefon keine Anstalten gemacht, sich als solcher zu erkennen zu geben.” Dies hatte für Kritik gesorgt. “Dabei spielten auch ethische Grundsätze eine Rolle: Ist es vertretbar, einen Menschen darüber im Unklaren zu lassen, dass er mit einem Computer spricht? Google hatte nach dem Aufkommen der Kritik versichert, dass sich Duplex eindeutig als nicht-menschlicher Gesprächspartner zu erkennen geben solle.” (Golem, 29. Juni 2018)

Abb.: Wer ist dran?

Mit Robotern gegen Plastikvermüllung

Die Gewässer auf der ganzen Welt sind hochgradig belastet. Vordergründig wirken manche sauber, und im Vergleich zu den 60er- und 70er-Jahren wurden in den westlichen Ländern in Bezug auf bestimmte Schadstoffe erhebliche Fortschritte erzielt. Allerdings hat zum Beispiel der Anteil von Kunststoffen stark zugenommen. Fische, Wasservögel und andere Lebewesen nehmen die Partikel auf und scheiden sie verändert aus. Auch der Mensch hat immer öfter Petflaschen auf seinem Speiseplan, durchaus unfreiwillig und mit nicht absehbaren gesundheitlichen Folgen. Es gibt unterschiedliche Strategien, Konzepte und Technologien gegen die Plastikverschmutzung und -vermüllung von Gewässern. In einem Projekt an der Hochschule für Wirtschaft FHNW, betreut von Oliver Bendel, soll erfasst werden, welche Verfahren in der Schweiz und auf der ganzen Welt üblich und möglich sind, um Gewässer von Kunststoff und anderen Schadstoffen zu befreien, von künstlichen Inseln, Schiffen mit Netzen bis hin zu Robotern. Bereits 2015 wurde das CLEANINGFISH-Projekt durchgeführt. Schwärme von Robotern könnten, so die Idee, rund um die Uhr Flüsse und Seen durchstreifen, die Plastikteilchen schlucken und an Stationen deponieren. Sie könnten auch Gegenstände am Grund des Bodens, wohin man mit üblichen Verfahren meist nicht vorzudringen vermag, einsammeln und abschleppen. Die Studie hatte festgehalten, dass der CLEANINGFISH einige Probleme lösen, andere aber schaffen könnte. Das neue Projekt mit dem Titel “Wie kann der Kampf gegen Plastikvermüllung und -verschmutzung von Gewässern gewonnen werden?” soll im September 2018 starten.

Abb.: Der CLEANINGFISH in Aktion

A Moral Menu for a Domestic Robot

LADYBIRD, the animal-friendly vacuum cleaning robot, was conceived in 2014 by Oliver Bendel and introduced at Stanford University (AAAI Spring Symposia) in 2017 and then implemented as a prototype at the School of Business FHNW. In the context of the project, a menu was proposed with which the user can set the morale of the vacuum cleaner robot. As the name implies, it spares ladybirds. It should also let spiders live. But if you want to have certain insects sucked in, you could define this via a menu. It is important that LADYBIRD remains animal-friendly overall. The idea was to develop a proxy morality in detail via the menu. The vacuum cleaner robot as a proxy machine does what the owner would do. In 2018 the moral menu (MOME) for LADYBIRD was born as a design study. It can be combined with other approaches and technologies. In this way, the user could learn how others have decided and how the personal morality that he has transferred to the machine is assessed. He could also be warned and enlightened if he wants to suck in not only vermin but also spiders.

Fig.: Moral menu for LADYBIRD

Alexa verschickt Privatgespräch

“Amazon spricht von einer ‘unwahrscheinlichen’ Verkettung von Ereignissen: Ein Paar aus den USA berichtet, ihr Alexa-Lautsprecher habe ein Gespräch in seiner Wohnung aufgenommen und dann ungefragt an einen Kontakt im Adressbuch verschickt.” (SPON, 25. Mai 2018) In Wirklichkeit ist diese Verkettung von Ereignissen gar nicht so unwahrscheinlich. Es fängt an beim Codewort. Oliver Bendel hat 2015 in seinem Artikel “Der kleine Lauschangriff: Auditive Systeme aus Sicht der Ethik” für Telepolis geschrieben: “Das Codewort ist der nicht ganz ungebräuchliche Mädchenname ‘Alexa’.” Dass man das System versehentlich aktivieren kann, weil man diesen Namen (oder ein ähnliches Wort) sagt, war jederzeit klar. Was dann kam, hat man schon bei verschiedenen Konferenzen beobachtet. Wenn der Redner dort Alexa oder Google Assistant erwähnt, setzen sich im Zuschauerraum mehrere Smartphones in Betrieb. Die Assistenten werden durch die Begriffe aufgeweckt und werten die Rede laufend aus. Dann beginnen sie selbst zu sprechen. Und warten auf Aussagen, die sie als Anweisungen verstehen. Es kann sich alles Mögliche daraus ergeben. Alexa hat eben ein Privatgespräch aufgezeichnet und verschickt. Zum Glück ging es nur um “Holzfußböden” (SPON, 25. Mai 2018).

Abb.: Gespräche konnte man schon immer belauschen

Drittes Meeting der Audi-KI-Initiative

“Künstliche Intelligenz (KI) wird unsere Mobilität, unsere Arbeitswelt und unser Leben substanziell verändern.” (Website Beyond) So beginnt ein Text auf der Website zur Beyond-Initiative von Audi, die von Rupert Stadler ausgeht. Das Ziel sei es, dass KI zum Wohl der Gesellschaft eingesetzt wird. “Im Fokus stehen die ethischen, rechtlichen und gesellschaftlichen Aspekte beim autonomen Fahren und die Zukunft der Arbeit im KI-Zeitalter.” (Website Beyond) Man hat “ein interdisziplinäres Netzwerk aus internationalen KI-Experten aufgebaut”. “Philosophen und Psychologen treffen auf Software-Ingenieure, Start-Up-Unternehmer und Rechtsexperten.” (Website Beyond) Bei Audi zeigt man sich überzeugt: Um die “KI-Transformation” (Website Beyond) zu gestalten, müssen Wirtschaft, Wissenschaft, Politik und Gesellschaft zusammenspielen. Teil des Netzwerks sind u.a. Luciano Floridi, Kate Darling, Iyad Rahwan, Walter Brenner, Wendell Wallach und Oliver Bendel. Das nächste Treffen mit Rupert Stadler findet am 10. Juli 2018 statt. Nachtrag vom 26. Juni 2018: Wegen der Verhaftung des Vorstandsvorsitzenden wurde die Beyond-Initiative-Konferenz verschoben.

Abb.: KI und philosophische Ethik haben nichts mit Göttern zu tun

 

Das ROBOPROF-Projekt

Im Frühjahr 2014 fragte Oliver Bendel bei der Gebert Rüf Stiftung nach, ob sie das ROBOPROF-Projekt finanzieren würde. “Dieses Projekt soll untersuchen, ob und wann ein relativ einfach, aber programmiertechnisch und allgemeintechnisch erweiterbarer Roboter als Avatar in der Lehre fungieren kann. Der Roboter kann die Studierenden ansprechen, sie beobachten, er kann den Beamer bedienen etc. Es spielen technische Fragen (Bewegung, Interaktion) ebenso eine Rolle wie Akzeptanzfragen. Und es spielen moralische Fragen eine Rolle: Behandelt man über den Avatar die Studierenden anders, und wird man als Professor anders behandelt? Im Projekt wird ein käuflicher, erweiterbarer Roboter eingesetzt. Es sollen Erkenntnisse für den Lehrbetrieb in der Schweiz resultieren.” (Projektskizze) Die Stiftung lehnte ab, weil das Projekt nicht mehr in ihr Portfolio passe. Inzwischen werden Roboter an verschiedenen Orten als Lehrer und Assistenten eingesetzt, etwa in Schulen in Singapur. Auch Hiroshi Ishiguro nimmt seinen Geminoid in den Unterricht mit. Nun will die FHNW erste Erfahrungen in diesem Bereich sammeln und schreibt eine Teilzeitstelle aus. “Die Entwicklung und forschungs­basierte Erprobung von Lehr-/Lernszenarien, in denen Roboter in der Hoch­schul­lehre und Weiterbildung zum Einsatz kommen, wird im Zentrum Ihrer Auf­gaben stehen.” (Stellenanzeige)

Zehn Regeln für gute virtuelle Assistenten

2013 wurden für eine Maschine mit natürlichsprachlichen Fähigkeiten sieben Metaregeln entwickelt, an die sie sich halten sollte. Diese sind so aktuell wie nie zuvor, seit Google Duplex durch die Medien geistert und Entwickler wie Benutzer beschäftigt. Eine Regel des GOODBOT lautete, er solle dem Benutzer klarmachen, dass er eine Maschine ist, eine andere, er solle nicht lügen. Es folgte, ebenfalls im Kontext der Maschinenethik, das LIEBOT-Projekt (2016), mit dem Erkenntnisse zu Vertrauenswürdigkeit und Verlässlichkeit, auch in Bezug auf Quellen, verbunden waren. Momentan entwickelt Oliver Bendel den BESTBOT. Alle drei Maschinen wurden im Rahmen der AAAI Spring Symposia (2016 – 2018) an der Stanford University sowie auf der ISAIM 2018 in Fort Lauderdale vorgestellt, der LÜGENBOT auch auf Konferenzen in Krakau (2016) und München (2016). Vor dem Hintergrund der bisherigen Projekte und in Anbetracht der jüngsten Entwicklungen – Google Assistant bzw. Duplex wurde erwähnt, aber auch Siri und Alexa haben neuartige Fähigkeiten – verfasste Oliver Bendel zehn Regeln (oder Metaregeln), die eine Diskussionsgrundlage sein sollen, mit Blick auf (auch moralisch) gute virtuelle Assistenten und Chatbots (die sozusagen eine Selbstverpflichtung abgeben). Sie sind insgesamt nicht erschöpfend (so wird etwa nicht auf die Stimme eingegangen), und sie sind jeweils nicht immer ausreichend, aber sie bieten Leitplanken und einen Ausgangspunkt für Richtlinien. Speziell für Sprachassistenten bietet sich das Moralmenü (MOME) an.

Abb.: Zehn Regeln für gute Maschinen

Menschenähnlich aussehen und sprechen

“Dass es nur Kunst war, verdeckte die Kunst”, schrieb Ovid über die von Pygmalion geschaffene, menschenähnliche Elfenbeinskulptur, die dann von Aphrodite, in die er eigentlich verliebt war, zum Leben erweckt wurde. Galatea war sogar fruchtbar, anders als ihre Nachfolgerinnen, Liebespuppen wie Harmony und Sexroboter wie Roxxxy. Die natürliche Sprache ist beiden gegeben, und in den letzten Jahren hat man versucht, diese noch natürlicher wirken zu lassen. Oliver Bendel hat untersucht, wie man die Speech Synthesis Markup Language (SSML) zur Manipulation der synthetischen Stimme von Liebespuppen, Sexrobotern und allgemein Servicerobotern gebrauchen kann. Er schlug neue Tags, Attribute und Werte vor, die eine belegte Stimme und auch ein Seufzen und Stöhnen möglich machen. Amazon hat Alexa das Flüstern beigebracht, ebenfalls mit SSML. Google Assistant soll in Zukunft dazu dienen, in Restaurants und Frisörsalons anzurufen (das Projekt wird Duplex genannt). Damit kann man mit einer High-End-Technologie ganz normale Telefone auf der ganzen Welt bedienen und private Aufgaben automatisieren. Die Stimme klingt sehr lebensecht, und das Sprechen überhaupt, auch weil “Ähs” und “Mmhs” vorkommen, wie bei echten Menschen. In der Imperfektion könnte der Schlüssel zur Perfektion liegen. Ein Roboter, der für die Promotion von “Westworld” geschaffen wurde, mit Unregelmäßigkeiten und Haaren im Gesicht, wirkt besonders authentisch, mehr als Harmony und Co. Dass es nur Kunst ist, wird die Kunst immer mehr und immer besser verdecken.

Abb.: Puppen beim Plantschen und Plaudern

Relaunch des Wirtschaftslexikons

Das Gabler Wirtschaftslexikon gilt laut Springer seit Jahrzehnten als Klassiker der Wirtschaftsliteratur. “Seit 2009 gibt es das Werk als frei zugängliches Online-Angebot mit erweitertem Nutzungsangebot. Mit mehr als 25.000 Stichworten steht mit dem Gabler Wirtschaftslexikon die größte deutschsprachige Auswahl an betriebswirtschaftlich-lexikalischem Know-how im Internet zur Verfügung – von über 200 ausgewiesenen Fachexperten geschrieben und kontinuierlich redaktionell geprüft. Springer Gabler stellt damit Expertenwissen online, das wissenschaftlich zitierfähig ist und sich vom wachsenden Angebot ungesicherten Wissens in Form von freien nicht weiter geprüften Inhalten im Internet unterscheidet.” (Website Gabler Wirtschaftslexikon) Im Frühjahr 2018 erfolgte der visuelle und strukturelle Relaunch. Das Online-Nachschlagewerk wirkt nun aufgeräumter und moderner. Der derzeit am häufigsten aufgerufene Begriff ist “Digitalisierung” von Prof. Dr. Oliver Bendel (in diesem Beitrag wird auch auf Informationsethik eingegangen), gefolgt von “Benchmarking” (Prof. Dr. Klaus Wübbenhorst).

Abb.: Hitliste des Wirtschaftslexikons (Quelle: Springer)

Postdoc Working on Information Ethics

According to the website, the Health Ethics and Policy Lab is a multidisciplinary research group established in 2017 at the Department of Health Sciences and Technology at ETH Zurich. The work focuses on the ethical, legal, societal, and policy implications of artificial intelligence, precision medicine, biotechnology, and digital health. The Health Ethics and Policy Lab is now looking for a postdoctoral researcher to work with Prof. Prof. Dr. Effy Vayena and her team “on a research project examining the legal and ethical challenges related to data sharing in digital health” (Website). “In particular, the project will explore the applicability of blockchain technology to medical data sharing and its impact on privacy and security. The research project is funded within the Personalized Health and Related Technologies (PHRT) scheme, a strategic focus area of the ETH Domain.” (Website) More information and application via apply.refline.ch/845721/6202/pub/2/index.html.

Kopflose Roboter

“Die ersten Lieferroboter sind seit einiger Zeit im Einsatz, unter anderem auch hierzulande: Einige rollen …, andere fliegen … Sie haben aber gemeinsam, dass sie nicht in ein oberes Stockwerk liefern können. Das will das US-Unternehmen Agility Robotics ändern.” Dies schreibt Werner Pluta am 3. Mai 2018 in Golem. Und weiter: “Agility Robotics hat einen Laufroboter entwickelt, der künftig wie ein menschlicher Bote die Pizza oder den Einkauf auch bis in eines der oberen Stockwerke bringen kann. Allerdings muss sich der Belieferte auf einen etwas merkwürdigen Anblick gefasst machen: Cassie, benannt nach dem Laufvogel Kasuar, … besteht nur aus Beinen – und erinnert so an die merkwürdigen Schilderungen aus dem Mittelalter von Acephalen, Menschen, die keinen Kopf haben und stattdessen das Gesicht auf dem Bauch tragen. Ein Lieferroboter ohne Arme macht sich jedoch nicht so gut. Die nächste Version … wird deshalb nicht nur Beine, sondern auch Arme haben.” (Golem, 3. Mai 2018) Cassie löst ein Problem, das die kleinen, rollenden Paket- und Transportroboter von Starship Technologies haben: Er ist keine Stolperfalle. Dafür kann man mit ihm zusammenprallen wie mit dem K5 von Knightscope, wobei die Verletzungsgefahr, wenn Arme vorhanden sind, noch größer sein könnte. Wie bei jedem Serviceroboter dieser Art wird die Komplexität im öffentlichen Raum erhöht. Einen vielversprechenden Ansatz verfolgt man mit Transportdrohnen, die die Ware auf dem Dach eines Gebäudes ablegen. Dort kann der Empfänger sie abholen, ganz egal, in welchem Stockwerk er wohnt.

Abb.: Eine kopflose Schaufensterpuppe

Gutachten zu ethischen Standards für Big Data

Das Gutachten “Ethische Standards für Big Data und deren Begründung” (Prof. Dr. Stefan Selke zusammen mit Dr. Peter Biniok, Dr. Johannes Achatz und Elisabeth Späth) ist “der Versuch, eine vorläufige Antwort auf die Frage zu geben, in welchem Umfang die gegenwärtige Debatte über Big Data von Bezügen auf ethische Standards geprägt ist”. “Damit wird zugleich die Frage gestellt, wie ethische Standards in Zukunft zur fairen Ausbalancierung zwischen starrer Regulation einerseits und totale Flexibilisierung andererseits von Nutzen sein könnten. Ethische Standards werden dabei in einer wissenssoziologischen Perspektive sowohl als implizite Begründungsmuster als auch als explizite kommunikative Gattung aufgefasst, deren Funktion sich u. a. darin begründet, Anschlussfähigkeit zwischen unterschiedlichen gesellschaftlichen Teilsystemen herzustellen und dauerhaft zu erhalten.” (Gutachten Big Data) Als Expertinnen und Experten standen u.a. Prof. Dr. Oliver Bendel, Prof. Dr. Dirk Helbing, Prof. Dr. Petra Grimm, Yvonne Hofstetter, Prof. Dr. Viktor Mayer-Schönberger und Prof. Dr. Oliver Zöllner zur Verfügung. Das Gutachten wurde im Rahmen des ABIDA-Projekts mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) erstellt und kann hier heruntergeladen werden.

Abb.: Ethische Standards zu Big Data sind notwendig

Siri und die Mundart

Im Sommer 2012 erschien der Artikel “Siri ist hier.”, mit dem Untertitel “Der Sprachassistent von Apple in der Schweiz aus linguistischer und ethischer Sicht”. Mit Schweizerdeutsch kam Siri damals nicht zurecht. Oliver Bendel erklärte: “Es wäre sicherlich nicht ganz einfach, dem Sprachassistenten auf der Ebene der Aussprache und Betonung die schweizerischen Gepflogenheiten nahezubringen. Er könnte dazulernen; aber dazu müsste er in der Lage sein, semantische Beziehungen zu knüpfen (und damit zu realisieren, dass das Chuchichäschtli ein kleiner Küchenschrank ist). Wenn der Benutzer in der Schweiz nicht weiß, dass man ‘Serie’ auch anders aussprechen kann, kann Siri allenfalls eine Menge von mehr oder weniger sinnvollen Alternativen – oder kluge Rückfragen – unterbreiten. Ob man mit diesen immer etwas anfangen kann, sei dahingestellt. Auch auf der lexikalischen Ebene weiß nicht jeder Benutzer, dass Alternativen existieren. Nicht in allen Fällen werden Helvetismen – dies haben mir viele Gespräche gezeigt – als solche erkannt.” Inzwischen ist man weiter: “Zwei Start-ups aus dem Wallis, Keylemon und recapp, haben zur Entwicklung der neuen Swisscom TV-Box beigetragen, die erstmalig Spracherkennung auch für Deutschschweizer Dialekte bietet.” (Website recapp) Siri aber beherrscht nach wie vor keine Mundart. Dies hat erst kürzlich die Handelszeitung thematisiert, wobei sie auch erwähnt, dass man das Problem heute mit Lösungen von Firmen wie recapp angehen könnte.

Abb.: Versteht mich Siri?

The Chatbot that Uses Face Recognition

Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. To achieve this, it will use approaches of face recognition. The paper “From GOODBOT to BESTBOT” describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel presented his paper on 27 March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series). The PDF is available here.