Pepper auf der Bühne

Das Casinotheater Winterthur bringt Pepper auf die Bühne, in einem Stück, das sich der Altenpflege widmet. Eigentlich ist, so die Beschreibung auf der Website, im Leben von Vera alles in bester Ordnung. Sie hat einen guten Job im Marketing einer Hotelkette und den sympathischen Informatikstudenten Sam als Untermieter. „Doch dann platzt ihre boshafte Mutter Ruth … in ihre Wohnung und will ab sofort hier gepflegt werden. Am liebsten von ihrer Tochter, die sie seit Jahrzehnten lustvoll schikaniert.“ (Website Casinotheater) Aber Vera ist überzeugt: „Wenn sie ihre narzisstische Mutter selber pflegt, scheitert sie genauso wie all die Heerscharen von Betreuerinnen vor ihr.“ (Website Casinotheater) „Deshalb präsentiert sie Ruth die perfekte Pflegeperson: einen humanoiden Roboter, der bei ihr im Hotel nicht mehr gebraucht wird. Grundlegende Fähigkeiten hat Sam dem Roboter programmiert, den Rest soll die hochintelligente Maschine sich dank ihrer Lernfähigkeit selber beibringen.“ (Website Casinotheater) Der Plot ist durchaus nicht weit von der Realität entfernt. Michael Anderson und Susan L. Anderson demonstrierten beim diesjährigen Berliner Kolloquium den Prototyp eines lernfähigen Pflegeroboters mit moralischen Fähigkeiten. Karsten Schwarz präsentierte den humanoiden Roboter THEA aus der Pepper-Familie, der im Universitätsklinikum Halle getestet wird. Weitere Informationen zum Theaterstück mit dem Titel „Robocare“ über www.casinotheater.ch/theater/spielplan/robocare.

Abb.: THEA aka Pepper beim Berliner Kolloquium (Foto: Daimler und Benz Stiftung)

Erst das Gesicht, dann die Ware?

„Sie gehen in einen Laden, packen Fertigpizza, Salat und eine Flasche Mineralwasser in eine Tüte. Beim Ausgang wird ihr Gesicht gescannt, und schwupps, ist ihr Einkauf von ihrem Konto abgebucht. So funktioniert Shopping teilweise bereits heute in China. In der Schweiz werden ähnliche Systeme in Betracht gezogen.“ Dies meldete der Tages-Anzeiger am 25. Juli 2019. Migrolino-Chef Markus Laenzlinger stelle sich vor, dass Kunden „sich mittels Smartphone oder Gesichtserkennung beim Betreten des Ladens identifizieren“. „Beim Verlassen werde der Einkauf automatisch gescannt und bezahlt.“ (Tages-Anzeiger, 25. Juli 2019) Allerdings gehört Gesichtserkennung zu den problematischsten Technologien, die im öffentlichen und halböffentlichen Raum verwendet werden können. Entsprechend beobachtet laut Tages-Anzeiger der Eidgenössische Datenschutz- und Öffentlichkeitsbeauftragte die Entwicklung. „Wichtig sei, dass die Kunden darüber informiert sind, dass Bilder von ihnen genutzt werden. Und er warnte zusätzlich vor den Gefahren beim Sammeln von biometrischen Daten, wie etwa dem Identitätsdiebstahl.“ (Tages-Anzeiger, 25. Juli 2019) Wichtig ist grundsätzlich auch, dass die Kunden eine andere Möglichkeit zur Bezahlung haben.

Abb.: Erst das Gesicht, dann die Ware?

The Hologram Girl Appears in the World

The article „Hologram Girl“ by Oliver Bendel deals first of all with the current and future technical possibilities of projecting three-dimensional human shapes into space or into vessels. Then examples for holograms from literature and film are mentioned, from the fictionality of past and present. Furthermore, the reality of the present and the future of holograms is included, i.e. what technicians and scientists all over the world are trying to achieve, in eager efforts to close the enormous gap between the imagined and the actual. A very specific aspect is of interest here, namely the idea that holograms serve us as objects of desire, that they step alongside love dolls and sex robots and support us in some way. Different aspects of fictional and real holograms are analyzed, namely pictoriality, corporeality, motion, size, beauty and speech capacity. There are indications that three-dimensional human shapes could be considered as partners, albeit in a very specific sense. The genuine advantages and disadvantages need to be investigated further, and a theory of holograms in love could be developed. The article is part of the book „AI Love You“ by Yuefang Zhou and Martin H. Fischer and was published on 18 July 2019. Further information can be found via link.springer.com/book/10.1007/978-3-030-19734-6.

Fig.: Hatsune Miku is a fully artificial figure

Erst Venenscan, dann Badespaß

In Weiden am See sind die Betreiber eines Freibads auf die Idee gekommen, ein Hochsicherheitszugangssystem einzuführen, wie Golem am 17. Juli 2019 unter Berufung auf den Kurier berichtete. Käufer einer Saisonkarte müssen zunächst ihre Handvenen registrieren. Mit Hilfe eines Handvenenscanners wird dann bei jedem Besuch überprüft, ob sie zugangsberechtigt sind. Hans Zeger, Obmann der ARGE Daten, wird mit folgenden Worten zitiert: „Ich halte den, der das macht, für einen überforderten Apparatschik, der die Grundrechte mit Füßen tritt.“ (Kurier, 17. Juli 2019) Die Nutzung biometrischer Merkmale ist aus mehreren Gründen problematisch. Erstens ist sie mit persönlichen Daten verbunden, die in die falschen Hände gelangen können. Zweitens ist es oft möglich, ein Sicherheitssystem auf einfache Weise zu überlisten. In diesem Falle helfen Toner und Bienenwachs dabei. Drittens kann man sich unter Ausübung brutaler Gewalt Zugang verschaffen. Am Neusiedler See wird vermutlich niemand die Hand eines Stammkunden abhacken. Aber in anderen Kontexten ist eine solche Möglichkeit durchaus vorhanden. Insgesamt schafft die Biometrik vor allem Nachteile für die Betroffenen.

Abb.: Noch sind die Hände dran

Die gute, alte Zeit bei Google Maps

Auf Google Maps trägt Riva del Garda den Namen Reiff. Die Habsburger nannten die Stadt so. Aber ein Reiff am Gartsee kennt heute niemand mehr. Teplice war 1895 bis 1918 und 1918 bis 1945 Teplitz-Schönau. Google Maps benutzt die Bezeichnung immer noch. Die Frage ist, ob damit ein politisches Statement verbunden ist. Am rechten Rand dürfte man sich auf jeden Fall über solche Namen freuen. Diese sind bei dem Kartendienst keineswegs eine Ausnahme. Bei einem virtuellen Spaziergang im Veltlin (Valtellina) stößt man laufend auf sie. Morbegno ist Morbend, Sondrio Sünders. Worms ist immerhin wieder Bormio geworden. Vielleicht hat ein Benutzer protestiert. Auch das Elsass ist natürlich eine Fundgrube. Mulhouse ist Mülhausen – dieser Name ist dort freilich noch allgegenwärtig. Doch zurück nach Tschechien, nach Karlsbad, weiter nach Marienbad, Pilsen und Klattau. Und dann wieder hoch, bis Adolfsgrün. Bei Google ist, warum auch immer, die Zeit stehengeblieben.

Abb.: Teplice heißt wieder Teplitz-Schönau

Deceptive Machines

„AI has definitively beaten humans at another of our favorite games. A poker bot, designed by researchers from Facebook’s AI lab and Carnegie Mellon University, has bested some of the world’s top players …“ (The Verge, 11 July 2019) According to the magazine, Pluribus was remarkably good at bluffing its opponents. The Wall Street Journal reported: „A new artificial intelligence program is so advanced at a key human skill – deception – that it wiped out five human poker players with one lousy hand.“ (Wall Street Journal, 11 July 2019) Of course you don’t have to equate bluffing with cheating – but in this context interesting scientific questions arise. At the conference „Machine Ethics and Machine Law“ in 2016 in Krakow, Ronald C. Arkin, Oliver Bendel, Jaap Hage, and Mojca Plesnicar discussed on the panel the question: „Should we develop robots that deceive?“ Ron Arkin (who is in military research) and Oliver Bendel (who is not) came to the conclusion that we should – but they had very different arguments. The ethicist from Zurich, inventor of the LIEBOT, advocates free, independent research in which problematic and deceptive machines are also developed, in favour of an important gain in knowledge – but is committed to regulating the areas of application (for example dating portals or military operations). Further information about Pluribus can be found in the paper itself, entitled „Superhuman AI for multiplayer poker“.

Fig.: Pluribus is good at bluffing

Fernzugriff auf Medizingeräte

„Über das Krankenhausnetzwerk lassen sich Befehle an Anästhesie- und Beatmungsgeräte des Herstellers GE senden. Eine Sicherheitslücke ermöglicht unter anderem, Dosierung und Typ des Narkosemittels zu ändern.“ (Golem, 10. Juli 2019) Zudem können Angreifer per Fernzugriff die Alarme abändern respektive abschalten oder die Gaszusammensetzung bei der Beatmung beeinflussen. Dies meldete Golem am 10. Juli 2019. Anästhesie- und Beatmungsgeräte sind nicht die einzigen Geräte, die sich im medizinischen Kontext hacken bzw. manipulieren lassen. Immer mehr werden Tablets und Smartphones eingesetzt, um Bilder von Symptomen zu machen und an Spezialisten weiterzuschicken. Nicht immer sind sie genügend gegen Attacken geschützt. Auch Operations-, Therapie- und Pflegeroboter sind gefährdet. Man kann im Prinzip einen physischen Eingriff oder eine psychische Behandlung beeinflussen – oder persönliche Daten abziehen. Wie der aktuelle Fall weitergeht, ist unklar. „Das Department of Homeland Security (DHS) warnt vor der Sicherheitslücke, der Hersteller GE sieht hingegen keine Gefahr für die Patienten.“ (Golem, 10. Juli 2019)

Abb.: Viele Medizingeräte können gehackt werden

Das Ende von DeepNude

Mit der KI-basierten App DeepNude konnten Bilder von angezogenen Frauen in Bilder von nackten Frauen umgewandelt werden. Die Methode erinnert laut Golem an Deepfakes, bei denen man Gesichter auf andere Körper setzt. Bei DeepNude „sind es allerdings Körperteile wie nackte Haut, Brüste und Vagina, die über die Kleidung gelegt werden“ (Golem, 28. Juni 2019). Auch das kann freilich als Deepfake bezeichnet werden. Die App nutzt laut dem Magazin sogenannte Generative Adversial Networks (GANs), die mithilfe „vieler verschiedener Bilder aus größtenteils pornografischen Inhalten aus dem Internet trainiert wurden“. „Die fertige Applikation funktioniert nur bei weiblichen Körpern, da es … einfach ist, diese in Menge zu finden.“ (Golem, 28. Juni 2019) „Die Beliebtheit der Software hat die Erwartungen der Entwickler nach eigener Aussage drastisch überstiegen. So sollen etwa 500.000 Menschen die Software vom Server geladen haben.“ (Golem, 28. Juni 2019) Nun wurde das Projekt eingestellt. Interessant ist die Aussage der Entwickler hierzu: „Wenn 500.000 Leute es benutzen, ist die Chance hoch, dass sie es falsch benutzen“ – zudem sei der Server „unter der Last der Anfragen zusammengebrochen, was zum Ausfall des Downloaddienstes geführt habe“ (Golem, 28. Juni 2019).

Abb.: Fassade in Porto

Roboter, Empathie und Emotionen

„Roboter, Empathie und Emotionen“ – dieses Forschungsprojekt hatte die Einrichtung für Technologiefolgenabschätzung der Schweiz, die TA-SWISS, vor einiger Zeit ausgeschrieben. Den Zuschlag hat ein Konsortium von FHNW, ZHAW und Universität St. Gallen erhalten. Der Antragsteller, Prof. Dr. Hartmut Schulze von der Hochschule für Angewandte Psychologie FHNW, deckt die Psychologie ab. Der Co-Antragsteller, Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW, nimmt die Perspektive von Informations-, Roboter- und Maschinenethik ein, die Co-Antragstellerin, Prof. Dr. Maria Schubert von der ZHAW, die der Pflegewissenschaft. Die TA-SWISS stellte auf ihrer Website fest: „Welchen Einfluss haben Roboter … auf unsere Gesellschaft und auf die Personen, die mit ihnen interagieren? Sind Roboter vielleicht eher Spitzel als Vertraute? … Was erwarten wir von diesen Maschinen beziehungsweise was dürfen wir effektiv von ihnen erwarten? Zahlreiche soziologische, psychologische, wirtschaftliche, philosophische und rechtliche Fragen im Zusammenhang mit dem gegenwärtigen und künftigen Einsatz und Potenzial der Roboter sind noch offen.“ (Website TA-SWISS) Das Kick-off-Meeting mit einer hochkarätig besetzten Begleitgruppe fand am 26. Juni 2019 in Bern statt.

Abb.: Beim Berliner Kolloquium (Foto: Daimler und Benz Stiftung)

400 Keywords Informationsethik

Ende Juni 2019 erschien die zweite Auflage des Lexikons zur Informationsethik von Oliver Bendel im Springer-Verlag. Zunächst kann man es über SpringerLink beziehen. Ende Juli wird es voraussichtlich in den Buchhandlungen verfügbar sein. Auf die „300 Keywords Informationsethik“ von 2016 folgten die „400 Keywords Informationsethik“. In beiden Fällen lautet der Untertitel „Grundwissen aus Computer-, Netz- und Neue-Medien-Ethik sowie Maschinenethik“. Sowohl die Bereiche der Informations-, Roboter- und Maschinenethik als auch die der Künstlichen Intelligenz und der Robotik wurden ausgebaut. Es finden sich nun Begriffe wie „Brain-Computer Interface“, „Gesichtserkennung“ und „Echokammer“ darin. 2014 und 2015 war das Projekt noch mit dem Wunsch gestartet, die Informationsethik weiterleben zu lassen und die Maschinenethik einem breiteren Publikum nahezubringen. Das Buch kam 2016 auf den Markt und wurde seitdem etwa 40.000 Mal heruntergeladen (im Gesamten und in Teilen). In der Zwischenzeit explodierten die Themenbereiche förmlich. Eine zweite Auflage war dringend notwendig. Auf über 300 Seiten kann man sich nun einen Überblick über vergangene, gegenwärtige und zukünftige Entwicklungen verschaffen und sich Definitionen bekannter und weniger bekannter Phänomene aneignen. Weitere Informationen über www.springer.com/gp/book/9783658266639.

Abb.: Bendel in der Bibliothek der Hochschule für Wirtschaft FHNW in Windisch (Foto: Kai R. Joachim)

Das MOME-Projekt startet

An der Hochschule für Wirtschaft FHNW entsteht zwischen Juni 2019 und Januar 2020 das siebte Artefakt der Maschinenethik. Ideen- und Auftraggeber ist Prof. Dr. Oliver Bendel. Die Maschinenethik bringt moralische und unmoralische Maschinen hervor, derzeit als Konzepte, Simulationen oder Prototypen. Die maschinelle Moral ist überwiegend fest verankert, über Prinzipien bzw. Metaregeln sowie Regeln. Die Maschinen sind damit zu bestimmten Aktionen in der Lage, zu anderen nicht. Ein Ansatz, der eine gewisse Flexibilität verheißt, ist das Moralmenü (kurz MOME). Über dieses überträgt der Besitzer oder Benutzer seine eigene Moral, seine Vorstellungen und Überzeugungen zu Gut und Böse, seine Wertmaßstäbe, seine Verhaltensregeln auf die Maschine. Diese agiert und reagiert so, wie er dies auch tun würde, und zwar im Detail. Er trifft womöglich auf bestimmte Voreinstellungen, hat aber eine gewisse Freiheit, diese zu verändern oder neue Standardeinstellungen festzulegen. Im Projekt wird ein MOME prototypisch implementiert, das auf ein bereits bestehendes oder ein im Projekt entwickeltes System zugreift.

Abb.: Ein MOME für LADYBIRD

Ein Mähroboter, der Igel glücklich macht

An der Hochschule für Wirtschaft FHNW entsteht zwischen Juni 2019 und Januar 2020 das sechste Artefakt der Maschinenethik. Ideengeber und Auftraggeber ist Prof. Dr. Oliver Bendel. In der Tier-Maschine-Interaktion geht es um Design, Evaluierung und Implementierung von (in der Regel höherentwickelten bzw. komplexeren) Maschinen und Computersystemen, mit denen Tiere interagieren und kommunizieren und die mit Tieren interagieren und kommunizieren. Die Maschinenethik bezieht sich bisher vor allem auf Menschen, kann aber auch bei Tieren dienlich sein. Sie versucht moralische Maschinen zu konzipieren und mit Hilfe weiterer Disziplinen wie Informatik und KI bzw. Robotik zu implementieren. Ziel des Projekts ist die detaillierte Beschreibung und prototypische Umsetzung eines tierfreundlichen Serviceroboters, genauer gesagt eines Mähroboters, genannt HAPPY HEDGEHOG (HHH). Dieser soll mit Hilfe von Sensoren und moralischen Regeln vor allem Igel (auch und insbesondere Jungtiere) erkennen und geeignete Maßnahmen einleiten (Unterbruch der Arbeit, Vertreiben des Igels, Information des Besitzers). Das Projekt hat Ähnlichkeiten mit einem anderen Projekt, das früher durchgeführt wurde, nämlich LADYBIRD. Dieses Mal soll aber mehr auf vorhandene Geräte, Plattformen und Software gesetzt werden. Als erstes Artefakt entstand an der Hochschule der GOODBOT – im Jahre 2013.

Abb.: Ein gewöhnlicher Mähroboter

Ein Pflegeroboter der neuesten Generation

Für die Broschüre der Daimler und Benz Stiftung zum 23. Berliner Kolloquium fand ein Shooting statt. Im Mittelpunkt stand ein Pflegeroboter der neuesten Generation, P-Care von F&P Robotics und ZRFN Robotics, der in China in einer Kleinserie vorliegt. Er ist menschen- oder tierähnlich, hat Kopf, Augen und zwei Arme. Er unterstützt Pflegekräfte und -bedürftige mit Handreichungen und sozialen Eigenschaften, kann das Gegenüber anschauen und verfügt über gestische und natürlichsprachliche Fähigkeiten. Mittels Rollen ist eine freie Bewegung im Raum möglich. Lautsprecher, Richtmikrofon und Kameras gehören zur Ausstattung. Mit Hilfe von Gesichtserkennung können Patienten identifiziert werden. P-Care und Lio sind im Grunde umgebaute, erweiterte und mit einer mobilen Plattform versehene Co-Robots. Diese finden sich hauptsächlich in Produktion und Logistik. Sie kooperieren bzw. kollaborieren mit Menschen, wobei sie ihnen ausgesprochen nahekommen und die Tätigkeiten ineinandergreifen können. Es spricht einiges dafür, dass Pflegeroboter in dieser Tradition den Markteintritt schaffen werden.

Abb.: P-Care schließt eine Tür

San Francisco verbietet Gesichtserkennung

„Als erste Stadt in den USA hat San Francisco den Einsatz von Gesichtserkennung durch Behörden verboten.“ (SPON, 15. Mai 2019) Dies meldet SPIEGEL ONLINE am 15. Mai 2019. „Die Gefahr, dass solche Technologien die Bürgerrechte verletzen können, überwiege die behaupteten Vorteile bei Weitem, entschied der Stadtrat der kalifornischen Metropole …“ (SPON, 15. Mai 2019) Der Einsatz von Gesichtserkennung drohe rassistische Ungerechtigkeit zu verschärfen und bedrohe „unsere Möglichkeit, frei von ständiger Beobachtung durch die Regierung zu leben“, heißt es laut SPON in dem Beschluss. „Die städtische Polizei und andere städtische Behörden dürfen gemäß der Entscheidung keinerlei Gesichtserkennungstechnologie erwerben, besitzen oder nutzen. Flughäfen oder andere von den Bundesbehörden betriebene Einrichtungen sind von dem Verbot ausgenommen. Kritiker argumentieren, Systeme zur Gesichtserkennung bedeuteten einen starken Eingriff in die Privatsphäre. Zudem drohe die Gefahr, dass Unschuldige fälschlich als Straftäter identifiziert werden könnten. Die US-Bürgerrechtsorganisation ACLU warnt, mit der Technologie könne die Öffentlichkeit wahllos und ohne konkreten Verdacht oder Anhaltspunkt flächendeckend überwacht werden.“ (SPON, 15. Mai 2019) Bei den AAAI Spring Symposia an der Stanford University war Gesichtserkennung immer wieder ein Thema gewesen.

Abb.: In einem Museum in San Francisco

Hologram Girl

Using an interdisciplinary approach, the book „AI love you“ explores the emerging topics and rapid technological developments of robotics and artificial intelligence through the lens of the evolving role of sex robots, and how they should best be designed to serve human needs. „An international panel of authors provides the most up-to-date, evidence-based empirical research on the potential sexual applications of artificial intelligence. Early chapters discuss the objections to sexual activity with robots while also providing a counterargument to each objection. Subsequent chapters present the implications of robot sex as well as the security and data privacy issues associated with sexual interactions with artificial intelligence.“ (Information by Springer) Topics featured in this book include: the Sexual Interaction Illusion Model, the personal companion system, Harmony, designed by Realbotix, an exposition of the challenges of personal data control and protection when dealing with artificial intelligence, and the current and future technological possibilities of projecting three-dimensional holograms. Oliver Bendel is the author of the contribution to the latter topic, entitled „Hologram Girl“. The book is edited by Yuefang Zhou and Martin H. Fischer and will be published in summer 2019. More information via www.springer.com/gp/book/9783030197339.

Fig.: A talk by Oliver Bendel (photo: Meret Buser)

Von Cor@ bis Mitsuku

„Chatbots unterhalten sich mit Menschen und unterhalten sie, sie beraten Kunden und Interessenten auf Websites und in Instant-Messaging-Systemen, sie rufen hilfreiche Ressourcen auf und geben dazu Erläuterungen. Ihr Erfolg erklärt sich vor allem durch ihre natürlichsprachlichen Fähigkeiten und ihre Konstruktion als hilfreiches, sachkundiges oder lustiges Gegenüber. Der Beitrag erklärt, was Chatbots und Sprachassistenten sind, nennt Vor- und Nachteile ihres Einsatzes und stellt Produkte für die Kundenkommunikation und den Unterhaltungsbereich vor. Zudem geht er auf Projekte der Maschinenethik ein. Die meisten Chatbots verhalten sich nicht adäquat, wenn der Benutzer ihnen gegenüber Sorgen äußert. Moralische Maschinen als Dialogsysteme können eine Lösung sein.“ So der Abstract des Beitrags „Von Cor@ bis Mitsuku: Chatbots in der Kundenkommunikation und im Unterhaltungsbereich“ von Oliver Bendel, erschienen im Mai 2019 im „Handbuch Digitale Wirtschaft“ (Herausgeber: Tobias Kollmann). Er ist verfügbar auf SpringerLink.

Abb.: Mitsuku von PANDORABOTS

Eine neue moralische Maschine

Am 8. April 2019 startete an der Hochschule für Wirtschaft FHNW das E-MOMA-Projekt. „E“ steht für „Enhancing“, „MOMA“ für „Moral Machine“. Wenig verfolgt wird in der Maschinenethik bisher der Ansatz, dass die Maschine selbst die Moral weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert, mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO-Roboter mit Methoden des Machine Learning moralisch erweitert. Ein Beitrag dazu erschien vor einiger Zeit in den Proceedings of the IEEE. Im E-MOMA-Projekt soll eine eigene Implementierung entstehen, die diese Ansätze fortführt. Dabei können z.B. neuronale Netzwerke verwendet werden. Es bietet sich die Implementierung eines Chatbots an, aber auch die Modifizierung von Hardwarerobotern ist möglich. Letztlich geht es darum, eine moralische Maschine in die Welt zu bringen, die ihre Moral anpasst und weiterentwickelt, je nach Situation bzw. je nach eingegebenen Daten. Es ist das fünfte Artefakt der Maschinenethik, das nach Ideen, Skizzen und Vorgaben von Prof. Dr. Oliver Bendel entsteht. Das erste war der GOODBOT von 2013.

Abb.: Viele Maschinen kann man moralisieren

Data Science an der FHNW

„Persönliche Kaufempfehlungen, medizinische Diagnosen, selbstfahrende Autos, Börsenhandel oder Online-Marketing: Ohne Data Science wäre das nicht möglich. Daten sind der neue Rohstoff der Wirtschaft. Als Data Scientist können Sie aus der wachsenden Datenmenge relevantes Wissen destillieren, Muster erkennen und Anomalien identifizieren. Data Scientists schaffen die Grundlage dafür, dass aus den vorhandenen Daten die richtigen Schlüsse gezogen werden.“ So heißt es auf der Website des neuen Studiengangs Data Science an der Hochschule für Technik FHNW. Das Ausbildungskonzept ist innovativ und experimentell. Es fokussiert auf Kompetenzen. Die Studierenden werden mit Challenges konfrontiert, die sie selbst ausgestalten müssen, etwa indem sie Forschungsfragen stellen und Entwicklungsziele stecken. Auch Informationsethik und Maschinenethik – verantwortet von Prof. Dr. Oliver Bendel – werden eine Rolle spielen. Weitere Informationen über www.fhnw.ch/de/studium/technik/data-science/ausbildungskonzept-data-science.

Abb.: Der Campus Brugg-Windisch (Foto: WEISSWERT C. Morin & M. Indermaur)

The Moral Twin

Machine ethics produces moral and immoral machines. The morality is usually fixed, e.g. by programmed meta-rules and rules. The machine is thus capable of certain actions, not others. However, another approach is the morality menu (MOME for short). With this, the owner or user transfers his or her own morality onto the machine. The machine behaves in the same way as he or she would behave, in detail. Together with his teams, Prof. Dr. Oliver Bendel developed several artifacts of machine ethics at his university from 2013 to 2018. For one of them, he designed a morality menu that has not yet been implemented. Another concept exists for a virtual assistant that can make reservations and orders for its owner more or less independently. In the article „The Morality Menu“ the author introduces the idea of the morality menu in the context of two concrete machines. Then he discusses advantages and disadvantages and presents possibilities for improvement. A morality menu can be a valuable extension for certain moral machines. You can download the article here.

Fig.: Man in the mirror

Maschinelles Bewusstsein

„Maschinelles Bewusstsein (engl. ‚machine consciousness‘) ist ein Arbeitsgebiet, das zwischen Künstlicher Intelligenz und Kognitiver Robotik angesiedelt ist. Ziel ist die Schaffung eines maschinellen Bewusstseins oder Selbstbewusstseins. Dieses simuliert das menschliche Bewusstsein oder Selbstbewusstsein, nähert sich diesem ein Stück weit an oder bildet es in Teilen ab. Oder es erreicht das Original, ist mit diesem in wesentlichen Teilen identisch, was bis auf weiteres fernab der Realität ist. Man spricht auch von Maschinenbewusstsein, künstlichem Bewusstsein (engl. ‚artificial consciousness‘) oder synthetischem Bewusstsein (’synthetic consciousness‘). Zum maschinellen Bewusstsein bzw. Selbstbewusstsein mag man (Selbst-)Wahrnehmung, Erinnerung, Voraussicht, (Selbst-)Lernen sowie subjektive Erfahrung zählen.“ So beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon, verfasst von Oliver Bendel, aufrufbar über wirtschaftslexikon.gabler.de/definition/maschinelles-bewusstsein-120206. Auch auf den Zusammenhang mit Informationsethik und Maschinenethik wird eingegangen. Maschinelles Bewusstsein ist ein Thema bei den AAAI Spring Symposia 2019 an der Stanford University.

Abb.: Ist maschinelles Bewusstsein möglich?

Transportdrohne stürzt in den Zürichsee

Am 28. Juni 2018 wurde an dieser Stelle auf Transportdrohnen der Schweizerischen Post eingegangen. Das Projekt – es werden Laborproben befördert – wurde mit Interesse aufgenommen. Eine kleine Warnung war auch enthalten: „Es kann allerdings Kollisionen mit anderen Drohnen und mit Vögeln geben, und ein Absturz kann für Fußgänger, Fahrradfahrer und Autofahrer gefährlich sein.“ Die Strecke über den Zürichsee thematisierte Oliver Bendel beim BMAS-Workshop „Leitlinien einer künftigen Finanzierung des Sozialstaats“ am 11. Januar 2019 in Berlin, und er wies auf Chancen und Risiken hin. Der Tages-Anzeiger schrieb am 25. Januar 2019: „Kurz nach 10.20 Uhr stürzte im unteren Seebecken eine Postdrohne ab. Das meldete die Stadtpolizei … Fest steht inzwischen, dass das Fluggerät rund 200 Meter vom Ufer entfernt im Bereich des Bads Mythenquai ins Wasser gefallen und vermutlich versunken ist.“ (Tages-Anzeiger, 25. Januar 2019) Man muss sich der Gefahr von Kollisionen und Abstürzen intensiv widmen und sowohl den Streckenverlauf als auch die technischen Mittel überprüfen. Grundsätzlich ist der Drohneneinsatz in diesem Kontext zu begrüßen, und die Schweizerische Post fällt hier wie andernorts – beim SmartShuttle – durch Innovationen auf.

Abb.: Eine Drohne über dem Wasser

Hotel kündigt Robotern

Im Henn-na-Hotel in Sasebo in der Präfektur Nagasaki auf der japanischen Insel Kyushu „haben die Roboter mehr Arbeit gemacht, als sie selbst erledigt haben“. „Deshalb mussten viele von ihnen gehen.“ Dies meldete Golem am 16. Januar 2019. „In der Praxis zeigten sich die Roboter … oft nicht so nützlich. Wie Churi: Die etwas merkwürdig aussehende Puppe soll den Gast bei der Steuerung des Zimmers unterstützen: Auf Sprachbefehl reguliert sie etwa die Temperatur oder schaltet das Licht ein und aus. Das funktionierte allerdings oft nicht sehr gut … Ein Gast wurde nachts mehrfach von Churi geweckt – der Roboter interpretierte dessen Schnarchen als Ansprache und antwortete. Ein anderer wollte nach einer fruchtlosen Konversation mit dem Roboter entnervt die Rezeption anrufen – und stellte fest, dass es kein Telefon auf dem Zimmer gab. Denn für Fragen und Wünsche des Gastes ist der Churi da. Der Gast erreichte die Rezeption schließlich über sein Mobiltelefon.“ (Golem, 16. Januar 2019) Am Ende des Artikels von Werner Pluta wird das Ausmaß der Tragödie nochmals offenbar: „Inzwischen hat das Henn-na-Hotel mehr als die Hälfte seiner rund 250 Roboter stillgelegt.“ (Golem, 16. Januar 2019) Wie wir alle hoffen sie auf bessere Zeiten.

Abb.: Die Robotergewerkschaft ist informiert