Kategorie: Projekte

Alexa verschickt Privatgespräch

“Amazon spricht von einer ‘unwahrscheinlichen’ Verkettung von Ereignissen: Ein Paar aus den USA berichtet, ihr Alexa-Lautsprecher habe ein Gespräch in seiner Wohnung aufgenommen und dann ungefragt an einen Kontakt im Adressbuch verschickt.” (SPON, 25. Mai 2018) In Wirklichkeit ist diese Verkettung von Ereignissen gar nicht so unwahrscheinlich. Es fängt an beim Codewort. Oliver Bendel hat 2015 in seinem Artikel “Der kleine Lauschangriff: Auditive Systeme aus Sicht der Ethik” für Telepolis geschrieben: “Das Codewort ist der nicht ganz ungebräuchliche Mädchenname ‘Alexa’.” Dass man das System versehentlich aktivieren kann, weil man diesen Namen (oder ein ähnliches Wort) sagt, war jederzeit klar. Was dann kam, hat man schon bei verschiedenen Konferenzen beobachtet. Wenn der Redner dort Alexa oder Google Assistant erwähnt, setzen sich im Zuschauerraum mehrere Smartphones in Betrieb. Die Assistenten werden durch die Begriffe aufgeweckt und werten die Rede laufend aus. Dann beginnen sie selbst zu sprechen. Und warten auf Aussagen, die sie als Anweisungen verstehen. Es kann sich alles Mögliche daraus ergeben. Alexa hat eben ein Privatgespräch aufgezeichnet und verschickt. Zum Glück ging es nur um “Holzfußböden” (SPON, 25. Mai 2018).

Abb.: Gespräche konnte man schon immer belauschen

Drittes Meeting der Audi-KI-Initiative

“Künstliche Intelligenz (KI) wird unsere Mobilität, unsere Arbeitswelt und unser Leben substanziell verändern.” (Website Beyond) So beginnt ein Text auf der Website zur Beyond-Initiative von Audi, die von Rupert Stadler ausgeht. Das Ziel sei es, dass KI zum Wohl der Gesellschaft eingesetzt wird. “Im Fokus stehen die ethischen, rechtlichen und gesellschaftlichen Aspekte beim autonomen Fahren und die Zukunft der Arbeit im KI-Zeitalter.” (Website Beyond) Man hat “ein interdisziplinäres Netzwerk aus internationalen KI-Experten aufgebaut”. “Philosophen und Psychologen treffen auf Software-Ingenieure, Start-Up-Unternehmer und Rechtsexperten.” (Website Beyond) Bei Audi zeigt man sich überzeugt: Um die “KI-Transformation” (Website Beyond) zu gestalten, müssen Wirtschaft, Wissenschaft, Politik und Gesellschaft zusammenspielen. Teil des Netzwerks sind u.a. Luciano Floridi, Kate Darling, Iyad Rahwan, Walter Brenner, Wendell Wallach und Oliver Bendel. Das nächste Treffen mit Rupert Stadler findet am 10. Juli 2018 statt.

Abb.: KI und philosophische Ethik haben nichts mit Göttern zu tun

 

Das ROBOPROF-Projekt

Im Frühjahr 2014 fragte Oliver Bendel bei der Gebert Rüf Stiftung nach, ob sie das ROBOPROF-Projekt finanzieren würde. “Dieses Projekt soll untersuchen, ob und wann ein relativ einfach, aber programmiertechnisch und allgemeintechnisch erweiterbarer Roboter als Avatar in der Lehre fungieren kann. Der Roboter kann die Studierenden ansprechen, sie beobachten, er kann den Beamer bedienen etc. Es spielen technische Fragen (Bewegung, Interaktion) ebenso eine Rolle wie Akzeptanzfragen. Und es spielen moralische Fragen eine Rolle: Behandelt man über den Avatar die Studierenden anders, und wird man als Professor anders behandelt? Im Projekt wird ein käuflicher, erweiterbarer Roboter eingesetzt. Es sollen Erkenntnisse für den Lehrbetrieb in der Schweiz resultieren.” (Projektskizze) Die Stiftung lehnte ab, weil das Projekt nicht mehr in ihr Portfolio passe. Inzwischen werden Roboter an verschiedenen Orten als Lehrer und Assistenten eingesetzt, etwa in Schulen in Singapur. Auch Hiroshi Ishiguro nimmt seinen Geminoid in den Unterricht mit. Nun will die FHNW erste Erfahrungen in diesem Bereich sammeln und schreibt eine Teilzeitstelle aus. “Die Entwicklung und forschungs­basierte Erprobung von Lehr-/Lernszenarien, in denen Roboter in der Hoch­schul­lehre und Weiterbildung zum Einsatz kommen, wird im Zentrum Ihrer Auf­gaben stehen.” (Stellenanzeige)

Zehn Regeln für gute virtuelle Assistenten

2013 wurden für eine Maschine mit natürlichsprachlichen Fähigkeiten sieben Metaregeln entwickelt, an die sie sich halten sollte. Diese sind so aktuell wie nie zuvor, seit Google Duplex durch die Medien geistert und Entwickler wie Benutzer beschäftigt. Eine Regel des GOODBOT lautete, er solle dem Benutzer klarmachen, dass er eine Maschine ist, eine andere, er solle nicht lügen. Es folgte, ebenfalls im Kontext der Maschinenethik, das LIEBOT-Projekt (2016), mit dem Erkenntnisse zu Vertrauenswürdigkeit und Verlässlichkeit, auch in Bezug auf Quellen, verbunden waren. Momentan entwickelt Oliver Bendel den BESTBOT. Alle drei Maschinen wurden im Rahmen der AAAI Spring Symposia (2016 – 2018) an der Stanford University sowie auf der ISAIM 2018 in Fort Lauderdale vorgestellt, der LÜGENBOT auch auf Konferenzen in Krakau (2016) und München (2016). Vor dem Hintergrund der bisherigen Projekte und in Anbetracht der jüngsten Entwicklungen – Google Assistant bzw. Duplex wurde erwähnt, aber auch Siri und Alexa haben neuartige Fähigkeiten – verfasste Oliver Bendel zehn Regeln (oder Metaregeln), die eine Diskussionsgrundlage sein sollen, mit Blick auf (auch moralisch) gute virtuelle Assistenten und Chatbots (die sozusagen eine Selbstverpflichtung abgeben). Sie sind insgesamt nicht erschöpfend (so wird etwa nicht auf die Stimme eingegangen), und sie sind jeweils nicht immer ausreichend, aber sie bieten Leitplanken und einen Ausgangspunkt für Richtlinien. Speziell für Sprachassistenten bietet sich das Moralmenü (MOME) an.

Abb.: Zehn Regeln für gute Maschinen

Menschenähnlich aussehen und sprechen

“Dass es nur Kunst war, verdeckte die Kunst”, schrieb Ovid über die von Pygmalion geschaffene, menschenähnliche Elfenbeinskulptur, die dann von Aphrodite, in die er eigentlich verliebt war, zum Leben erweckt wurde. Galatea war sogar fruchtbar, anders als ihre Nachfolgerinnen, Liebespuppen wie Harmony und Sexroboter wie Roxxxy. Die natürliche Sprache ist beiden gegeben, und in den letzten Jahren hat man versucht, diese noch natürlicher wirken zu lassen. Oliver Bendel hat untersucht, wie man die Speech Synthesis Markup Language (SSML) zur Manipulation der synthetischen Stimme von Liebespuppen, Sexrobotern und allgemein Servicerobotern gebrauchen kann. Er schlug neue Tags, Attribute und Werte vor, die eine belegte Stimme und auch ein Seufzen und Stöhnen möglich machen. Amazon hat Alexa das Flüstern beigebracht, ebenfalls mit SSML. Google Assistant soll in Zukunft dazu dienen, in Restaurants und Frisörsalons anzurufen (das Projekt wird Duplex genannt). Damit kann man mit einer High-End-Technologie ganz normale Telefone auf der ganzen Welt bedienen und private Aufgaben automatisieren. Die Stimme klingt sehr lebensecht, und das Sprechen überhaupt, auch weil “Ähs” und “Mmhs” vorkommen, wie bei echten Menschen. In der Imperfektion könnte der Schlüssel zur Perfektion liegen. Ein Roboter, der für die Promotion von “Westworld” geschaffen wurde, mit Unregelmäßigkeiten und Haaren im Gesicht, wirkt besonders authentisch, mehr als Harmony und Co. Dass es nur Kunst ist, wird die Kunst immer mehr und immer besser verdecken.

Abb.: Puppen beim Plantschen und Plaudern

Relaunch des Wirtschaftslexikons

Das Gabler Wirtschaftslexikon gilt laut Springer seit Jahrzehnten als Klassiker der Wirtschaftsliteratur. “Seit 2009 gibt es das Werk als frei zugängliches Online-Angebot mit erweitertem Nutzungsangebot. Mit mehr als 25.000 Stichworten steht mit dem Gabler Wirtschaftslexikon die größte deutschsprachige Auswahl an betriebswirtschaftlich-lexikalischem Know-how im Internet zur Verfügung – von über 200 ausgewiesenen Fachexperten geschrieben und kontinuierlich redaktionell geprüft. Springer Gabler stellt damit Expertenwissen online, das wissenschaftlich zitierfähig ist und sich vom wachsenden Angebot ungesicherten Wissens in Form von freien nicht weiter geprüften Inhalten im Internet unterscheidet.” (Website Gabler Wirtschaftslexikon) Im Frühjahr 2018 erfolgte der visuelle und strukturelle Relaunch. Das Online-Nachschlagewerk wirkt nun aufgeräumter und moderner. Der derzeit am häufigsten aufgerufene Begriff ist “Digitalisierung” von Prof. Dr. Oliver Bendel (in diesem Beitrag wird auch auf Informationsethik eingegangen), gefolgt von “Benchmarking” (Prof. Dr. Klaus Wübbenhorst).

Abb.: Hitliste des Wirtschaftslexikons (Quelle: Springer)

Postdoc Working on Information Ethics

According to the website, the Health Ethics and Policy Lab is a multidisciplinary research group established in 2017 at the Department of Health Sciences and Technology at ETH Zurich. The work focuses on the ethical, legal, societal, and policy implications of artificial intelligence, precision medicine, biotechnology, and digital health. The Health Ethics and Policy Lab is now looking for a postdoctoral researcher to work with Prof. Prof. Dr. Effy Vayena and her team “on a research project examining the legal and ethical challenges related to data sharing in digital health” (Website). “In particular, the project will explore the applicability of blockchain technology to medical data sharing and its impact on privacy and security. The research project is funded within the Personalized Health and Related Technologies (PHRT) scheme, a strategic focus area of the ETH Domain.” (Website) More information and application via apply.refline.ch/845721/6202/pub/2/index.html.

Kopflose Roboter

“Die ersten Lieferroboter sind seit einiger Zeit im Einsatz, unter anderem auch hierzulande: Einige rollen …, andere fliegen … Sie haben aber gemeinsam, dass sie nicht in ein oberes Stockwerk liefern können. Das will das US-Unternehmen Agility Robotics ändern.” Dies schreibt Werner Pluta am 3. Mai 2018 in Golem. Und weiter: “Agility Robotics hat einen Laufroboter entwickelt, der künftig wie ein menschlicher Bote die Pizza oder den Einkauf auch bis in eines der oberen Stockwerke bringen kann. Allerdings muss sich der Belieferte auf einen etwas merkwürdigen Anblick gefasst machen: Cassie, benannt nach dem Laufvogel Kasuar, … besteht nur aus Beinen – und erinnert so an die merkwürdigen Schilderungen aus dem Mittelalter von Acephalen, Menschen, die keinen Kopf haben und stattdessen das Gesicht auf dem Bauch tragen. Ein Lieferroboter ohne Arme macht sich jedoch nicht so gut. Die nächste Version … wird deshalb nicht nur Beine, sondern auch Arme haben.” (Golem, 3. Mai 2018) Cassie löst ein Problem, das die kleinen, rollenden Paket- und Transportroboter von Starship Technologies haben: Er ist keine Stolperfalle. Dafür kann man mit ihm zusammenprallen wie mit dem K5 von Knightscope, wobei die Verletzungsgefahr, wenn Arme vorhanden sind, noch größer sein könnte. Wie bei jedem Serviceroboter dieser Art wird die Komplexität im öffentlichen Raum erhöht. Einen vielversprechenden Ansatz verfolgt man mit Transportdrohnen, die die Ware auf dem Dach eines Gebäudes ablegen. Dort kann der Empfänger sie abholen, ganz egal, in welchem Stockwerk er wohnt.

Abb.: Eine kopflose Schaufensterpuppe

Gutachten zu ethischen Standards für Big Data

Das Gutachten “Ethische Standards für Big Data und deren Begründung” (Prof. Dr. Stefan Selke zusammen mit Dr. Peter Biniok, Dr. Johannes Achatz und Elisabeth Späth) ist “der Versuch, eine vorläufige Antwort auf die Frage zu geben, in welchem Umfang die gegenwärtige Debatte über Big Data von Bezügen auf ethische Standards geprägt ist”. “Damit wird zugleich die Frage gestellt, wie ethische Standards in Zukunft zur fairen Ausbalancierung zwischen starrer Regulation einerseits und totale Flexibilisierung andererseits von Nutzen sein könnten. Ethische Standards werden dabei in einer wissenssoziologischen Perspektive sowohl als implizite Begründungsmuster als auch als explizite kommunikative Gattung aufgefasst, deren Funktion sich u. a. darin begründet, Anschlussfähigkeit zwischen unterschiedlichen gesellschaftlichen Teilsystemen herzustellen und dauerhaft zu erhalten.” (Gutachten Big Data) Als Expertinnen und Experten standen u.a. Prof. Dr. Oliver Bendel, Prof. Dr. Dirk Helbing, Prof. Dr. Petra Grimm, Yvonne Hofstetter, Prof. Dr. Viktor Mayer-Schönberger und Prof. Dr. Oliver Zöllner zur Verfügung. Das Gutachten wurde im Rahmen des ABIDA-Projekts mit Mitteln des Bundesministeriums für Bildung und Forschung (BMBF) erstellt und kann hier heruntergeladen werden.

Abb.: Ethische Standards zu Big Data sind notwendig

Siri und die Mundart

Im Sommer 2012 erschien der Artikel “Siri ist hier.”, mit dem Untertitel “Der Sprachassistent von Apple in der Schweiz aus linguistischer und ethischer Sicht”. Mit Schweizerdeutsch kam Siri damals nicht zurecht. Oliver Bendel erklärte: “Es wäre sicherlich nicht ganz einfach, dem Sprachassistenten auf der Ebene der Aussprache und Betonung die schweizerischen Gepflogenheiten nahezubringen. Er könnte dazulernen; aber dazu müsste er in der Lage sein, semantische Beziehungen zu knüpfen (und damit zu realisieren, dass das Chuchichäschtli ein kleiner Küchenschrank ist). Wenn der Benutzer in der Schweiz nicht weiß, dass man ‘Serie’ auch anders aussprechen kann, kann Siri allenfalls eine Menge von mehr oder weniger sinnvollen Alternativen – oder kluge Rückfragen – unterbreiten. Ob man mit diesen immer etwas anfangen kann, sei dahingestellt. Auch auf der lexikalischen Ebene weiß nicht jeder Benutzer, dass Alternativen existieren. Nicht in allen Fällen werden Helvetismen – dies haben mir viele Gespräche gezeigt – als solche erkannt.” Inzwischen ist man weiter: “Zwei Start-ups aus dem Wallis, Keylemon und recapp, haben zur Entwicklung der neuen Swisscom TV-Box beigetragen, die erstmalig Spracherkennung auch für Deutschschweizer Dialekte bietet.” (Website recapp) Siri aber beherrscht nach wie vor keine Mundart. Dies hat erst kürzlich die Handelszeitung thematisiert, wobei sie auch erwähnt, dass man das Problem heute mit Lösungen von Firmen wie recapp angehen könnte.

Abb.: Versteht mich Siri?

The Chatbot that Uses Face Recognition

Machine ethics researches the morality of semiautonomous and autonomous machines. The School of Business at the University of Applied Sciences and Arts Northwestern Switzerland FHNW realized a project for implementation of a prototype called GOODBOT, a novelty chatbot and a simple moral machine. One of its meta rules was it should not lie unless not lying would hurt the user. It was a stand-alone solution, not linked with other systems and not internet- or web-based. In the LIEBOT project, the mentioned meta rule was reversed. This web-based chatbot, implemented in 2016, could lie systematically. It was an example of a simple immoral machine. A follow-up project in 2018 is going to develop the BESTBOT, considering the restrictions of the GOODBOT and the opportunities of the LIEBOT. The aim is to develop a machine that can detect problems of users of all kinds and can react in an adequate way. To achieve this, it will use approaches of face recognition. The paper “From GOODBOT to BESTBOT” describes the preconditions and findings of the GOODBOT project and the results of the LIEBOT project and outlines the subsequent BESTBOT project. A reflection from the perspective of information ethics is included. Oliver Bendel presented his paper on 27 March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series). The PDF is available here.

Vernachlässigtes Handy

In einem weiteren KI-(Kunst-)Projekt wurde ein Haiku von Oliver Bendel angepasst, mit Hilfe von Google Translate ins Japanische übersetzt und mit Hilfe der Text-to-Speech-Engine von IBM Watson eingesprochen, unter Verwendung von SSML. Zuerst werden von Emi – so der Name der künstlichen Stimme – die Metainformationen durchgegeben, dann wird das Gedicht selbst vorgetragen. Dieses stammt aus dem Band “handyhaiku” (1. Aufl. 2010, ein Buch, in dem jedes Gedicht zusätzlich in einem QR-Code steckt) und lautet dort so: “an den waenden mein / vernachlaessigtes handy / auf steckdosenjagd” … Das Haiku kann über www.handyroman.net/handyhaiku/einstieg.html heruntergeladen werden. Das Projekt hat auch ethische Implikationen. Was bedeutet es, wenn Texte automatisch übersetzt werden? Bleiben sie verständlich? Können sie missverständlich sein? Können sie weitreichende Folgen haben? Was bedeutet es, wenn künstliche immer mehr menschliche Stimmen ablösen? Wenn sie in irgendeinem Sinne perfekt sind und der Mensch danach strebt, diese Perfektion zu erreichen? Oder wenn sie imperfekt sind und das Kind diese Imperfektion imitiert? Genau dies passiert bereits, wenn Pepper ein Familienmitglied in Japan ist, wie Aldebaran bzw. SoftBank vor einiger Zeit auf einer Konferenz in Krakau mitteilte.

Abb.: Mit dem Handy unterwegs in Osaka

Cue trifft den Korb

Im Rahmen von connectUS besuchten die Studierenden und Dozierenden bzw. Forschenden der FHNW im Jahre 2017 auch ein Basketballspiel in Oakland. In der ersten Reihe saß Drake, ein kanadischer Rapper, der mindestens so viel Aufmerksamkeit erregte wie das übrige Geschehen. In der ersten Reihe könnten in der Zukunft auch Roboter sitzen, die von den Spielern lernen. Und die dann aufstehen, mitmischen und dabei weiterlernen. Golem berichtete am 16. März 2018 über Cue, einen 1,90 Meter großen, humanoiden Sportroboter, der aus einem Aluminiumskelett besteht, über das eine Kunststoffhaut gezogen wurde. “Er steht auf einer kleinen Plattform, in der die Steuerung untergebracht ist. Als Vorbild nahmen die Toyota-Techniker, die den Roboter in ihrer Freizeit gebaut haben, Sakuragi Hanamichi, eine Figur aus der Manga-Serie Slam Dunk.” (Golem, 16. März 2018) Im Moment kann Cue vor allem eins, nämlich den Ball im Korb versenken. Der Basketballroboter “wirft aus einer Entfernung von etwa 3,6 Metern auf den Korb”. “Gesteuert wird er dabei durch künstliche Intelligenz. Um ihn zu trainieren, ließen ihn die Entwickler 200.000 Mal auf den Korb werfen. Inzwischen ist Cue absolut schusssicher.” (Golem, 16. März 2018) Ein besonders guter Mitspieler wäre er laut Golem dennoch nicht: “Er kann nicht laufen. Für ein dynamisches Spiel eignet er sich demnach nicht. Aber er könnte jeweils für Freiwürfe eingewechselt werden.” (Golem, 16. März 2018) Bis Basketballspieler arbeitslos werden, dauert es also noch eine Weile.

Abb.: Cue trifft besser als ein Mensch

Social Bots und Cyborgs im Abstimmungskampf

“Wissenschaftlerinnen und Wissenschaftler der Hochschule für Wirtschaft FHNW erforschten in einem Projekt, ob Social Bots oder Cyborgs die No-Billag-Abstimmung in der Schweiz zu beeinflussen versuchten. Social Bots sind in sozialen Medien wie Facebook und Twitter unterwegs. Wenn sie Meinungen verbreiten bzw. beeinflussen sollen, nennt man sie auch Meinungsroboter. Cyborgs sind im vorliegenden Zusammenhang reale Nutzer, die ihr Kommunikationsvolumen mit Automatisierungstools steigern. Im Projekt wurde auf die Kommunikation zur Abstimmung auf Twitter fokussiert.” (Medienmitteilung FHNW) Untersucht wurde die heiße Phase der Abstimmung vom 7. Januar bis zum 4. März 2018 (Abstimmungssonntag). In diesen gut acht Wochen gab es auf Twitter knapp 200000 Wortmeldungen (Tweets, Retweets, Replies) zur Abstimmung. Sie stammten von 26000 Accounts, von denen 19.5 % Befürworter und 80.5 % Gegner der Initiative waren. “Pro- und Contra-Tweets traten hingegen im Verhältnis 35:65 auf. Die Gegner der Initiative konnten mehr Personen mobilisieren, die Befürworter vermochten dies mit erhöhter Betriebsamkeit auszugleichen.” (Medienmitteilung FHNW) Das Forschungsprojekt wird mit Mitteln der Hasler Stiftung finanziert. Die Projektleitung haben Prof. Dr. Stefan Gürtler (Datenerhebung und -auswertung) und Prof. Dr. Oliver Bendel (Abschlussbericht) inne. Die ausführliche Meldung ist hier zu finden.

Abb.: Ein Cyborg-Girl an einer Wand an der Limmat in Zürich

Social Bots und No-Billag-Initiative

Ein Team der Hochschule für Wirtschaft FHNW (Prof. Dr. Stefan Gürtler, Prof. Dr. Oliver Bendel, Dr. Elzbieta Pustulka und Matthias Binz) untersucht den Einfluss von Social Bots im Kontext der No-Billag-Initiative. Aus der Projektbeschreibung: “Soziale Medien gewinnen bei der öffentlichen Meinungsbildung an Bedeutung. Ebenso nimmt deren Beeinflussung durch technische Mittel zu. Verschiedene Untersuchungen haben das Ausmaß und das Gefahrenpotenzial von sogenannten Meinungsrobotern aufgezeigt, die … politische Diskussionen mit maschinell erzeugter Kommunikation überschwemmen. Eine freie Meinungsbildung ist unabdingbare Grundvoraussetzung für eine funktionierende demokratische Gesellschaft. Sie muss vor manipulativen Eingriffen geschützt werden. Ein erster Schritt zu ihrem Schutz ist die Erprobung eines algorithmischen Suchverfahrens, wie es bereits in anderen Ländern zur erfolgreichen Detektion von Meinungsrobotern eingesetzt wurde. Eine nächste Gelegenheit bietet die kontroverse Kommunikation rund um die No-Billag-Initiative.” Erste Ergebnisse der Untersuchung, die von einer Schweizer Stiftung finanziert wird, liegen ab März 2018 vor. Ein Bericht folgt im Sommer dieses Jahres.

Abb.: Ein Sendemast in den Bergen

Automatisiertes Fahren in der Schweiz

“Die zunehmende Digitalisierung hat das Potenzial, die Schweizer Verkehrslandschaft in den kommenden Jahren umfassend zu verändern. Durch automatisiertes und vernetztes Fahren verspricht die intelligente Mobilität gesteigerte Verkehrseffizienz, effektiver genutzte Infrastrukturen und mehr Verkehrssicherheit.” Doch die “automatisierte Mobilität” verlange auch eine entsprechende (Daten-)Infrastruktur und “Anpassungen der Regulierungen” – und “wirft Fragen zu Ethik und Datenschutz auf” (Website TA-SWISS). So beginnt die Information zu einer neuen Ausschreibung von TA-SWISS. Im Vorfeld hatte die Einrichtung, die Entscheidungsgrundlagen für Parlament und Bundesrat erarbeitet, mehrere Experten nach Bern eingeladen und sich von ihnen beraten lassen, unter ihnen der Ethiker und Wirtschaftsinformatiker Oliver Bendel (Hochschule für Wirtschaft FHNW) und der Jurist Herbert Zech (Universität Basel). Den vollständigen Ausschreibungstext und die -unterlagen findet man über www.ta-swiss.ch. Offerten können bis 31. März 2018 eingereicht werden.

Abb.: In den Alpen unterwegs

Vom GOODBOT zum BESTBOT

Ende 2017 wurde an der Hochschule für Wirtschaft FHNW der Entschluss gefasst, das GOODBOT-Projekt von 2013 wiederaufzunehmen und das Dialogsystem zum BESTBOT weiterzuentwickeln. Inzwischen ist ein regelrechter Hype um Chatbots ausgebrochen. Nicht zuletzt hat das LIEBOT-Projekt von 2016 (Vorarbeiten seit 2013) gezeigt, dass mit einfachsten Mitteln größte Wirkungen zu erzielen sind. Der Chatbot war kein selbstlernendes, aber ein stark vernetztes System. Die Grundüberlegung für den BESTBOT ist, dass er noch besser als der GOODBOT Probleme des Benutzers erkennen und darauf reagieren soll. Damit liegt nahe, dass er nicht nur auf textuelle Eingaben reagiert, sondern auch auf haptische und auf visuelle Eindrücke. Es sollen Ergebnisse aus dem LIEBOT-Projekt umgesetzt werden, um Verlässlichkeit und Vertrauenswürdigkeit zu steigern. Es sollen insgesamt vorhandene Erkenntnisse und Projekte genutzt und neue Ansätze entwickelt werden, in einem weiteren Praxisprojekt, dessen Beginn für Anfang 2018 terminiert wurde. Der BESTBOT wird nach dem GOODBOT, dem LIEBOT und LADYBIRD (2017, Vorarbeiten seit 2014) das vierte Artefakt der Maschinenethik sein, das nach Ideen und Vorgaben von Oliver Bendel umgesetzt wird.

Abb.: Der beste Bot aller Zeiten

Avenidas

“Ein Gedicht sorgt für Aufregung. Es ist ein schlichtes Gedicht an einer Wand der Alice-Salomon-Hochschule in Berlin. Es ist in Spanisch und stammt aus dem Jahr 1953. Es ist dort an der Giebelwand seit 2011. Eugen Gomringer, Schriftsteller und Begründer der Konkreten Poesie, hatte es, nachdem er den Alice Salomon Poetik Preis 2011 erhalten hat, der Hochschule übergeben.” So Peter Epperlein in Telepolis vom 30. Oktober 2017. “Trotz seiner Größe von 15 Metern Höhe und 14 Metern Breite wurde es von der breiten Öffentlichkeit kaum beachtet, bis der AStA, die Studentenvertretung, daran Anstoß genommen hat. Es sei frauenverachtend und sollte daher übermalt werden. Die Frau würde als Objekt dargestellt werden. Das Subjekt, der Handelnde sei wieder einmal der Mann. Dies würde die Frauen an die Übergrifflichkeit der Männer, den täglichen Sexismus erinnern, und sei daher ein Symbol der Frauenunterdrückung.” (Telepolis, 30. Oktober 2017) Das Gedicht liegt nun in einer neuen Fassung von Oliver Bendel vor, wurde von einer Roboterfrau namens Laura eingesprochen (zur Gestaltung wurde SSML verwendet) und kann hier heruntergeladen werden. Weitere Robotergedichte über handyroman.net/handyhaiku/einstieg.html.

Abb.: Eine Allee in New York

Neom, die neue Zukunft

2004 erfanden Oliver Bendel und Michael Gerhard am Fraunhofer ISST in Dortmund spezielle Avatare für das Handy. Die Idee gefiel Klaus Kleinfeld, der kurz darauf Chef von Siemens wurde, so gut, dass er einen Mitarbeiter einfliegen ließ. Der jeweilige Avatar sollte Smileys umsetzen können. Wenn in der SMS ein zwinkerndes Smiley vorkommen würde, würde er selbst zwinkern. Wenn eine ASCII-Art-Rose vorhanden wäre, würde er dem Benutzer eine Rose überreichen, vielleicht eine echt wirkende, mit Blütenblättern und Dornen. Zudem sollten Morphingfunktionen vorhanden sein, zu beziehen wie Klingeltöne (s. Oliver Bendel, “Die Rache der Nerds”, S. 158 f.). Als einige Zeit später Siemens die Handysparte abstieß, begruben auch die beiden Wissenschaftler ihren Traum. Mit Neom (das “m” steht für “Mustaqbal”, “Zukunft”) entsteht in Saudi-Arabien “ein neues Land, in dem es mehr Roboter als Menschen geben könnte” (Spiegel Online, 28. Oktober 2017). Und weiter in der Zeitschrift: “Die treibende Kraft hinter ‘Neom’ ist Mohammed bin Salman, der saudische Kronprinz. Er will das Land mit der ‘Vision 2030′ wirtschaftlich und gesellschaftlich reformieren. Um den Traum von seinem Phantasialand zu erfüllen, hat er sich Expertise aus Deutschland geholt – Klaus Kleinfeld.”

Abb.: In einem anderen arabischen Land

Wenn Algorithmen für uns entscheiden

“Künstliche Intelligenz (KI) ist seit den 1960er-Jahren im Trend. Durch das Aufkommen der Deep-Learning-Technologie konkretisierten sich die Erwartungen an Algorithmen und an sogenannt intelligente Systeme im Allgemeinen.” (Newsletter TA-SWISS) Heute befinde sich die “Algorithmentechnologie” mehrheitlich in der Hand amerikanischer Großkonzerne und sei “über deren Dienstleistungen allgemein zugänglich”. “Es stellen sich jedoch zahlreiche Fragen bezüglich Arbeitsplätzen, digitaler Governance und Souveränität, Ethik usw. Mit Blick auf die Zukunft ist auch Human Enhancement, d.h. die Fusion Mensch-Maschine, ein Thema.” (Newsletter TA-SWISS) Dies schreibt die TA-SWISS in einem Newsletter vom 13. Oktober 2017 mit Blick auf eine neue Ausschreibung. “TA-SWISS, Stiftung für Technologiefolgen-Abschätzung, setzt sich mit den Chancen und Risiken neuer Technologien auseinander. Dafür bringt TA-SWISS Expertinnen und Experten verschiedenster Fachrichtungen an einen Tisch und befragt Bürgerinnen und Bürger.” (Website) Den vollständigen Ausschreibungstext und die Ausschreibungsunterlagen findet man über www.ta-swiss.ch/projekte-und-publikationen/projekt-ausschreibungen/.