Schlagworte: Alexa

Alexa verschickt Privatgespräch

“Amazon spricht von einer ‘unwahrscheinlichen’ Verkettung von Ereignissen: Ein Paar aus den USA berichtet, ihr Alexa-Lautsprecher habe ein Gespräch in seiner Wohnung aufgenommen und dann ungefragt an einen Kontakt im Adressbuch verschickt.” (SPON, 25. Mai 2018) In Wirklichkeit ist diese Verkettung von Ereignissen gar nicht so unwahrscheinlich. Es fängt an beim Codewort. Oliver Bendel hat 2015 in seinem Artikel “Der kleine Lauschangriff: Auditive Systeme aus Sicht der Ethik” für Telepolis geschrieben: “Das Codewort ist der nicht ganz ungebräuchliche Mädchenname ‘Alexa’.” Dass man das System versehentlich aktivieren kann, weil man diesen Namen (oder ein ähnliches Wort) sagt, war jederzeit klar. Was dann kam, hat man schon bei verschiedenen Konferenzen beobachtet. Wenn der Redner dort Alexa oder Google Assistant erwähnt, setzen sich im Zuschauerraum mehrere Smartphones in Betrieb. Die Assistenten werden durch die Begriffe aufgeweckt und werten die Rede laufend aus. Dann beginnen sie selbst zu sprechen. Und warten auf Aussagen, die sie als Anweisungen verstehen. Es kann sich alles Mögliche daraus ergeben. Alexa hat eben ein Privatgespräch aufgezeichnet und verschickt. Zum Glück ging es nur um “Holzfußböden” (SPON, 25. Mai 2018).

Abb.: Gespräche konnte man schon immer belauschen

Virtuelle Assistenten

“Ein virtueller Assistent ist ein Dialogsystem, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Smartphone ebenso zu finden wie in Unterhaltungsgeräten und in Fahrzeugen.” Mit diesen Worten beginnt ein am 15. Mai 2018 erschienener Beitrag von Oliver Bendel im Wirtschaftslexikon von Gabler Springer. Erwähnt werden virtuelle Assistenten bzw. Sprachassistenten wie Siri, Cortana, Google Assistant (auch im Zusammenhang mit Google Duplex) und Alexa. Am Ende heißt es: “Mit Systemen wie Google Duplex kehren sich die Verhältnisse in gewisser Hinsicht um. Man nimmt einen Anruf entgegen, kommuniziert wie gewohnt, hat aber vielleicht, ohne es zu wissen, einen Computer am Apparat, keinen Menschen. Für Chatbots wurde bereits früh vorgeschlagen, dass diese klarmachen sollen, dass sie keine Menschen sind. Möglich ist es zudem, die Stimme roboterhaft klingen zu lassen, sodass kaum Verwechslungsgefahr besteht. Dies sind Themen für Informationsethik, Roboterethik und Maschinenethik und allgemein Roboterphilosophie.” (Gabler Wirtschaftslexikon) Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/virtueller-assistent-99509 aufgerufen werden.

Abb.: Wer ist dran?

Zehn Regeln für gute virtuelle Assistenten

2013 wurden für eine Maschine mit natürlichsprachlichen Fähigkeiten sieben Metaregeln entwickelt, an die sie sich halten sollte. Diese sind so aktuell wie nie zuvor, seit Google Duplex durch die Medien geistert und Entwickler wie Benutzer beschäftigt. Eine Regel des GOODBOT lautete, er solle dem Benutzer klarmachen, dass er eine Maschine ist, eine andere, er solle nicht lügen. Es folgte, ebenfalls im Kontext der Maschinenethik, das LIEBOT-Projekt (2016), mit dem Erkenntnisse zu Vertrauenswürdigkeit und Verlässlichkeit, auch in Bezug auf Quellen, verbunden waren. Momentan entwickelt Oliver Bendel den BESTBOT. Alle drei Maschinen wurden im Rahmen der AAAI Spring Symposia (2016 – 2018) an der Stanford University sowie auf der ISAIM 2018 in Fort Lauderdale vorgestellt, der LÜGENBOT auch auf Konferenzen in Krakau (2016) und München (2016). Vor dem Hintergrund der bisherigen Projekte und in Anbetracht der jüngsten Entwicklungen – Google Assistant bzw. Duplex wurde erwähnt, aber auch Siri und Alexa haben neuartige Fähigkeiten – verfasste Oliver Bendel zehn Regeln (oder Metaregeln), die eine Diskussionsgrundlage sein sollen, mit Blick auf (auch moralisch) gute virtuelle Assistenten und Chatbots (die sozusagen eine Selbstverpflichtung abgeben). Sie sind insgesamt nicht erschöpfend (so wird etwa nicht auf die Stimme eingegangen), und sie sind jeweils nicht immer ausreichend, aber sie bieten Leitplanken und einen Ausgangspunkt für Richtlinien. Speziell für Sprachassistenten bietet sich das Moralmenü (MOME) an.

Abb.: Zehn Regeln für gute Maschinen