Schlagworte: Google Duplex

Sprechende Maschinen

Schon vor tausenden Jahren träumte der Mensch davon, künstliche Kreaturen zu schaffen. Diese sollten seine Gehilfen sein, seine Begleiter, Geliebten und Krieger. Bei Homer und Ovid lernen wir sie kennen, schätzen und fürchten. Die meisten dieser Kreaturen, auch in Mittelalter, Renaissance und Barock, waren stumm. Damit wurde die Kluft zwischen ihnen und uns angedeutet. Eine Ausnahme bildeten die sprechenden Köpfe, die in die Zukunft blicken konnten. Heute tragen uns Text-to-Speech-Systeme die Inhalte von Websites vor, plaudern Sprachassistenten wie Siri und Alexa mit uns und melden sich Fahrzeuge laut und vernehmlich zu Wort. Ein weites Feld aus technischer, psychologischer und ethischer Perspektive. Der Artikel “Sprechende Maschinen” von Oliver Bendel, der im September 2018 in der UnternehmerZeitung erschienen ist, schlägt einen Bogen von der Antike bis zur Gegenwart und zeigt heutige Möglichkeiten und Herausforderungen bei synthetischen Stimmen auf. Der Beitrag kann hier heruntergeladen werden.

Abb.: Sprechende Menschen (mit Maschine)

Im Dialog mit Maschinen

“Keywords wie Digitalisierung, Künstliche Intelligenz und Big Data sind in aller Munde. Der Versicherungs- und Bankenmarkt steht unter ständiger Veränderung, Rahmenbedingungen ändern sich rapide und eine optimale Kundenbindung gewinnt zunehmend an Bedeutung. Doch worauf dürfen – und müssen – wir uns zukünftig einstellen?” (Einladung APRIL) Über diese und weitere Themen wird beim diesjährigen APRIL-Praxisforum in München am 26. September 2018 diskutiert. Die Keynote von Oliver Bendel aus Zürich trägt den Titel “Im Dialog mit Maschinen”. Ob iPal, Pepper oder Lio – viele Roboter verstehen uns und sprechen mit uns. Virtuelle Assistenten wie Siri und Cortana belauschen uns und klingen immer menschenähnlicher. Alexa kann dank SSML inzwischen flüstern. Mit SSML kann man grundsätzlich in die Stimme eingreifen, sie höher und tiefer, jünger und älter machen, sie zufrieden und unsicher klingen lassen. Bei Google Duplex wurde zudem die Sprechweise angepasst, wurden Unterbrechungen und Ähs eingebaut. Was ist der technische Stand bei der Sprachsynthese, was ist aus ethischer Sicht anzumerken? Auf solche Fragen gibt Oliver Bendel Antworten. Weitere Informationen über www.april.de/index.php?id=124.

Abb.: Kann er mich verstehen?

Google Duplex gibt sich zu erkennen

“Google hat ein neues Video seines telefonierenden Sprachassistenten veröffentlicht. Die … Funktion namens Duplex identifiziert sich jetzt eindeutig am Anfang eines Telefonats.” (Golem, 29. Juni 2018) Damit ist bei Google Duplex die erste der “10 Regeln für gute Maschinen” umgesetzt, die sich vor allem auf virtuelle Assistenten und Bots beziehen: “Ich, die Maschine, mache deutlich, dass ich eine Maschine bin.” Zudem wird die erste Funktion des Moralmenüs für Sprachassistenten berücksichtigt, als Voreinstellung, die sich nicht aushebeln lässt. Diese entspricht der Voreinstellung von LADYBIRD, der niemals Marienkäfer tötet. Golem schreibt weiter: “Damit unterscheidet sich die Funktion merklich von dem auf der I/O 2018 gezeigten Beispiel. Dort hatte der Assistant am Telefon keine Anstalten gemacht, sich als solcher zu erkennen zu geben.” Dies hatte für Kritik gesorgt. “Dabei spielten auch ethische Grundsätze eine Rolle: Ist es vertretbar, einen Menschen darüber im Unklaren zu lassen, dass er mit einem Computer spricht? Google hatte nach dem Aufkommen der Kritik versichert, dass sich Duplex eindeutig als nicht-menschlicher Gesprächspartner zu erkennen geben solle.” (Golem, 29. Juni 2018)

Abb.: Wer ist dran?

Virtuelle Assistenten

“Ein virtueller Assistent ist ein Dialogsystem, das Anfragen der Benutzer beantwortet und Aufgaben für sie erledigt, in privaten und wirtschaftlichen Zusammenhängen. Er ist auf dem Smartphone ebenso zu finden wie in Unterhaltungsgeräten und in Fahrzeugen.” Mit diesen Worten beginnt ein am 15. Mai 2018 erschienener Beitrag von Oliver Bendel im Wirtschaftslexikon von Gabler Springer. Erwähnt werden virtuelle Assistenten bzw. Sprachassistenten wie Siri, Cortana, Google Assistant (auch im Zusammenhang mit Google Duplex) und Alexa. Am Ende heißt es: “Mit Systemen wie Google Duplex kehren sich die Verhältnisse in gewisser Hinsicht um. Man nimmt einen Anruf entgegen, kommuniziert wie gewohnt, hat aber vielleicht, ohne es zu wissen, einen Computer am Apparat, keinen Menschen. Für Chatbots wurde bereits früh vorgeschlagen, dass diese klarmachen sollen, dass sie keine Menschen sind. Möglich ist es zudem, die Stimme roboterhaft klingen zu lassen, sodass kaum Verwechslungsgefahr besteht. Dies sind Themen für Informationsethik, Roboterethik und Maschinenethik und allgemein Roboterphilosophie.” (Gabler Wirtschaftslexikon) Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/virtueller-assistent-99509 aufgerufen werden.

Abb.: Wer ist dran?

Zehn Regeln für gute virtuelle Assistenten

2013 wurden für eine Maschine mit natürlichsprachlichen Fähigkeiten sieben Metaregeln entwickelt, an die sie sich halten sollte. Diese sind so aktuell wie nie zuvor, seit Google Duplex durch die Medien geistert und Entwickler wie Benutzer beschäftigt. Eine Regel des GOODBOT lautete, er solle dem Benutzer klarmachen, dass er eine Maschine ist, eine andere, er solle nicht lügen. Es folgte, ebenfalls im Kontext der Maschinenethik, das LIEBOT-Projekt (2016), mit dem Erkenntnisse zu Vertrauenswürdigkeit und Verlässlichkeit, auch in Bezug auf Quellen, verbunden waren. Momentan entwickelt Oliver Bendel den BESTBOT. Alle drei Maschinen wurden im Rahmen der AAAI Spring Symposia (2016 – 2018) an der Stanford University sowie auf der ISAIM 2018 in Fort Lauderdale vorgestellt, der LÜGENBOT auch auf Konferenzen in Krakau (2016) und München (2016). Vor dem Hintergrund der bisherigen Projekte und in Anbetracht der jüngsten Entwicklungen – Google Assistant bzw. Duplex wurde erwähnt, aber auch Siri und Alexa haben neuartige Fähigkeiten – verfasste Oliver Bendel zehn Regeln (oder Metaregeln), die eine Diskussionsgrundlage sein sollen, mit Blick auf (auch moralisch) gute virtuelle Assistenten und Chatbots (die sozusagen eine Selbstverpflichtung abgeben). Sie sind insgesamt nicht erschöpfend (so wird etwa nicht auf die Stimme eingegangen), und sie sind jeweils nicht immer ausreichend, aber sie bieten Leitplanken und einen Ausgangspunkt für Richtlinien. Speziell für Sprachassistenten bietet sich das Moralmenü (MOME) an.

Abb.: Zehn Regeln für gute Maschinen