Vernachlässigtes Handy

In einem weiteren KI-(Kunst-)Projekt wurde ein Haiku von Oliver Bendel angepasst, mit Hilfe von Google Translate ins Japanische übersetzt und mit Hilfe der Text-to-Speech-Engine von IBM Watson eingesprochen, unter Verwendung von SSML. Zuerst werden von Emi – so der Name der künstlichen Stimme – die Metainformationen durchgegeben, dann wird das Gedicht selbst vorgetragen. Dieses stammt aus dem Band „handyhaiku“ (1. Aufl. 2010, ein Buch, in dem jedes Gedicht zusätzlich in einem QR-Code steckt) und lautet dort so: „an den waenden mein / vernachlaessigtes handy / auf steckdosenjagd“ … Das Haiku kann über www.handyroman.net/handyhaiku/einstieg.html heruntergeladen werden (Link nicht mehr gültig). Das Projekt hat auch ethische Implikationen. Was bedeutet es, wenn Texte automatisch übersetzt werden? Bleiben sie verständlich? Können sie missverständlich sein? Können sie weitreichende Folgen haben? Was bedeutet es, wenn künstliche immer mehr menschliche Stimmen ablösen? Wenn sie in irgendeinem Sinne perfekt sind und der Mensch danach strebt, diese Perfektion zu erreichen? Oder wenn sie imperfekt sind und das Kind diese Imperfektion imitiert? Genau dies passiert bereits, wenn Pepper ein Familienmitglied in Japan ist, wie Aldebaran bzw. SoftBank vor einiger Zeit auf einer Konferenz in Krakau mitteilte.

Abb.: Mit dem Handy unterwegs in Osaka