Schlagworte: Chatbot

Social Bots und Chatbots

“Social Bots sind Bots, also Softwareroboter bzw. -agenten, die in sozialen Medien (Social Media) vorkommen. Sie liken und retweeten, und sie texten und kommentieren, können also natürlichsprachliche Fähigkeiten haben. Sie können auch als Chatbots fungieren und damit mit Benutzern synchron kommunizieren. Social Bots werden zur Sichtbarmachung und Verstärkung von Aussagen und Meinungen eingesetzt. Dabei können sie werbenden Charakter besitzen bzw. politische Wirkung entfalten.” So lautet die Kurzfassung eines neuen Beitrags im Wirtschaftslexikon von Springer Gabler. Dazu passt ein anderer Text von Oliver Bendel über Chatbots, der wie folgt zusammengefasst wird: “Chatbots oder Chatterbots sind Dialogsysteme mit natürlichsprachlichen Fähigkeiten textueller oder auditiver Art. Sie werden, oft in Kombination mit statischen oder animierten Avataren, auf Websites verwendet, wo sie die Produkte und Dienstleistungen ihrer Betreiber erklären und bewerben respektive sich um Anliegen der Interessenten und Kunden kümmern.” Es wird jeweils auch auf die Perspektive der Informationsethik und der Maschinenethik eingegangen. Die beiden Beiträge, die am 1. Februar 2017 erschienen sind, können über wirtschaftslexikon.gabler.de/Definition/social-bots.html bzw. wirtschaftslexikon.gabler.de/Definition/chatbot.html aufgerufen werden.

Abb.: Social Bots sind in den Social Media zu finden

Die Macht der Meinungsroboter

Der Artikel “So erkennen Sie Meinungsroboter” von Teresa Sickert widmet sich dem Phänomen der Social Bots. “Social Bots sind Programme, die in sozialen Netzwerken menschliche Nutzer simulieren – etwa zur politischen Stimmungsmache. Das klappt mal mehr und mal weniger gut. Diese Tipps helfen, Bots zu entlarven.” (Spiegel Online, 19. Januar 2017) Und weiter: “Meinungsroboter haben ein Imageproblem. Seit dem US-Wahlkampf wird lebhaft über sogenannte Social Bots diskutiert, über Accounts, die nur so wirken, als stecke ein menschlicher Nutzer dahinter. Auf Plattformen wie Twitter tweeten, liken und retweeten mittlerweile ganze Netze von automatisierten Accounts.” (Spiegel Online, 19. Januar 2017) Zitiert wird mehrmals Oliver Bendel, der sich als Maschinenethiker mit guten und bösen Chatbots befasst und solche auch baut. 2013 ist der GOODBOT entstanden, 2016 der LÜGENBOT. Diesen rechnet er zu den Münchhausen-Maschinen. Am Rande befasst er sich mit Vervielfältigungs- und Meinungsmaschinen wie den Social Bots. Bei einem Vortrag an der Universität Zürich Ende 2016 hat er deren Chancen und Risiken skizziert. Der Artikel ist abrufbar über www.spiegel.de/netzwelt/web/social-bots-entlarven-so-erkennen-sie-meinungsroboter-a-1129539.html.

Abb.: Die Bots lachen sich tot

Wie viel Mensch soll in der Maschine stecken?

In der neuen Ausgabe von RED, dem Magazin der Schweizer Börse SIX, sind Frank M. Rinderknecht von Rinspeed und Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW im Gespräch. Bereits im Juli 2016 traf man sich in der Werkstatt in Zumikon, in der es von futuristischen Fahrzeugen nur so wimmelt. Man stieg in diese hinein und aus diesen wieder heraus – und rollte zusammen die mächtigen Räder. Die Bilder dazu findet man in dem vierseitigen Beitrag mit dem Titel “Wie viel Mensch soll in der Maschine stecken?”. Iris Kuhn-Spogat fragte im Büroraum bei Kaffee und Wasser nach autonomen Autos, maschinellen Entscheidungen und verrückten Erfindungen. Ihre Gesprächspartner waren sich in vielen Dingen einig. Man liebt das Spielerische, Verrückte, man versucht das scheinbar Unmögliche, bei der Entwicklung von Roboterautos und Amphibienfahrzeugen sowie von guten und bösen Chatbots. SIX und Rinspeed haben schon mehrmals zusammengearbeitet. Ein Video – abrufbar über six.swiss/rinspeed – gibt Einblicke, nicht zuletzt in die Werkstatt. Auch Oliver Bendel und die Finanzexperten haben sich bereits einmal getroffen, bei seinem Vortrag über Maschinenethik an der Börse in Zürich. Der Beitrag wurde von den Verantwortlichen freundlicherweise zur Verfügung gestellt und kann als PDF heruntergeladen werden.

Abb.: Wie menschlich soll der Roboter sein?

Von ELIZA zum GOODBOT

Der GOODBOT, der Anfang 2014 als Prototyp das Licht der Welt erblickt hat, wandert bereits durch die Medien. Die ICTkommunikation schrieb am 23. Februar im Artikel “Studierende der FHNW entwickeln virtuellen Gesprächspartner”: “Drei Studierende der Hochschule für Wirtschaft FHNW (Fachhochschule Nordwestschweiz) haben einen Prototyp für den ‘Goodbot’ entwickelt, einen virtuellen Gesprächspartner, der moralisch angemessen reagieren soll.” Die Netzwoche stellte am 26. Februar einen Bezug zur Urmutter aller Plappermaschinen her: Wer schon einmal mit Eliza gesprochen habe, der wisse, “dass sich eine solche Software nicht wirklich als Gesprächspartner eignet, wenn es einem schlecht geht” (Netzwoche Online, 26. Februar 2014). “Zwar fragt Eliza zu Beginn höflich nach dem aktuellen Befinden. Doch den positiven Eindruck, den der Chatbot damit erweckt, zerstört er gleich wieder.” Das GOODBOT-Projekt, das von Oliver Bendel geleitet wird, soll im Juni 2014 in die nächste Phase gehen.

Abb.: Snapshot von der Homepage der Netzwoche

Einfache moralische Maschinen

Auf der Plattform KMU Business World ist am 30. August 2013 der Artikel “Einfache moralische Maschinen” von Oliver Bendel erschienen. Eine Vorabveröffentlichung brachte der Blog des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW. Moralische Maschinen sind nach der Meinung des Philosophen und Wirtschaftsinformatikers bereits heute möglich. Man dürfe sie nur nicht zu kompliziert denken und zu komplex gestalten. Wenn es sich um spezialisierte autonome oder teilautonome Systeme handele, könne man bei ihren Kernfunktionen ansetzen und sie mit geringfügigen Änderungen, mit wenigen zusätzlichen Komponenten in einfache moralische Maschinen verwandeln. Wie das geschehen kann, wird an vier Beispielen gezeigt, an Servicerobotern, privaten Drohnen, Chatbots und selbstständig fahrenden Autos.

Abb.: SpaceJustin vom DLR German Aerospace Center (Quelle: http://commons.wikimedia.org)

Der GOODBOT in der UnternehmerZeitung

Ein Artikel in der UnternehmerZeitung vom 2. Juli 2013 geht auf das GOODBOT-Projekt ein, das im Juni 2013 an der Hochschule für Wirtschaft FHNW gestartet ist. Der “moralische Chatbot” soll auch auf Selbstmorddrohungen oder Ankündigungen von Amokläufen adäquat reagieren und überhaupt ein angenehmer Zeitgenosse (und trotzdem kein Langweiler) sein. Es werden sieben Regeln genannt, die “hinsichtlich seiner Akte und Sprechakte gegenüber dem Benutzer” gelten sollen. Dazu gehört auch eine Transparenzregel: “Der GOODBOT macht dem Benutzer klar, dass er eine Maschine ist.” (Regel 1) Und eine Regel zur Beobachtung: “Der GOODBOT ist kein Spitzel und wertet Gespräche mit dem Benutzer nicht aus.” (Regel 6) Für das Projekt wurden verschiedene konzeptionelle Vorleistungen wie der Regelkatalog erbracht. Von Juni 2013 bis Januar 2014 arbeiten sich drei Studierende der Hochschule in die Maschinenethik und die Roboterethik ein und entwickeln einen Prototyp. Initiator und Leiter des Projekts ist der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Der Artikel ist in der siebten Ausgabe der UnternehmerZeitung auf den Seiten 30 und 31 zu finden.