Schlagworte: Chatbot

Wenn autonome Maschinen Tiere retten

Aleksandra Sowa leitete – so die Beschreibung in The European – “zusammen mit dem deutschen Kryptologen Hans Dobbertin das Horst-Görtz-Institut für Sicherheit in der Informationstechnik”. “Sie ist Autorin diverser Bücher und Fachpublikationen, Mitglied des legendären Virtuellen Ortsvereins (VOV) der SPD und aktuell für einen Telekommunikationskonzern tätig.” (The European) Im Oktober 2017 war sie im Austausch mit Oliver Bendel. Der Informations- und Maschinenethiker nahm wie folgt Stellung: “Ich bin dafür, bestimmte Maschinen zu ‘moralisieren’, und zwar solche, die in übersichtlichen Umgebungen und Situationen in unserem Sinne handeln sollen. Der Saugroboter, der Marienkäfer verschont, der Chatbot, der rücksichtsvoll ist und eine Notfallnummer herausgibt. Diese Maschinen haben wir gebaut. Ich bin nicht dafür, solche Maschinen mit einer Form von Moral auszustatten, die in komplexen Umgebungen und Situationen entscheiden müssen. So halte ich wenig davon, dass autonome Autos über Menschenleben entscheiden. Über Tierleben können sie entscheiden, sie können quantifizieren und qualifizieren. Wenn dadurch Tiere gerettet werden können, ohne dass Menschen in Gefahr kommen, bin ich dafür.” Der Beitrag “Die Antwort lautet nicht 42” von Aleksandra Sowa, erschienen am 11. Oktober 2017, enthält Statements von Oliver Bendel, gewonnen aus dem genannten Austausch und aus seinen Veröffentlichungen.

Abb.: Dieses Eichhörnchen wurde Opfer der Maschine (oder Objekt der Kunst)

Talk with the Bots

Der “Medientag 2017″ der Universität Innsbruck trägt den Titel “Talk with the Bots. Die Maschine versteht dich”. Er findet am Dienstag, 21. November 2017 in der Aula statt. Aus dem Flyer: “Immer öfter kommuniziert Software mit und für uns. Bots übernehmen unbemerkt immer komplexere Aufgaben für Nutzer*innen. Virtuelle Assistent*innen wie Alexa, Siri, Cortana und Assistant empfangen und verarbeiten die gesprochene Sprache. Künstliche Intelligenzen erfreuen sich immer größerer Beliebtheit und versprechen eine Erleichterung bei alltäglichen Fragen und Tätigkeiten. Im Bereich der politischen Propaganda und Public Relations sind die Social Bots im vergangenen Jahr zu zweifelhafter Berühmtheit gelangt. … Wie können wir die Interaktion mit künstlichen Intelligenzen von jener mit Menschen unterscheiden? Inwieweit ist das wichtig? Was bedeutet diese Entwicklung für das Alltagsleben und für den Bereich der Kommunikation? Welche Bedeutung hat der verbreitete Einsatz von Bots als neue Schnittstelle zwischen Mensch und Maschine?” Die Impulsvorträge stammen von Dr. Netaya Lotze (Linguistin an der Westfälischen Wilhelms-Universität), Bernhard Hauser (Mitgründer von Oratio, Organisator der ChatbotConf) und Prof. Dr. Oliver Bendel (Informations- und Maschinenethiker an der Hochschule für Wirtschaft FHNW). Den Flyer zur Veranstaltung kann man hier herunterladen.

Abb.: Ein sprechender Kopf?

Bots, Hate, Fake

Vom 2. bis 4. Mai 2017 finden die “Medientage Mitteldeutschland” statt. “Bots, Hate, Fake: Werte und Grenzen in der Kommunikation” lautet der Titel einer Podiumsdiskussion am 3. Mai. Es moderiert Vera Linß, auf dem Podium sitzt Tabea Rößner (Bündnis 90/Die Grünen), live zugeschaltet ist Oliver Bendel (Fachhochschule Nordwestschweiz). Über Social Bots und Fake News soll der Wahlkampf in verschiedenen Ländern, so die Website, “vorsätzlich in eine bestimmte Richtung gelenkt worden sein” (Website Medientage Mitteldeutschland). “Und auch in Deutschland gibt es Sorge, dass der Wahlkampf so beeinflusst werden könnte. Die Landesregierungen von Hessen, Bayern und Sachsen-Anhalt werben für einen Gesetzentwurf, der ‘manipulativer Kommunikation im Internet’ auf strafrechtlicher Ebene begegnen soll. Kritiker des Entwurfs bemängeln, dass eine deutsche Gesetzesinitiative zwar hierzulande greifen könnte, bei Aktivitäten aus dem Ausland allerdings keine Handhabe biete.“ (Website Medientage Mitteldeutschland) Ein Ansatz der Grünen fordere, so die Website, kein Verbot von Bots, sondern eine Anzeigepflicht bei deren Verwendung. Auch Oliver Bendel kann sich eine Anzeigepflicht vorstellen. Zudem schlägt er vor, dass Social Bots und Chatbots ihre Ziele, Methoden und Quellen benennen müssen. Weitere Informationen über www.medientage-mitteldeutschland.de.

Abb.: Ist die Nachahmung einer Vogelscheuche eine Fake?

Social Bots und Chatbots

“Social Bots sind Bots, also Softwareroboter bzw. -agenten, die in sozialen Medien (Social Media) vorkommen. Sie liken und retweeten, und sie texten und kommentieren, können also natürlichsprachliche Fähigkeiten haben. Sie können auch als Chatbots fungieren und damit mit Benutzern synchron kommunizieren. Social Bots werden zur Sichtbarmachung und Verstärkung von Aussagen und Meinungen eingesetzt. Dabei können sie werbenden Charakter besitzen bzw. politische Wirkung entfalten.” So lautet die Kurzfassung eines neuen Beitrags im Wirtschaftslexikon von Springer Gabler. Dazu passt ein anderer Text von Oliver Bendel über Chatbots, der wie folgt zusammengefasst wird: “Chatbots oder Chatterbots sind Dialogsysteme mit natürlichsprachlichen Fähigkeiten textueller oder auditiver Art. Sie werden, oft in Kombination mit statischen oder animierten Avataren, auf Websites verwendet, wo sie die Produkte und Dienstleistungen ihrer Betreiber erklären und bewerben respektive sich um Anliegen der Interessenten und Kunden kümmern.” Es wird jeweils auch auf die Perspektive der Informationsethik und der Maschinenethik eingegangen. Die beiden Beiträge, die am 1. Februar 2017 erschienen sind, können über wirtschaftslexikon.gabler.de/Definition/social-bots.html bzw. wirtschaftslexikon.gabler.de/Definition/chatbot.html aufgerufen werden.

Abb.: Social Bots sind in den Social Media zu finden

Die Macht der Meinungsroboter

Der Artikel “So erkennen Sie Meinungsroboter” von Teresa Sickert widmet sich dem Phänomen der Social Bots. “Social Bots sind Programme, die in sozialen Netzwerken menschliche Nutzer simulieren – etwa zur politischen Stimmungsmache. Das klappt mal mehr und mal weniger gut. Diese Tipps helfen, Bots zu entlarven.” (Spiegel Online, 19. Januar 2017) Und weiter: “Meinungsroboter haben ein Imageproblem. Seit dem US-Wahlkampf wird lebhaft über sogenannte Social Bots diskutiert, über Accounts, die nur so wirken, als stecke ein menschlicher Nutzer dahinter. Auf Plattformen wie Twitter tweeten, liken und retweeten mittlerweile ganze Netze von automatisierten Accounts.” (Spiegel Online, 19. Januar 2017) Zitiert wird mehrmals Oliver Bendel, der sich als Maschinenethiker mit guten und bösen Chatbots befasst und solche auch baut. 2013 ist der GOODBOT entstanden, 2016 der LÜGENBOT. Diesen rechnet er zu den Münchhausen-Maschinen. Am Rande befasst er sich mit Vervielfältigungs- und Meinungsmaschinen wie den Social Bots. Bei einem Vortrag an der Universität Zürich Ende 2016 hat er deren Chancen und Risiken skizziert. Der Artikel ist abrufbar über www.spiegel.de/netzwelt/web/social-bots-entlarven-so-erkennen-sie-meinungsroboter-a-1129539.html.

Abb.: Die Bots lachen sich tot

Wie viel Mensch soll in der Maschine stecken?

In der neuen Ausgabe von RED, dem Magazin der Schweizer Börse SIX, sind Frank M. Rinderknecht von Rinspeed und Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW im Gespräch. Bereits im Juli 2016 traf man sich in der Werkstatt in Zumikon, in der es von futuristischen Fahrzeugen nur so wimmelt. Man stieg in diese hinein und aus diesen wieder heraus – und rollte zusammen die mächtigen Räder. Die Bilder dazu findet man in dem vierseitigen Beitrag mit dem Titel “Wie viel Mensch soll in der Maschine stecken?”. Iris Kuhn-Spogat fragte im Büroraum bei Kaffee und Wasser nach autonomen Autos, maschinellen Entscheidungen und verrückten Erfindungen. Ihre Gesprächspartner waren sich in vielen Dingen einig. Man liebt das Spielerische, Verrückte, man versucht das scheinbar Unmögliche, bei der Entwicklung von Roboterautos und Amphibienfahrzeugen sowie von guten und bösen Chatbots. SIX und Rinspeed haben schon mehrmals zusammengearbeitet. Ein Video – abrufbar über six.swiss/rinspeed – gibt Einblicke, nicht zuletzt in die Werkstatt. Auch Oliver Bendel und die Finanzexperten haben sich bereits einmal getroffen, bei seinem Vortrag über Maschinenethik an der Börse in Zürich. Der Beitrag wurde von den Verantwortlichen freundlicherweise zur Verfügung gestellt und kann als PDF heruntergeladen werden.

Abb.: Wie menschlich soll der Roboter sein?

Von ELIZA zum GOODBOT

Der GOODBOT, der Anfang 2014 als Prototyp das Licht der Welt erblickt hat, wandert bereits durch die Medien. Die ICTkommunikation schrieb am 23. Februar im Artikel “Studierende der FHNW entwickeln virtuellen Gesprächspartner”: “Drei Studierende der Hochschule für Wirtschaft FHNW (Fachhochschule Nordwestschweiz) haben einen Prototyp für den ‘Goodbot’ entwickelt, einen virtuellen Gesprächspartner, der moralisch angemessen reagieren soll.” Die Netzwoche stellte am 26. Februar einen Bezug zur Urmutter aller Plappermaschinen her: Wer schon einmal mit Eliza gesprochen habe, der wisse, “dass sich eine solche Software nicht wirklich als Gesprächspartner eignet, wenn es einem schlecht geht” (Netzwoche Online, 26. Februar 2014). “Zwar fragt Eliza zu Beginn höflich nach dem aktuellen Befinden. Doch den positiven Eindruck, den der Chatbot damit erweckt, zerstört er gleich wieder.” Das GOODBOT-Projekt, das von Oliver Bendel geleitet wird, soll im Juni 2014 in die nächste Phase gehen.

Abb.: Snapshot von der Homepage der Netzwoche

Einfache moralische Maschinen

Auf der Plattform KMU Business World ist am 30. August 2013 der Artikel “Einfache moralische Maschinen” von Oliver Bendel erschienen. Eine Vorabveröffentlichung brachte der Blog des Instituts für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW. Moralische Maschinen sind nach der Meinung des Philosophen und Wirtschaftsinformatikers bereits heute möglich. Man dürfe sie nur nicht zu kompliziert denken und zu komplex gestalten. Wenn es sich um spezialisierte autonome oder teilautonome Systeme handele, könne man bei ihren Kernfunktionen ansetzen und sie mit geringfügigen Änderungen, mit wenigen zusätzlichen Komponenten in einfache moralische Maschinen verwandeln. Wie das geschehen kann, wird an vier Beispielen gezeigt, an Servicerobotern, privaten Drohnen, Chatbots und selbstständig fahrenden Autos.

Abb.: SpaceJustin vom DLR German Aerospace Center (Quelle: http://commons.wikimedia.org)

Der GOODBOT in der UnternehmerZeitung

Ein Artikel in der UnternehmerZeitung vom 2. Juli 2013 geht auf das GOODBOT-Projekt ein, das im Juni 2013 an der Hochschule für Wirtschaft FHNW gestartet ist. Der “moralische Chatbot” soll auch auf Selbstmorddrohungen oder Ankündigungen von Amokläufen adäquat reagieren und überhaupt ein angenehmer Zeitgenosse (und trotzdem kein Langweiler) sein. Es werden sieben Regeln genannt, die “hinsichtlich seiner Akte und Sprechakte gegenüber dem Benutzer” gelten sollen. Dazu gehört auch eine Transparenzregel: “Der GOODBOT macht dem Benutzer klar, dass er eine Maschine ist.” (Regel 1) Und eine Regel zur Beobachtung: “Der GOODBOT ist kein Spitzel und wertet Gespräche mit dem Benutzer nicht aus.” (Regel 6) Für das Projekt wurden verschiedene konzeptionelle Vorleistungen wie der Regelkatalog erbracht. Von Juni 2013 bis Januar 2014 arbeiten sich drei Studierende der Hochschule in die Maschinenethik und die Roboterethik ein und entwickeln einen Prototyp. Initiator und Leiter des Projekts ist der Philosoph und Wirtschaftsinformatiker Oliver Bendel. Der Artikel ist in der siebten Ausgabe der UnternehmerZeitung auf den Seiten 30 und 31 zu finden.