Social Bots und No-Billag-Initiative

Ein Team der Hochschule für Wirtschaft FHNW (Prof. Dr. Stefan Gürtler, Prof. Dr. Oliver Bendel, Dr. Elzbieta Pustulka und Matthias Binz) untersucht den Einfluss von Social Bots im Kontext der No-Billag-Initiative. Aus der Projektbeschreibung: „Soziale Medien gewinnen bei der öffentlichen Meinungsbildung an Bedeutung. Ebenso nimmt deren Beeinflussung durch technische Mittel zu. Verschiedene Untersuchungen haben das Ausmaß und das Gefahrenpotenzial von sogenannten Meinungsrobotern aufgezeigt, die … politische Diskussionen mit maschinell erzeugter Kommunikation überschwemmen. Eine freie Meinungsbildung ist unabdingbare Grundvoraussetzung für eine funktionierende demokratische Gesellschaft. Sie muss vor manipulativen Eingriffen geschützt werden. Ein erster Schritt zu ihrem Schutz ist die Erprobung eines algorithmischen Suchverfahrens, wie es bereits in anderen Ländern zur erfolgreichen Detektion von Meinungsrobotern eingesetzt wurde. Eine nächste Gelegenheit bietet die kontroverse Kommunikation rund um die No-Billag-Initiative.“ Erste Ergebnisse der Untersuchung, die von einer Schweizer Stiftung finanziert wird, liegen ab März 2018 vor. Ein Bericht folgt im Sommer dieses Jahres.

Abb.: Ein Sendemast in den Bergen

Die Macht der Meinungsroboter

Der Artikel „So erkennen Sie Meinungsroboter“ von Teresa Sickert widmet sich dem Phänomen der Social Bots. „Social Bots sind Programme, die in sozialen Netzwerken menschliche Nutzer simulieren – etwa zur politischen Stimmungsmache. Das klappt mal mehr und mal weniger gut. Diese Tipps helfen, Bots zu entlarven.“ (Spiegel Online, 19. Januar 2017) Und weiter: „Meinungsroboter haben ein Imageproblem. Seit dem US-Wahlkampf wird lebhaft über sogenannte Social Bots diskutiert, über Accounts, die nur so wirken, als stecke ein menschlicher Nutzer dahinter. Auf Plattformen wie Twitter tweeten, liken und retweeten mittlerweile ganze Netze von automatisierten Accounts.“ (Spiegel Online, 19. Januar 2017) Zitiert wird mehrmals Oliver Bendel, der sich als Maschinenethiker mit guten und bösen Chatbots befasst und solche auch baut. 2013 ist der GOODBOT entstanden, 2016 der LÜGENBOT. Diesen rechnet er zu den Münchhausen-Maschinen. Am Rande befasst er sich mit Vervielfältigungs- und Meinungsmaschinen wie den Social Bots. Bei einem Vortrag an der Universität Zürich Ende 2016 hat er deren Chancen und Risiken skizziert. Der Artikel ist abrufbar über www.spiegel.de/netzwelt/web/social-bots-entlarven-so-erkennen-sie-meinungsroboter-a-1129539.html.

Abb.: Die Bots lachen sich tot