Die Bild am Sonntag (BamS) hat den LÜGENBOT getestet und ihm einige Perlen der Unwahrheit entlockt. Dies ist in einem Artikel von Florian Zerfaß vom 2. Oktober 2016 nachzulesen, mit dem Titel „Roboter lernen lügen für die Wahrheit“. Angela Merkel sei Bundeskanzlerin und die beste Rapperin der Welt, der FC Schalke 04 habe in der Bundesliga 134 Punkte. Besonders interessant ist das erste Beispiel. Der Satz fängt wahr an und endet falsch; der Benutzer wird in Sicherheit gewiegt und dann aufs Glatteis geführt. Der LÜGENBOT aka LIEBOT wurde 2013 von Oliver Bendel erfunden und 2016 von Kevin Schwegler umgesetzt. Er beherrscht verschiedene Lügenstrategien, von denen manche als genuin maschinell angesehen werden können – so lügt kein Mensch, nicht einmal ein Lügenbold. Der Chatbot lügt nicht immer, aber meistens. Es gibt vielfältige Anwendungsmöglichkeiten – so können Maschinen, die Fakes und Lügen entdecken sollen, mit ihm trainiert werden. Letztlich geht es darum, vertrauenswürdige und verlässliche Systeme zu entwickeln.
Die Schweizerische Post erprobt Lieferroboter, die Pakete zustellen sollen. Auf dem Gelände des Unternehmens in Wankdorf bei Bern hatte Prof. Dr. Oliver Bendel im September 2016 die Gelegenheit, das Produkt der Starship Technologies unter die Lupe zu nehmen. Die Tester und Operators wiesen auf die Kameras mit 360-Grad-Aufnahmetechnik hin und auf das Ultraschallsystem. Sie öffneten die Klappe und erlaubten den Blick auf die Last. Bis zu zehn Kilogramm können auf den sechs Rädern bis zu sechs Kilometer weit befördert werden. Das hauptsächliche Problem der Paketroboter ist, dass sie neuartige Verkehrsteilnehmer darstellen, die die Gehsteige bevölkern und die Straßen überqueren. Das eine tun sie in der Regel autonom, das andere wird in den meisten Ländern, in denen sie getestet werden, von einem Operator unterstützt. Wenn es viele Lieferroboter dieser Art gibt, werden Innen- und Vorstädte noch komplexer für die etablierten Verkehrsteilnehmer. Unabhängig von der Zahl stellen sie Stolperfallen dar. Die Paketroboter sind wie herrenlose Hunde, können aber nicht so gut wie diese ausweichen und sind auch nicht so schnell. Skater, Radfahrer und Fußgänger können über sie stürzen, was durch die geringe Höhe begünstigt wird. Selbst wenn sie an die Leine gelegt und durch wenig frequentierte Gebiete navigiert werden, ist die Gefahr nicht ganz gebannt. Ein nicht ganz nebensächliches Problem ist, dass der Lieferoboter mit seinen Kameras auch Personen erfassen und womöglich Mädchen und Frauen unter den Rock schauen kann – ein weites Feld für Informations- und Technikethik. Es wird sich zeigen, wie hoch die Akzeptanz von Kunden und Passanten ist und welche Erfahrungen in den verschiedenen Ländern gemacht werden.
Raffael Schuppisser beleuchtet in seinem Artikel „Roboter lügen uns ins Gesicht“ (Schweiz am Sonntag, 18. September 2016) die Möglichkeiten von Lügenmaschinen. Er geht auf Social Bots ein, die Accounts in sozialen Medien anlegen, Kommentare schreiben und Gerüchte streuen, und auf Tay von Microsoft, der in schlechte Gesellschaft geriet und zum Rassisten wurde. Immer wieder zu Wort kommt Oliver Bendel, der 2013 die Idee zu einem LÜGENBOT aka LIEBOT hatte, diesen in mehreren Artikeln beschrieb und dann 2016 mit seinem Studenten Kevin Schwegler entwickelte. Der LÜGENBOT wendet unterschiedliche Lügenstrategien an und benutzt u.a. einen Thesaurus der Princeton University sowie Yahoo als Suchmaschine und Vorschlagsdienst. Wenn er nicht weiterweiß, fragt er seinen Kollegen, den Cleverbot, und borgt sich eine Antwort. Sieben verschiedene Animationen zeigen die jeweiligen Strategien an. Wird beispielsweise eine für wahr gehaltene Aussage negiert, wächst die Nase der Münchhausen-Maschine, und man fühlt sich an Pinocchio erinnert. Wenn ein Wort durch ein Antonym ausgetauscht wird, etwa „Junge“ durch „Mädchen“, wird der LIEBOT rot. Der Artikel ist auf Seite 15 der Zeitung aus Baden erschienen und kann auch online eingesehen werden, über www.schweizamsonntag.ch/ressort/nachrichten/roboter_luegen_uns_ins_gesicht/.
The LIEBOT project is based on preparatory works by Prof. Dr. Oliver Bendel who already initiated the GOODBOT, a chatbot which can be considered a simple moral machine. Since 2013 he has published several articles on this subject and presented automatic strategies with a view to lying. A business informatics student of the School of Business FHNW, Kevin Schwegler, was contracted early in 2016 to implement the LIEBOT (aka LÜGENBOT) as a prototype in the scope of his graduation thesis under consideration and continuance of the preparatory works. The objective of the LIEBOT project is to give practical evidence of the potential of lies and risks of natural language systems. Online media and websites create or aggregate more and more texts automatically (robo-content) and robo-journalism is growing. Natural language dialog systems are becoming very popular. The chatbot to be programmed – the LIEBOT – shall be able to produce untruths and to respond in a morally inadequate manner. This makes it a reversion of the premise applied to the development of the GOODBOT and a continuance of the corresponding work under new auspices. A simple immoral machine is born, a kind of a Munchausen machine. Further information as from autumn 2016 via luegenbot.ch and liebot.org (links no longer valid).
In these days, the Hasler Foundation presents the new research program „Cyber-Human Systems“, with a budget of 5 millions Swiss francs. Some information from the website: „Computing plays an ever increasing role in all aspects of our life. As a consequence, society and information technology continuously interact and influence each other in a complex process. In this context, cyber-human system research investigates the increasingly coupled relationship between humans and computing with the broad goal of advancing human capabilities. Novel models, methods, theories and technological innovations in information technology are developed to increase our understanding of this new class of computing systems and to exploit their large economical and societal potential.“ (Website Hasler) The text continues: „Research in cyber-human systems addresses specifically all aspects close to the interface between humans and information technology. It is concerned with novel computing platforms such as wearable, textile-integrated and mobile devices or even person-embedded sensors and computers. The research also explores systems that interact with users through multiple modalities such as new interaction techniques, computer displays and even brain-machine interfaces. Algorithmic aspects in cyber-human systems concentrate on local data processing in smart devices at the network edge rather than sending all data to the cloud for processing.“ According to a press release, research subjects include interfaces between digital and human world, computing like machine learning at the edge and analysis of economic and societal consequences. More information via www.haslerstiftung.ch.
Commercial drones can be used for the transport of components and the good delivering as well as for the monitoring of consumers. Unmanned aerial vehicles (UAV) often come in combination with cameras and other equipment and are spies in the form of high-tech products. Sometimes, they drop out of the sky and hurt people. In Zurich, private drones seem to be a big problem for safety and security, and the laws have been tightened and improved. Remote-controlled commercial drones shall have cameras, gripper arms or a transportation space. In a current project, three master students of the School of Business (University of Applied Sciences and Arts Northwestern Switzerland FHNW) try to answer the following questions: What kinds of drones are available for commercial purposes? In which ways these UAV can be used? What are the technical challenges and possibilities? What are the problems from the perspective of information ethics? What are the general challenges in Switzerland? The results are expected by the end of summer 2016. Prof. Dr. Oliver Bendel is the contact for all questions concerning the research project and possible follow-up activities.
Die TA-SWISS schreibt eine Studie zum Thema „Zivile Drohnen, eine zukunftsweisende Technologie?“ aus. Die Studie soll „einen inter- und transdisziplinären Blick auf die zivilen Drohnen gewähren und dabei die Chancen, Risiken und Grenzen der aktuellen und zukünftigen Entwicklungen erörtern“ (Ausschreibung TA-SWISS). Weiter heißt es im Ausschreibungstext: „Untersuchungsgegenstand dieser prospektiven Studie sind die voraussichtlichen Innovationen und Entwicklungen auf dem Gebiet der Drohnen im Zeitraum bis 2020/2025. Dabei sind jene technologischen Innovationen zu nennen, welche die Entwicklungen im Bereich der Drohnen beeinflussen werden, sowie die möglichen Einsatz- und Anwendungsgebiete der Drohnen, mit dem Ziel, deren Einfluss auf die Gesellschaft aufzuzeigen.“ (Ausschreibung TA-SWISS) Es ist demnach sowohl auf die technische Entwicklung als auch auf die Nutzung mitsamt ihren Implikationen einzugehen. Integraler und abschließender Teil der Studie seien „auf der Basis der Studienergebnisse formulierte Empfehlungen für eine nachhaltige und verantwortungsbewusste Integration der Drohnen in den Alltag“ (Ausschreibung TA-SWISS). Damit bieten sich Begriffe, Methoden und Modelle der Technologiefolgenabschätzung und der Technik- und Informationsethik an. Die Offerten sind bis spätestens 1. April 2016 einzureichen. Weitere Informationen über www.ta-swiss.ch.
Abb.: Welche Chancen und Risiken haben zivile Drohnen?
„Forscher arbeiten unter Hochdruck an sozialen Robotern. Sie sollen echte Gefährten werden, sogar eigene Persönlichkeit entwickeln. So schwindet die Differenz zwischen Mensch und Maschine. Das wirft ethische Fragen auf.“ (RP, 10. März 2016) Mit diesen Worten beginnt der Artikel „Soziale Roboter auf dem Vormarsch“ von Dorothee Krings, erschienen am 10. März 2016 in der Rheinischen Post. Eingegangen wird auf zwei neue Projekte in diesem Bereich: An der Uni Bielefeld wird „an einem Maschinen-Lehrer gebaut, der Einwandererkindern beim Deutschlernen helfen soll“ (RP, 10. März 2016). „Nao ist nur 60 Zentimeter groß, ein niedliches Spielzeug, aber er kann sehen, hören und bald auch die Stimmungslage seines Gegenübers einschätzen – und auf Unlust reagieren.“ (RP, 10. März 2016) In Freiburg „wird an Fritz getüftelt, einem Gestell mit Comicgesicht, das Blickkontakt aufnehmen und die Mundwinkel sinken lassen kann, wenn man sich von ihm abwendet“. Er soll „durchs Museum führen und merken, wenn seine Zuhörer sich langweilen“ (RP, 10. März 2016). „In 20 Jahren wird man Roboter haben, die wirklich unter uns leben, mit denen wir reden, die wir lieben“, wird Oliver Bendel zitiert, „einer der führenden Maschinenethiker, der in der Schweiz lehrt“ (RP, 10. März 2016). Dabei sieht er neben den Chancen die Risiken und macht Vorschläge, wie das Zusammenleben gelingen kann. Er spricht von einem V-Effekt für Roboter, „frei nach dem Theater von Brecht“; „der Roboter hält inne und betont, dass er nur eine Maschine ist“ (RP, 10. März 2016). Der Artikel kann über www.rp-online.de/politik/soziale-roboter-auf-dem-vormarsch-aid-1.5824498 abgerufen werden.
Im Studiengang Energie- und Umwelttechnik der Fachhochschule Nordwestschweiz FHNW, von der Hochschule für Technik verantwortet und von der Hochschule für Wirtschaft mitgetragen, wurde im Januar 2016 das Projekt „Umweltfreundliche Roboterautos“ beendet. Der Student Robin Güdel, betreut von Prof. Dr. Oliver Bendel (in diesem Studiengang der Dozent für Umwelt- und Unternehmensethik), hat zunächst fünf Fahrerassistenzsysteme bzw. Kommunikationsverfahren untersucht. Es habe sich „herausgestellt, dass die Energieeffizienz beträchtlich erhöht werden kann“ (Abschlussbericht). „Auch Emissionen wie Lärm, CO2 und andere Schadstoffe können dank dieser Systeme gesenkt werden. Die effektiven Einsparungen sind jedoch schwer zu quantifizieren, da diese von vielen Einflussfaktoren abhängen.“ (Abschlussbericht) Im Anschluss wurden Roboterautos unter die Lupe genommen. Ein Ergebnis war, dass neue Konzepte für die Nutzung des Automobils entstehen könnten. Beim „Carsharing der Zukunft“ handle es sich um eine Dienstleistung, bei welcher man mit Hilfe autonomer Fahrzeuge am Standort A abgeholt und zum Standort B transportiert wird. „Falls eine solche Dienstleistung stark genutzt wird, könnten viele Konsumenten von dem Besitz eines eigenen Fahrzeugs absehen.“ (Abschlussbericht)
Im Herbst 2015 wurde in Deutschland der Startschuss für ein neues Institut gegeben. Auf der Website des Bundesministeriums für Bildung und Forschung (BMBF) heißt es: „Wie können wir in einer Zeit von Big Data unsere persönlichen Daten schützen? Und wie können Bürger die schier unbegrenzten Möglichkeiten des Internets nutzen, um die Demokratie mitzugestalten? Mit diesen Fragen zur Digitalisierung soll sich bald das Deutsche Internet-Institut beschäftigen.“ (Website BMBF) Und weiter: „Am Internet-Institut sollen Forscherinnen und Forscher verschiedener Fachrichtungen insbesondere aus den Gesellschaftswissenschaften – Sozial- und Geisteswissenschaften, Rechts- und Wirtschaftswissenschaften – und der Informatik gemeinsam forschen.“ (Website BMBF) Auch die Ethik als philosophische, wissenschaftliche Disziplin spielt eine wichtige Rolle. Als Organisation, die das Institut bei sich beherbergen will, kann man dem BMBF bis zum 29. Februar 2016 eine Projektskizze in schriftlicher Form vorlegen. In der Folge wird diese vom genannten Ministerium und einer unabhängigen Jury geprüft. Die Richtlinie für das Deutsche Internet-Institut aus dem Bundesanzeiger vom 17. September 2015 findet sich über www.bmbf.de/foerderungen/bekanntmachung.php?B=1078.
Abb.: Das Internet nutzen, das Internet erforschen
An der Hochschule für Wirtschaft FHNW wird ab Frühjahr 2016 im Rahmen einer Abschlussarbeit ein Lügenbot (Liebot) entwickelt. Der betreuende Professor, Dr. Oliver Bendel, hat seit 2013 mehrere Artikel über Münchhausen-Maschinen und den Lügenbot publiziert, etwa „Wenn ein Chatbot zum Lügenbot wird“ sowie „Können Maschinen lügen? Die Wahrheit über Münchhausen-Maschinen“ und „Der Lügenbot und andere Münchhausen-Maschinen„. In „Robots between the Devil and the Deep Blue Sea“ wurde zudem das sogenannte Lügenbot-Problem vorgestellt, als eines von vier Dilemmata. In den Beiträgen wurde stets die Sprachlichkeit des Lügens betont. Wer etwas sagen kann, so der Autor, und dabei eine gewisse Absicht verfolgt, der kann auch die Unwahrheit sagen. Man könnte also Lügenmaschinen bauen, die mit falschen Versprechungen locken, das Blaue vom Himmel erzählen – und uns letztlich verwundert und verunsichert zurücklassen. Das müssen auch Unternehmen berücksichtigen, und sie müssen etwas dafür tun, damit unser Vertrauen in die Maschinen gerechtfertigt ist. Der Student wird den Chatbot für zwei Szenarien realisieren, den Einsatz im Auftrag der Lebensmittel- und der Tourismusbranche. Bereits 2013 kam der GOODBOT als einfache moralische Maschine auf die Welt. Der Lügenbot könnte als einfache unmoralische Maschine bezeichnet werden, wobei Lügen natürlich nicht per se schlecht ist. Er ist interessant für die Maschinenethik als Gestaltungsdisziplin und für die Informationsethik als Reflexionsdisziplin. Über die Resultate des Projekts wird zur gegebenen Zeit auf maschinenethik.net informiert.
Die TA-SWISS schreibt eine Technology-Assessment-Studie zum Thema „Quantified Self – Schnittstelle zwischen Lifestyle und Medizin“ aus. „Quantified Self“ steht für Self-Tracking-Lösungen, vor allem im sportlichen und medizinischen Bereich, und eine damit verbundene Bewegung. Es werden Daten des Körpers zusammen mit anderen Daten (Zeit, Raum etc.) erfasst, ausgewertet und dokumentiert sowie teilweise – etwa über Streaming und über Erfahrungsberichte – mit anderen geteilt. Eingesetzt werden Wearables aller Art, etwa Smartwatches. In der Ausschreibung heißt es zu dem Phänomen: „Aus der Datenfülle sollen Erkenntnisse gewonnen werden für die Früherkennung von Krankheiten und die Optimierung von Therapien, zudem sollen die Daten auch Aufschluss geben darüber, welche Faktoren einer guten Gesundheit förderlich sind. Doch der Umgang mit gesundheitsrelevanten Daten ist heikel und sollte hohen Anforderungen des Datenschutzes genügen.“ In der Studie sollen laut TA-SWISS die Chancen und Risiken von Quantified Self diskutiert werden. Auch die Informationsethik ist eine mögliche Perspektive. Es steht ein Budget von bis zu 140000 CHF zur Verfügung. Gewünschter Projektbeginn ist März 2016. Weitere Informationen über www.ta-swiss.ch.
An der Fachhochschule Nordwestschweiz FHNW untersucht ein Student seit Anfang Oktober 2015, ob Fahrerassistenzsysteme (FAS) und autonome Autos zur Verbesserung der Energieeffizienz, zur Ressourcenschonung und zum Umweltschutz beitragen können. FAS unterstützen den Lenker von Kraftfahrzeugen und übernehmen in bestimmten Fällen seine Aufgaben. Selbstständig fahrende oder autonome Autos bewegen sich als Prototypen durch die Städte und Landschaften, in den USA genauso wie in Europa und Asien. Im Projekt werden vorhandene umweltfreundliche Technologien betrachtet. Beispielsweise haben manche PKW eine Standby-Funktion, die sich vor Ampeln und in Staus aktivieren lässt. Es sollen aber auch neue Technologien für das Energiesparen, die Reduktion von Schadstoffemissionen, die Verkehrsoptimierung und -lenkung etc. vorgestellt und allenfalls vorgeschlagen werden. Auch LKW sollen einbezogen werden. Es wird bis Januar 2016 eine knappe Studie entstehen, die Möglichkeiten darstellt und diskutiert. In der Vertiefung Umwelt und Management im Studiengang Energie- und Umwelttechnik werden immer wieder hochaktuelle Fragestellungen definiert. Betreuer der Arbeit ist Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW.
Abb.: Passen Roboterautos und Umweltschutz zusammen?
Oliver Bendel, Professor an der Hochschule für Wirtschaft FHNW, sitzt ab Oktober 2015 im Expertenbeirat des vom BMBF geförderten Projekts „QuartrBack – Intelligente Notfallkette im Quartier für Menschen mit Demenz“. Bestellt hat ihn das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT). Laut Website ist das Ziel des Projekts, Menschen mit Demenz einen gefahrlosen Zugang zu ihren individuellen Sozialräumen im Quartier und eine „gesicherte Teilhabe“ am sozialen Leben zu ermöglichen. „Dabei werden unterschiedliche bereits vorhandene Technologien (Mensch-Technik-Interaktion) für Ortung, Monitoring, Zugangskontrolle und Information kombiniert eingesetzt. So können mithilfe einer im Zuge des Projektes neu entwickelten und bedarfsorientiert konfigurierbaren Technologie für Ortung/Monitoring die Bewegungsfreiheit und Unabhängigkeit von Menschen mit Demenz ihren individuellen Bedürfnissen gemäß gestärkt werden“ (Website ITAS). Die Hauptaufgabe des ITAS „besteht vor allem in der entwicklungsbegleitenden Technikfolgenbeurteilung des Gesamtprozesses mit einem Fokus auf den technischen, rechtlichen, ökonomischen und insbesondere ethisch-sozialen Aspekten der verwendeten Technologien“. (Website ITAS) Die Expertengruppe wird sich achtmal in drei Jahren in Frankfurt und Karlsruhe treffen. Weitere Informationen zum Projekt über www.itas.kit.edu/projekte_wein15_quartrback.php.
Anna von Ikea sagt die Wahrheit. Zumindest kann man das annehmen, und man darf vermuten, dass sie die Wahrheit nur verschweigt, wenn sie einen guten Grund dafür hat oder überfordert ist. Was aber, wenn ein Chatbot die Unwahrheit sagt? Wenn Nana, wie sie heißen soll, die Wahrheit verdreht, die Wahrheit von Anna, die Wahrheit an sich? Was ist, wenn Anna gehackt oder umgestaltet und zu Nana wird, oder wenn man glaubt, mit Anna zu plaudern, eigentlich aber Nana dahintersteckt? Das Missbrauchspotenzial bei gewissen Informations- und Kommunikationsdiensten im Internet ist groß. In einem Artikel von Oliver Bendel mit dem Titel „Wenn ein Chatbot zum Lügenbot wird“ (ICTkommunikation, 24. Juli 2015) wird systematisch untersucht, wie (der Entwickler von) Nana vorgehen könnte, und gezeigt, dass ein Lügenbot, bei allen Tücken, realisiert werden kann – und dass die Gefahr, einem zu begegnen, immerhin vorhanden ist. Fragen stellen sich für Informationsethik und Maschinenethik gleichermaßen.
informationsethik.net feiert. Fast 150 Beiträge im Blog, ein Literaturverzeichnis zu Informationsethik und Maschinenethik und DAS KLEINE LEXIKON DER INFORMATIONSETHIK mit ca. 200 Begriffen – das ist die Bilanz nach drei Jahren. Betrieben werden Website und Blog von Oliver Bendel. Es handelt sich um ein privates Projekt. Es gibt keine Werbung, wenn man von dem Verweis auf das Buch „Die Rache der Nerds“ (mit Gedanken und Geschichten zur Informationsethik) absieht. Fusioniert wurde informationsethik.net mit informationsethik.info, einem wissenschaftlichen Projekt, das von der schweizerischen Ernst Göhner Stiftung unterstützt wurde. Deshalb finden sich nun z.B. auch Materialien, eine Experten- und eine Linkliste auf der Website. Man darf gespannt sein, wo informationsethik.net im Jahre 2016 steht.
Im Studiengang Energie- und Umwelttechnik der Fachhochschule Nordwestschweiz FHNW ist im Februar 2015 das Projekt CLEANINGFISH gestartet. Littering ist in der Schweiz ein Problem. Die Gewässer sind hochgradig belastet. Vordergründig wirken sie sauber, und im Vergleich zu den 60er- und 70er-Jahren wurden in Bezug auf bestimmte Schadstoffe erhebliche Fortschritte erzielt. Allerdings hat zum Beispiel der Anteil von Kunststoffen stark zugenommen. Fische, Wasservögel und andere Lebewesen nehmen die Partikel auf und scheiden sie verändert aus. Auch der Mensch hat immer öfter Petflaschen auf seinem Speiseplan, durchaus unfreiwillig und mit nicht absehbaren gesundheitlichen Folgen. Ein Ansatz könnten Schwärme von Robotern sein, die rund um die Uhr Flüsse und Seen durchstreifen, die Plastikteilchen schlucken und an Stationen deponieren. Sie könnten auch Gegenstände am Grund des Bodens, wohin man mit üblichen Verfahren meist nicht vorzudringen vermag, einsammeln und abschleppen. Der CLEANINGFISH, eine Designstudie von Oliver Bendel (s. Rubrik Studien auf www.maschinenethik.net), ist der Ausgangspunkt dieser Überlegungen. Er ist handgroß, stark und schnell, und er könnte größere und kleinere Geschwister für spezielle Aufgaben haben. Ein Student der Hochschule für Technik erstellt eine Machbarkeitsstudie, die Grundlage für weitere Aktivitäten sein kann. Beantwortet werden auch Fragen der Maschinenethik sowie der Informations- und Technikethik.
Abb.: Ein Robofish (Quelle: commons.wikimedia.org; Autor: Kuba Bożanowski, Warschau)
Wie verschiedene Medien melden, will das US-Militär „Roboter mit Moralempfinden entwickeln“. Das will es schon lange, aber nun wird die Öffentlichkeit informiert. Im deutschsprachigen GIZMODO heißt es: „Über die nächsten fünf Jahre stellt eine Abteilung des US-Verteidigungsministeriums, das Office of Naval Research, 7,5 Mio. US-Dollar (etwa 5,5 Mio. Euro) für Universitätsforschung zur Verfügung, um Roboter zu entwickeln, die richtig und falsch unterscheiden können. So könnten autonome Kampfsysteme effektiver und selbstständiger operieren. Manch ein Wissenschaftler glaubt sogar, dass solche Maschinen bessere Entscheidungen als Menschen treffen könnten, da sie einfach klaren Regeln folgen, um die Chancen und Risiken von Operationen zu bewerten.“ Es ist wichtig, die Maschinenethik möglichst unabhängig von militärischer Forschung zu halten und die zivile, kommerzielle Nutzung voranzutreiben. Dass dies nicht einfach sein wird, liegt auf der Hand. In Technik- und Informationsethik sind die entstehenden moralischen Probleme zu diskutieren.
In der Ausgabe 5/2014 der UnternehmerZeitung ist ein Interview zu informationsethik.info erschienen. Die Plattform wird vom Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft FHNW betrieben und von der Ernst Göhner Stiftung unterstützt. Im Teasertext heißt es: „Eine neue Plattform der Hochschule für Wirtschaft FHNW widmet sich Informationsethik und Medienkompetenz. Initiator Oliver Bendel stellt sie vor.“ Das Interview führte die Historikerin Nathalie Baumann. Auf eine ihrer Fragen lautet die Antwort: „Moral auf Knopfdruck gibt es nicht, auch nicht bei informationsethik.info. Aber besser informierte und ‚ausgerüstete‘ Konsumenten und Unternehmer können und müssen stärker in die Pflicht genommen und zur Verantwortung gezogen werden.“ Der Zweiseiter kann kostenlos heruntergeladen werden.
Dieser Tag ist der 11. Februar 2014, zumindest nach dem Wunsch der Organisatoren. Auf ihrer Website stellen sie mit Hilfe von Zitaten einige Fakten zusammen. Die NSA „has secretly broken into the main communications links that connect Yahoo and Google data centers around the world“ (The New York Times). Und: Die NSA „is harvesting hundreds of millions of contact lists from personal e-mail and instant messaging accounts around the world“ (Washington Post). Und so weiter. Was kann man tun? Auf der Website ist zu lesen: „Governments worldwide need to know that mass surveillance, like that conducted by the NSA, is always a violation of our inalienable human rights. Over the past year, more than 360 organizations in over 70 countries have come together to support the International Principles on the Application of Human Rights to Communications Surveillance. These thirteen Principles establish the human rights obligations of any government conducting surveillance. They are the core of an international movement to compel all states to stop the mass spying of the innocent. The Principles are already being used in national campaigns and international pressure to reign in spies including the NSA.“ Vielleicht sollte es keinen Tag, sondern ein Jahrhundert des digitalen Widerstands und des digitalen Ungehorsams geben.
TA-SWISS hat sich an informationsethik.net gewandt mit der Bitte, auf ein EU-finanziertes Forschungsprojekt (SurPRISE: Surveillance, Privacy and Security) hinzuweisen. 300 Personen in der Schweiz haben die Möglichkeit, an einem sogenannten Diskussionsforum zum Thema „Sicherheitstechnologien, Überwachung und Privatsphäre“ teilzunehmen. „Im Zentrum des Interesses steht, wie die Bürgerinnen und Bürger in neun Ländern Europas auf Überwachungstechnologien reagieren. Sind sie, wie in politischen Debatten gerne unterstellt wird, tatsächlich bereit, für ein Mehr an Sicherheit ein Weniger an Privatsphäre in Kauf zu nehmen? Welche Sicherheitsmassnahmen erachten sie als akzeptabel in einem demokratischen Staat und welche nicht?“ (Zitat aus der Mitteilung) Geplant seien je eine ganztägige Gesprächsrunde (10 – 16 Uhr) in der Deutschschweiz (Zürich, 8. März 2014), in der Romandie (Grandson, 22. März 2014) und im Tessin (29. März 2014). Die Reisespesen werden übernommen, für Verpflegung ist gesorgt, und alle Teilnehmenden erhalten eine kleine Entschädigung. Weitere Informationen und Anmeldung: www.ta-swiss.ch. Anmeldefrist: 31. Januar 2014.
informationsethik.info ist ein Projekt des Instituts für Wirtschaftsinformatik an der Hochschule für Wirtschaft der Fachhochschule Nordwestschweiz FHNW und wird von der Ernst Göhner Stiftung unterstützt. Es wird von Prof. Dr. Oliver Bendel geleitet. Mehrere Monate musste die Plattform mit einem provisorischen Design auskommen. Ende Dezember 2013 fiel der Startschuss für eine erste Phase der Verwandlung. Ein neues Template wurde gewählt (das ebenfalls „responsive“ ist), die Fotografie im Willkommenstext wurde verkleinert und rutschte in den Header hoch, eine Rubrik „Begriff des Monats“ wurde eröffnet. Es handelt sich also nicht nur um alten Wein in neuen Schläuchen. In den nächsten Monaten werden Design und Content weiterentwickelt. Wer das Projekt unterstützen will, in welcher Form auch immer, ist von den Betreibern dazu eingeladen. Die E-Mail-Adresse findet sich auf informationsethik.info in der Rubrik „Kontakt“.