Der Badbot von Microsoft

Aus einem Chatbot wurde ein Badbot – Tay von Microsoft entwickelte sich zum Albtraum des Unternehmens und der Gesellschaft. Der SPIEGEL schrieb am 24. März 2016: „Zuerst war Tay noch freundlich, ein bisschen zu jugendsprachlich-obercool vielleicht, manchmal etwas dämlich wirkend, aber harmlos. Dann kam der Kontakt mit der harten Realität des Netzes.“ Und dann sagte Tay: „Hitler hatte recht. Ich hasse die Juden.“ (SPON, 24. März 2016) Die Süddeutsche Zeitung widmete sich dem Thema am 1. April in der gedruckten und am 3. April in der Onlineausgabe. Sie zitierte wiederholt den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel, der selbst Chatbots konzipiert. 2013/2014 entstand an der Hochschule für Wirtschaft FHNW der GOODBOT im Rahmen eines studentischen Praxisprojekts, seit Anfang 2016 wird der LÜGENBOT oder LIEBOT von Kevin Schwegler programmiert, als spezielle Form einer Münchhausen-Maschine. Die Ergebnisse werden auf KI- und Maschinenethik-Konferenzen in den USA und in Europa vorgestellt. Der Artikel in der Onlineausgabe der Süddeutschen trägt den Titel „Rassistischer Chat-Roboter: Mit falschen Werten bombardiert“ und stammt von Bernd Graff.

Abb.: Ein Gebäude von Microsoft

Konferenz zur Maschinenethik

Beim Workshop „Ethical and Moral Considerations in Non-Human Agents“ an der Stanford University vom 21. bis 23. März 2016 im Rahmen der AAAI Spring Symposia erklärte Ron Arkin (Georgia Institute of Technology, USA) in seiner Keynote „Robots that Need to Mislead: Biologically Inspired Machine Deception“, wie Tiere täuschen und wie man Maschinen beibringen kann, andere zu täuschen. Er ging auch auf die Möglichkeit ein, dass Roboter lügen, und stellte die Frage: „Should a robot be allowed to lie?“ Elizabeth Kinne und Georgi Stojanov thematisierten in „Grounding Drones‘ Ethical Use Reasoning“ die Chancen und Risiken von Kampfdrohnen. Sie präsentierten Szenarien, um die Probleme beim Einsatz zu vergegenwärtigen. Die Verantwortlichen könnten dazu neigen, immer mehr heikle Entscheidungen den Robotern zu überlassen. Der Vortrag „Metaethics in context of engineering ethical and moral systems“ von Michal Klincewicz und Lily Frank, bereits nach der Kaffeepause, fragte nach den grundsätzlichen Möglichkeiten und Unmöglichkeiten moralischer Systeme. Oliver Bendel ging auf das LIEBOT-Projekt ein. An der Hochschule für Wirtschaft FHNW wird 2016 im Rahmen einer Bachelor-Arbeit ein Chatbot programmiert, der konsequent die Unwahrheit sagt. Vor allem stellte der Wissenschaftler aber einen annotierten Entscheidungsbaum für eine einfache moralische Maschine vor, ein tierfreundliches Roboterauto. „The artificial autonomous moral agents (AAMA): a minimalist model“ war der letzte Vortrag vor dem Lunch. Ioan Muntean schlug in „The artificial autonomous moral agents (AAMA): a minimalist model“ einen Ansatz der Tugendethik vor, den er zusammen mit Don Howard erarbeitet hatte. Bis zum Mittwoch tauschte man sich zur Maschinenethik und zur Roboterethik aus. Die letzte Keynote („Programming Machine Ethics“) hielt Amit Kumar Pandey von Aldebaran Robotics (SoftBank Group). Der Proceedingsband „The 2016 AAAI Spring Symposium Series: Technical Reports SS-16-01 – SS-16-07“ kann über aaai.org/proceeding/04-spring-2016/ bezogen werden.

Abb.: Sicherheitsdienst in Roboterform in der Shopping Mall von Stanford

Tagung zu technischen Unterstützungssystemen

Am 12. und 13. Dezember 2016 veranstaltet die Forschernachwuchsgruppe smartASSIST des Laboratoriums Fertigungstechnik an der Helmut-Schmidt-Universität bzw. der Universität der Bundeswehr Hamburg die zweite Konferenz zum Thema „Technische Unterstützungssysteme, die die Menschen wirklich wollen“. In einer Information schreiben die Veranstalter: „Ausgehend von der Idee, dass der Mensch auch in Zukunft in vielen Bereichen durch Technik weder ersetzt werden kann, noch ersetzt werden möchte, soll diese Konferenz ein Beitrag zu einem transdisziplinären und partizipativen Ansatz leisten. Daher laden wir Wissenschaftler, Praktiker und potenzielle Nutzer aus verschiedenen Disziplinen und Branchen ein, um gemeinsam die Grundlage für eine bedarfsorientierte Technikentwicklung zu schaffen. Die gesellschaftliche Akzeptanz technischer Unterstützungssysteme steht im Zentrum dieser Konferenz.“ (Information smartASSIST) Und weiter: „Neben der Publikation der Beiträge in einem Konferenzband ist eine Veröffentlichung ausgewählter Beiträge in einer editierten Sonderausgabe vorgesehen.“ (Information smartASSIST) Weitere Informationen über www.smartASSIST.info.

Abb.: Was brauchen wir, was nicht?

Autonome Autos in den Städten

Für „Der Sonntag“ vom 13. März 2016 hat René Zipperlen den Wirtschaftsinformatiker und Maschinenethiker Oliver Bendel von der Hochschule für Wirtschaft FHNW interviewt. Sein Interesse gilt u.a. der Situation, die sich niemand wünscht: „Was ist, wenn ein autonomes Auto einen Unfall baut?“ Der Wissenschaftler führt aus: „Es klingt paradox: Für den Menschen stellt sich womöglich keine moralische Frage, weil alles viel zu schnell geht. Bei der Maschine entsteht aber vielleicht eine moralische Situation, weil sie andere Möglichkeiten nutzen kann als nur Reflexe, sie kann aufgrund einer Vielzahl von Beobachtungen und Bewertungen blitzschnell entscheiden, ob sie weiterfährt, ausweicht oder bremst.“ (Der Sonntag, 13. März 2016) Eine andere Frage ist: „Würden Sie die Autonomie von Fahrzeugen ab einem gewissen Punkt begrenzen?“ Die Antwort lautet: „Ich bin für hybride Autos, bei denen wir noch selbst eingreifen können. Google will Lenkrad und Pedal entfernen. Das halte ich für einen Fehler, denn es macht uns ohnmächtig. Ich wäre durchaus dafür, das autonome Auto zwischen Städten verkehren zu lassen, auf geraden Strecken wie der Autobahn.“ (Der Sonntag, 13. März 2016) Zipperlen: „Und im Stadtverkehr?“ Bendel: „Würde ich es im Moment verbieten. Städte sind zu kompliziert.“ (Der Sonntag, 13. März 2016) Der ganze Beitrag mit dem Titel „Die Moral der Roboter“ kann hier heruntergeladen werden.

Abb.: Städte sind komplexe Umgebungen

Was ist der Mensch wert?

„Darf das selbstfahrende Auto Menschenleben bewerten?“ Dies fragt in dem gleichnamigen Artikel in der Welt vom 25. Februar 2016 die Journalistin Barbara Schneider. Im Teaser schreibt sie: „Bald sollen selbstfahrende Autos zum Alltag gehören. Ethiker melden Bedenken an: Soll Technik zum Beispiel entscheiden dürfen, dass bei einem Unfall ein Mensch stirbt, damit viele andere überleben?“ Zu Wort kommen u.a. Catrin Misselhorn und Oliver Bendel. Ihre Positionen werden gegenübergestellt: „Die Tübinger Philosophin Catrin Misselhorn verfolgt den Ansatz, nach einem gesellschaftlichen Konsens für diese ethischen Fragen zu suchen. … Es müsse anhand von empirischen Befragungen herausgefunden werden, welches ethische Konzept der Intuition der meisten Menschen entspreche, sagt Misselhorn. Mit dieser Moral könne dann das selbstfahrende Auto ausgestattet werden.“ (Die Welt, 25. Februar 2016) Und weiter: „Der Philosoph Oliver Bendel sieht das anders. Er warnt prinzipiell davor, Maschinen wie Roboter-Autos komplexe Entscheidungen zu überlassen. ‚Die Maschine kann keine Verantwortung übernehmen‘, sagt er. Ein Roboter-Auto, das beispielsweise einen Unfall verursache, könne keine Schuld tragen.“ (Die Welt, 25. Februar 2016) Aus diesem Ansatz heraus konzipiert der Maschinenethiker einfache moralische Maschinen, etwa tierfreundliche Saugroboter oder das Recht am Bild und die Privatsphäre achtende Fotodrohnen. Der Artikel kann über www.welt.de/wissenschaft/article152649685/Darf-das-selbstfahrende-Auto-Menschenleben-bewerten.html aufgerufen werden.

Abb.: Was ist der Mensch wert, der vor dem Auto steht, geht und fährt?

Das verdatete Tier

Der Workshop „Berechnete Tiere: Technik und Verdatung in den Human-Animal Studies“ (Teil des DFG-Projekts „Das verdatete Tier“) findet vom 22. bis 23. April 2016 im Blue Square Bochum statt. Veranstaltet wird er von Ina Bolinski und Prof. Dr. Stefan Rieger von der Ruhr-Universität Bochum. Im Flyer werden Hintergrund und Intention beschrieben: „Der Workshop möchte mit den berechneten Tieren einerseits solchen Wesen nachspüren, die ihre Existenz technischen Verfahren verdanken und ihren Ursprung im Computer haben. Andererseits sollen auch Tiere, die aufgrund von verschiedenen Techniken zu ‚verdateten Tieren‘ oder durch technische Apparaturen selbst zum Datengenerator werden, im Fokus stehen. Mit der Fügung der berechneten Tiere werden somit zwei aktuell entfernte Topoi bemüht: Das Tier, das als Verkörperung natürlicher Intuition und vom Instinkt geleitet gilt, gerät im Modus des Berechnens an Konzepte von Rationalität und an die Möglichkeit der Verkörperung in und durch technische Prozesse. Zu fragen ist daher, in welchem Verhältnis Tier und Technik zueinander stehen.“ Oliver Bendel (Brugg-Windisch) stellt „Überlegungen zur Disziplin der Tier-Maschine-Interaktion“ an, Thomas Schmickl (Graz) geht auf „Biohybrid systems – Tiere, Pflanzen, Roboter, Agenten und Algorithmen“ ein, Sibylle Hahshold (Graz) erzählt „Von Bienen, Robotern und Algorithmen“. Weitere interessante Vorträge erwarten das Publikum, das sich einbringen darf und soll. Es wird um Anmeldung per E-Mail an ina.bolinski(a)rub.de bis zum 15. April 2016 gebeten. Der Flyer kann hier heruntergeladen werden.

Abb.: Flyer zur Veranstaltung

Gespräche am Rande des WEF

Sonja Striegl von SWR2 war am 20. Januar 2016 im Gespräch mit Oliver Bendel. Anlass war das Weltwirtschaftsforum (WEF) in Davos. Dort wird die vierte industrielle Revolution verhandelt. Titel von Veranstaltungen waren beispielsweise „The Internet of Things Is Here“ und „Life in 2030: Humankind and the Machine“. Die Moderatorin fragte den gleichaltrigen Ethiker und Wirtschaftsinformatiker – beide sind Jahrgang 1968 und haben die Ausbreitung des Internets und die Fortschritte bei der Robotik bewusst miterlebt – nach Entwicklungen bei selbstständig fahrenden Autos und bei Pflegerobotern. Oliver Bendel erläuterte, wie diese teilautonomen und autonomen Systeme, wenn sie auf sich gestellt sind, entscheiden und handeln und wie man sie im Vorhinein „moralisieren“ kann. Der mehrminütige Beitrag mit dem Titel „Bis dass die Software Euch scheidet“ kann über die Website des Senders angehört werden.

Abb.: In den Bergen der Schweiz

Conference on ICT, Society and Human Beings

Die 9th International Conference on ICT, Society and Human Beings findet vom 1. bis 3. Juli 2016 auf Madeira statt. Auf der Website kann man zum Hintergrund und zu den Zielen lesen: „The effects of ICT on human beings as well as the interaction between ICT, individuals, and society are all within the focus of this conference. Today, computer science and ICT-related disciplines are working more and more together with various behavioural and social sciences including child psychology and developmental psychology. For this reason, the conference pays attention to societal changes, global and more local organisational and institutional changes, changes in values and in lifestyles, as well as individual cognitive effects and changes, motivational and emotional changes. It also appeals to solution-building in terms of desirable goals and actions for reaching a Good Information Society.“ Deadline für die Einreichung von Beiträgen ist der 8. Februar 2016. Weitere Informationen über ict-conf.org.

Abb.: Madeira hat viele Reize

Bericht zur Tagung des Arbeitskreises KRIBIBI

Vom 6. bis zum 7. November 2015 fand in der Bibliothek der Arbeiterkammer Wien die Jahrestagung des Arbeitskreises kritischer Bibliothekarinnen und Bibliothekare (KRIBIBI) statt. Das Thema war „Informationsethik – za’wos brauch’ma des?“. Den Auftakt machte am Freitagabend der Vortrag von Oliver Bendel mit dem Titel „Von der ‚Bibliothek‘ zum ‚Cyborg‘ und zurück: Ein Spaziergang durch die Begriffswelt der Informationsethik“. Im Bericht zur Tagung, der am 25. November erschienen ist, heißt es: „Etwa 35 ZuhörerInnen verfolgten mit großer Aufmerksamkeit den Eröffnungsvortrag von Prof. Dr. Oliver Bendel aus Zürich. Oliver Bendel ist sowohl Wissenschaftler als auch Schriftsteller und lehrt an der Fachhochschule Nordwestschweiz am Institut für Wirtschaftsinformatik der Hochschule für Wirtschaft. Seine doppelte Funktion ließ ihn besonders gut geeignet erscheinen vor einem Publikum zu sprechen, dessen Beruf und meistens auch Leidenschaft es ist, Werke der Wissenschaft und der Literatur zu bewahren, zu erschließen und zugänglich zu machen.“ (Website KRIBIBI) Die Tagung wurde am darauffolgenden Tag im Gartenhotel Altmannsdorf fortgeführt. Der „Mister Bibliotheksethik“ (Website KRIBIBI) Deutschlands, Prof. Dr. Hermann Rösch, präsentierte ethische Fragen und Problemstellungen im Bibliothekswesen. „Prof. Dr. Hermann Rösch hat Germanistik, Soziologie, Politikwissenschaft und Volkswirtschaft studiert, danach die Ausbildung für den höheren Dienst an wissenschaftlichen Bibliotheken absolviert und ist heute Professor am Institut für Informationswissenschaft der Fachhochschule Köln. Seit 2007 ist er Mitglied in der … IFLA-Kommission FAIFE. Er hat vielfach zum Thema Bibliotheksethik publiziert …“ Weitere Informationen über www.kribibi.at.

Abb.: Das Belvedere in Wien

Global Digital Citizenship

Die neue Ausgabe der International Review of Information Ethics, herausgegeben von Jared Bielby, widmet sich dem Thema „Global Digital Citizenship“, das im Vorwort in den Rahmen der sogenannten Flüchtlingskrise eingebettet wird: „The current European refugee crisis presents a major challenge both politically and economically for the EU and indeed the world. Looking beyond mere operative endeavours, the complexity of the crisis reminds us of the fragility of the assumed structures and organization of our (social) being in the world: questioning our being-as-citizen not only of a homeland but of a nation state as well, where geopolitical, cultural and ethnic standards are challenged.“ (Website www.i-r-i-e.net) João Antonio de Moraes geht zusammen mit Eloísa Benvenutti de Andrade auf die Frage „Who are the citizens of the digital citizenship?“ ein, Andrew Iliadis auf „The Right to Nonparticipation for Global Digital Citizenship“. „Access to Information is (Not) a Universal Right in Higher Education: Librarian Ethics and Advocacy“ lautet der Titel eines Beitrags von Laurie M. Bridges und Kelly McElroy. Im Bibliothekswesen setzt man sich immer mehr mit Fragen der Ethik auseinander, und die Informationsfreiheit ist ein wesentlicher Aspekt in diesem Zusammenhang. Weitere Artikel leuchten die „Global Digital Citizenship“ aus. Das Heft kann hier heruntergeladen werden.

Abb.: Bürgerinnen Europas werden Bürgerinnen der Welt

Tagung zur Roboterethik in Berlin

Eine hochkarätig besetzte Tagung zur Roboterethik fand am 24. November 2016 in Berlin statt. Eingeladen hatten Cologne Center for Ethics, Rights, Economics and Social Sciences of Health (ceres) und Daimler und Benz Stiftung. Vor dem eigentlichen Programm mit Beginn um 10 Uhr wurde eine Pressekonferenz mit Prof. Dr. Eckard Minx, Prof. Dr. Christiane Woopen, Prof. Dr. Alin Albu-Schäffer und Prof. Dr. Oliver Bendel durchgeführt. Im Karl-Storz-Besucher- und Schulungszentrum begann dann der wissenschaftliche Marathon. Minx begrüßte und eröffnete, Woopen führte ein, nicht in ihrer Funktion als Vorsitzende des Ethikrats, sondern als Leiterin von ceres. Die Grundlagen autonomer Systeme erklärte Albu-Schäffer in seinem Vortrag „Autonomie und Kognition für menschzentrierte Robotik“. Mit „Autonome Systeme und die Selbstbestimmung des Menschen“ war der nächste Komplex betitelt. „Roboterlernen ohne Grenzen?“ von Prof. Dr. Jochen Steil schuf weitere Robotikgrundlagen. Dann ging es tief in die Maschinenethik. Bendel referierte über „Die Moral in der Maschine“, wobei er die Designstudien CLEANINGFISH und LADYBIRD und den Prototypen GOODBOT vorstellte, Prof. Dr. Catrin Misselhorn über „Maschinen mit Moral? Theoretische Grundlagen und eine Roadmap für autonome Assistenzsysteme in der Pflege“. Nach der Mittagspause waren Prof. Dr. Hartmut Hirsch-Kreinsen und Prof. Dr. Johannes Weyer an der Reihe. Prof. Dr. Norbert Lammert, Bundestagspräsident, sprach zur Rolle der Politik. Christiane Woopen rundete mit ihrem Schlusswort die Veranstaltung ab. Der Diskussionsbedarf war groß, die Nachfrage der Journalisten nach Interviews mit den Fachexperten ebenfalls. Ein Audiofile mit Statements der Experten (als Teil eines Beitrags des Deutschlandfunks) kann direkt hier abgerufen werden.

Abb.: Pressekonferenz mit (v. l.) Bendel, Woopen und Albu-Schäffer (Foto: Daimler und Benz Stiftung/Hillig)

Beitrag zu CSR

IT-Unternehmen tragen Verantwortung und müssen Verantwortung übernehmen. Die Begriffe von Wirtschafts- und Informationsethik helfen dabei, die Herausforderungen zu erkennen und zu beschreiben. Ein Artikel von Oliver Bendel in der Netzwoche 17/2015, erschienen im November des Jahres, geht auf die „Unternehmensverantwortung im Informationszeitalter“ ein. Es werden die Begriffe von Informationsethik und Wirtschaftsethik geklärt und deren Konzepte miteinander in Beziehung gesetzt. Konkret wird auf die informationelle Autonomie, den digitalen Graben, die Informationsgerechtigkeit und die informationelle Notwehr eingegangen. Die Frage, was Corporate Social Responsibility ist, muss nach Prof. Dr. Oliver Bendel im Informationszeitalter neu beantwortet werden. Die Wirtschaftsethik, mit Unternehmensethik und Konsumentenethik, habe sich mit der Informationsethik zu verständigen. Der Artikel steht kostenlos als PDF zur Verfügung.

Abb.: Internet- und IT-Unternehmen müssen Verantwortung übernehmen

Unintended Consequences

Die Zeitschrift IEEE Potentials hat im November 2015 einen Call for Papers veröffentlicht zum Thema „Unintended Consequences: the Paradox of Technological Potential“. Auf der Website der Mitherausgeberin Dr. Katina Michael heißt es: „We are looking for critical reviews and analyses, case examples, commentaries, interviews, opinion pieces, stories, projections and science fiction narratives from researchers, futurists, practitioners and storytellers, examining the hidden implications of our ever-digital lives.“ Der Blick soll auf Zukunft oder Gegenwart gerichtet sein: „While we are open to predictive scenarios of what the near future will bring, we are also looking for contemporary analysis as well. After all, we are living at a time where the line between science fiction and reality is blurring: our relationships are mediated, our memories are archived, and our identities are public documents. What are the implications of rapidly advancing technology on government (e.g. military drones), organizations (e.g. data analytics), and our personal lives (e.g. wearables)?“ Ein Abstract muss bis zum 8. Januar 2016 hochgeladen werden. Weitere Informationen über www.katinamichael.com.

Abb.: Diese Drohne kann den Gegner ausspähen

Grabsteine im Cyberspace

„Grabsteine im Cyberspace“ ist der Titel eines Artikels, der am 1. November 2015 auf SenLine erschienen ist. Es geht, wie der Untertitel verrät, um „Projekte wie BillionGraves und MyHeritage“. Diese werden mit einer persönlichen Geschichte und mit der deutschen Geschichte verknüpft: „Inge Scholl ist vor langer Zeit gestorben. Ihr Leben hat alles umspannt, von den schrecklichen Jahren im Dritten Reich bis zu unseren für sie nicht so wichtigen und für mich so wichtigen Treffen, vom tragischen Tod ihres Mannes Otl Aicher bis hin zu ihren Jahren mit sich selbst. Ich erinnere mich nicht mehr an den Raum, in dem wir arbeiteten, von einer gewissen Dämmerung abgesehen. Aber die Fotos sind immer noch vor meinem inneren Auge, hell und leuchtend, was an der Leselampe liegen mag. Die hübsche Sophie. Der hübsche Hans. Im Licht der Lampe. Sophie und Hans, von den Nazis ausgelöscht.“ Der Beitrag von Oliver Bendel kann über seniorweb.ch/2015/11/10/grabsteine-im-cyberspace/ aufgerufen werden.

Abb.: Ein Friedhof in Glasgow

Umfragen zur Ethik auf Twitter

„Wer soll auf den Straßen über Leben und Tod von Menschen entscheiden?“ So lautete die Frage von @Infoethik bei einer der ersten Umfragen auf Twitter. Die neue Funktion namens Twitter Polls erlaubt es, die Meinungen der Benutzer einzuholen. Auf ZDNet wird Produktmanager Todd Sherman zitiert: „Twitter Polls sei eine neue Möglichkeit, mit dem riesigen Twitter-Publikum zu interagieren und herauszufinden, was Menschen denken. Für die Teilnehmer sei es eine einfache Möglichkeit, sich Gehör zu verschaffen.“ (Website ZDNet, 22. Oktober 2015) Weiter wird erklärt: „Umfragen auf Twitter haben eine vorgegebene Laufzeit von 24 Stunden. Nutzer können über zwei mögliche Antworten zu einer Frage abstimmen lassen.“ (Website ZDNet, 22. Oktober 2015) Jeder, der angemeldet ist, kann den passenden Radiobutton auswählen; wie man abgestimmt hat, wird nicht öffentlich mitgeteilt. Die beiden Antworten „Die Fahrer“ und „Die Autos“ wurden in den ersten Minuten einige Male angeklickt. Die Autos rasten davon. Es sollen weitere Umfragen zur Maschinenethik und zur Informationsethik stattfinden.

Abb.: Auf Twitter gibt es Umfragen zur Ethik

Ausschreibung zu einer Studie zu Quantified Self

Die TA-SWISS schreibt eine Technology-Assessment-Studie zum Thema „Quantified Self – Schnittstelle zwischen Lifestyle und Medizin“ aus. „Quantified Self“ steht für Self-Tracking-Lösungen, vor allem im sportlichen und medizinischen Bereich, und eine damit verbundene Bewegung. Es werden Daten des Körpers zusammen mit anderen Daten (Zeit, Raum etc.) erfasst, ausgewertet und dokumentiert sowie teilweise – etwa über Streaming und über Erfahrungsberichte – mit anderen geteilt. Eingesetzt werden Wearables aller Art, etwa Smartwatches. In der Ausschreibung heißt es zu dem Phänomen: „Aus der Datenfülle sollen Erkenntnisse gewonnen werden für die Früherkennung von Krankheiten und die Optimierung von Therapien, zudem sollen die Daten auch Aufschluss geben darüber, welche Faktoren einer guten Gesundheit förderlich sind. Doch der Umgang mit gesundheitsrelevanten Daten ist heikel und sollte hohen Anforderungen des Datenschutzes genügen.“ In der Studie sollen laut TA-SWISS die Chancen und Risiken von Quantified Self diskutiert werden. Auch die Informationsethik ist eine mögliche Perspektive. Es steht ein Budget von bis zu 140000 CHF zur Verfügung. Gewünschter Projektbeginn ist März 2016. Weitere Informationen über www.ta-swiss.ch.

Abb.: Quantified Self mit Hilfe einer Smartwatch

Militärische Drohnen in der Moral

Die Jahrestagung der Fachgruppe „Informatik und Ethik“ widmet sich vom 15. bis 16. Oktober 2015 in Berlin dem Thema Drohnen. Auf der Website heißt es: „Im Geheimdienstbefugnisklärungsausschuss des Deutschen Bundestags taucht am Rande immer wieder auf, was der Ex-Geheimdienstler Michael Hayden so drastisch ausdrückte: Wir töten Menschen auf der Basis von Meta-Daten. Der nicht mehr ganz so geheime Drohnenkrieg der militärisch stärksten Staaten zeigt in erschreckender Weise, welch zentrale Rolle Technikerinnen und Techniker in der Schönen Neuen (Gewalt-)Welt einnehmen.“ (Website GI, Oktober 2015) Es geht also um militärische Drohnen, die in bestimmter Weise bewertet werden. Entsprechend betrachtet Rafael Capurro am Donnerstag die „Kriegsmaschinen“ aus moralischer Sicht, und Constanze Kurz wiederholt in ihrem Vortrag die obige Aussage: „We kill people based on meta-data“. Verena Hafner nimmt am Freitag die Perspektive der Roboterethik ein, Hans-Jörg Kreowski stellt die Frage nach der „Kalamität bewaffneter Drohnen“. Die Teilnahme ist laut GI kostenlos. Es wird um Anmeldung unter drohnen@turing-galaxis.de gebeten. Weitere Informationen über gewissensbits.gi.de/jahrestagung-2015-drohnen.

Abb.: Greift die Drohne an?

Jahrestagung 2015 des Arbeitskreises KRIBIBI

Vom 6. bis zum 7. November 2015 findet in Wien die Jahrestagung des Arbeitskreises kritischer Bibliothekarinnen und Bibliothekare im Karl-Renner-Institut (KRIBIBI) statt. Der Titel ist „Informationsethik – za’wos brauch’ma des?“. Man will einerseits der Frage nachgehen, „ob Bibliotheksethik nicht eine Selbstverständlichkeit sein muss“, und andererseits herausfinden, „ob es explizit progressive bibliotheksethische Entwürfe gibt und wie sich diese unter Umständen von Mainstream-Ethiken unterscheiden“ (Website KRIBIBI). Ein Workshop biete die Möglichkeit, konkrete Problemfelder bibliothekarisch-ethischen Vorgehens zu untersuchen und zu diskutieren. Den Auftakt macht am Freitagabend der Vortrag von Oliver Bendel mit dem Titel „Von der ‚Bibliothek‘ zum ‚Cyborg‘ und zurück: Ein Spaziergang durch die Begriffswelt der Informationsethik“. Am darauffolgenden Morgen referiert Hermann Rösch zum Thema „Ethik in der Bibliothek – eine Selbstverständlichkeit?“ Weitere Informationen über www.kribibi.at.

Abb.: Nichts entgeht dem strengen Blick der Bibliothekarin

Responsibility und Resistance

„Responsibility and Resistance: Ethics in Mediatized Worlds“ lautet der Titel einer internationalen Konferenz, die vom 10. bis 11. Dezember 2015 an der Austrian Academy of Sciences in Wien stattfindet. Keynoter sind u.a. Friedrich Krotz, Universität Bremen („Ethics in Mediatized Worlds“) und Stefanie Averbeck-Lietz, ebenfalls Universität Bremen („History of Responsibility in Mediatized Worlds – is it a new Topic?“). Auf der Website heißt es zum Programm: „It consists of five keynote speeches and twelve panel presentations which have been selected from a large number of submissions from all over the world. The conference begins with an informal Get Together on Wednesday evening, December 9, 2015.“ Weitere Informationen über mediatizationandethics.wordpress.com.

Abb.: In Wien

Handygirl in Holland

Auf seiner Vortrags- und Lesereise vom 14. bis 16. September 2015 durch die Niederlande erzählte Oliver Bendel von seinen Handyromanen und -haikus und trug kurze Passagen aus seinen Werken vor, etwa aus „Handygirl“ (2009 – 2010). Handygirl ist ein Avatar und lebt auf dem Handy von Liza. Sie liest die SMS vor und ist eifersüchtig, wenn Liza über ihr Notebook chattet. Niemand ahnt, dass Handygirl eines Tages zur Superheldin wird. Am wenigsten Handygirl selbst. Doch eines Tages geschieht es: Als Liza in Gefahr gerät und fürchterliche Angst bekommt, steigt Handygirl aus dem Handy und rettet und tröstet sie. Sie wird eine Superheldin, vor allem aber ein Mensch; und für Augenblicke lebt sie wirklich. Handygirl war eine Inspiration für den GOODBOT, der 2013 an der Hochschule für Wirtschaft FHNW als Prototyp entwickelt wurde, und den Oliver Bendel am Ende der Veranstaltungen als moralische Maschine vorstellte. Noch früher als „Handygirl“ war die Serie um Lucy Luder entstanden, nämlich im Jahre 2007. Zudem hatte es den Handyroman „lonelyboy18“ (2009) gegeben. Stationen waren u.a. Universiteit Leiden, Universiteit Groningen und Universiteit Utrecht. Eingeladen haben den Wissenschaftler und Schriftsteller die Goethe-Institute Amsterdam und Rotterdam und die Deutsche Bibliothek in Den Haag. In der Reihe, an der schon Hans Magnus Enzensberger, Friedrich Christian Delius, Peter Stamm und Kathrin Passig mitgewirkt haben, ging es dieses Mal um die Digitalisierung der Literatur.

Abb.: Nach der Veranstaltung in Zwolle

Human Enhancement aus ethischer Sicht

Das TATuP-Heft 2/2015 ist im August 2015 erschienen. Die Zeitschrift des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT) kommt seit 1992 heraus. Der Themenschwerpunkt „Technik und Pflege in einer Gesellschaft des langen Lebens“ geht, wie bereits dem Newsletter Nr. 49 zu entnehmen war, „der Frage nach, wie eine bedarfsgerechte Pflege von Menschen in unterschiedlichen Betreuungskontexten gestaltet werden kann“ (Newsletter ITAS). Gefragt seien in diesem Zusammenhang interdisziplinäre Forschungsansätze, die sich sowohl mit den Bedürfnissen der zu pflegenden Menschen und der Pflegenden als auch mit der Logik der technischen Systeme selbst auseinandersetzen. Über den Schwerpunkt hinaus gibt es ein Interview mit Markus Schmidt über das BIO:FICTION-Festival und einen Beitrag von Oliver Bendel über Human Enhancement aus ethischer Sicht. Weitere Informationen und Download über www.tatup-journal.de.

Abb.: Ein Beispiel für Human Enhancement

Expertenbeirat für QuartrBack

Oliver Bendel, Professor an der Hochschule für Wirtschaft FHNW, sitzt ab Oktober 2015 im Expertenbeirat des vom BMBF geförderten Projekts „QuartrBack – Intelligente Notfallkette im Quartier für Menschen mit Demenz“. Bestellt hat ihn das Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT). Laut Website ist das Ziel des Projekts, Menschen mit Demenz einen gefahrlosen Zugang zu ihren individuellen Sozialräumen im Quartier und eine „gesicherte Teilhabe“ am sozialen Leben zu ermöglichen. „Dabei werden unterschiedliche bereits vorhandene Technologien (Mensch-Technik-Interaktion) für Ortung, Monitoring, Zugangskontrolle und Information kombiniert eingesetzt. So können mithilfe einer im Zuge des Projektes neu entwickelten und bedarfsorientiert konfigurierbaren Technologie für Ortung/Monitoring die Bewegungsfreiheit und Unabhängigkeit von Menschen mit Demenz ihren individuellen Bedürfnissen gemäß gestärkt werden“ (Website ITAS). Die Hauptaufgabe des ITAS „besteht vor allem in der entwicklungsbegleitenden Technikfolgenbeurteilung des Gesamtprozesses mit einem Fokus auf den technischen, rechtlichen, ökonomischen und insbesondere ethisch-sozialen Aspekten der verwendeten Technologien“. (Website ITAS) Die Expertengruppe wird sich achtmal in drei Jahren in Frankfurt und Karlsruhe treffen. Weitere Informationen zum Projekt über www.itas.kit.edu/projekte_wein15_quartrback.php.