Schlagworte: Kampfroboter

Guildo hat euch lieb

Im Saal war noch ein gut gelaunter Guildo Horn (Podiumsteilnehmer im Workshop “Wie schreibt man über Menschen mit Behinderungen?”), als die Referenten hereinkamen. Er begrüßte sie mit den Worten: “Jetzt kommen schon die Nächsten – hallo!” Die Nächsten waren die Referenten des Workshops “Maschinenethik”, nämlich Oliver Bendel (“Moral für Maschinen”) und Barbara Lenz (“Autonome Autos”). Bendel von der Hochschule für Wirtschaft FHNW eröffnete am 17. November 2015 als Wissenschaftler den Workshop und führte in die derzeit wohl meistdiskutierte Disziplin ein – und gestand, dass ihm die ganze Zeit das Lied “Guildo hat euch lieb” des von ihm sehr geschätzten Sängers und Aktivisten durch den Kopf gehe. Lenz vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) vertiefte mit dem derzeit wohl meistgenannten Anwendungsbeispiel. Abgesagt hatte Frank Sauer, Universität der Bundeswehr München (“Autonome Waffen”). Über eine halbe Stunde erstreckte sich ein lebhaftes Frage-Antwort-Spiel mit dem Moderator Ralf Krauter vom Deutschlandfunk, der den Referenten auch noch die letzten Geheimnisse (die natürlich längst publiziert waren) entlockte. Wie programmiert man moralische Maschinen? Was spricht für regelbasierte, was für fallbasierte Ansätze? Wieviel Autonomie soll der Mensch behalten? Was will die Wirtschaft, was die Wissenschaft? Die anwesenden Journalistinnen und Journalisten geizten anschließend nicht mit Fragen. Im Konferenzhotel Maritim ging es insgesamt trubelig zu im Rahmen der Veranstaltung “Wissenswerte”. In den Workshops redete man sich die Köpfe heiß über “Multimediales Storytelling”, “Science und Fiction” und “Big Data in der Medizin”. Im Messebereich präsentierten sich die Partnerorganisationen, u.a. die Max-Planck-Gesellschaft, die Fraunhofer-Gesellschaft, die Helmholtz-Gemeinschaft, die Leibniz-Gemeinschaft und der Stifterverband. Am frühen Abend war Franz Alt im Gespräch mit Lena Ganschow. Danach klang der Abend beim Essen im Friesenhof aus.

Abb.: Guildo hat uns lieb (Foto: Malte Hübner)

Über autonome Autos und kämpfende Roboter

Wen soll das autonome Auto töten? Darf es überhaupt töten? Wen soll die Drohne töten? Der Maschinenethiker Oliver Bendel befasst sich seit mehreren Jahren mit solchen Fragen. Bei watson.ch gibt es am 4. November alte und neue Antworten. Bendel spricht sich dafür aus, die Maschine nicht über Leben und Tod von Menschen entscheiden zu lassen. Dafür muss man das Roboterauto, wenn man es erlaubt, in die Schranken weisen. Auf separaten Fahrspuren, zu bestimmten Uhrzeiten und mit reduzierter Geschwindigkeit entstehen weniger Unfälle und dadurch weniger Dilemmata. Zudem werden die Fahrzeuge für Skeptiker und Gegner berechenbarer, was ihrer Akzeptanz zuträglich ist. Überhaupt muss, so fordert Bendel, die Gesellschaft miteinbezogen werden. Am Rande wird auch auf Kampfroboter eingegangen. Der Maschinenethiker sagt dazu: “Ich habe zwar den Aufruf gegen Kampfroboter mitunterschrieben, aber ich muss zugeben, dass die Sache nicht ganz so schwarz-weiss ist, wie sie auf den ersten Blick scheint. Ein Kollege stellte schon vor einiger Zeit fest: Im Gegensatz zu Soldaten vergewaltigen Killerroboter nicht, sie brandschatzen nicht, sie plündern nicht. Sympathisch sind sie mir trotzdem nicht.” (watson.ch, 4. November 2015)  Der Beitrag kann über www.watson.ch/!106690026 aufgerufen werden.

Abb.: Ein menschlicher Soldat hinter einem Fenstergitter

Von Big Data bis Maschinenethik

Das Dialogforum WISSENSWERTE 2015 in Bremen bietet vom 16. bis 17. November 2015 mehrere Workshops zu aktuellen und brisanten Themen an. Getragen wird die Reihe u.a. von Helmholtz-Gemeinschaft, Max-Planck-Gesellschaft, Fraunhofer-Gesellschaft und Stifterband für die deutsche Wissenschaft. Am 17. November widmet man sich dem Thema “Maschinenethik – wenn Roboter über Leben und Tod entscheiden”. Der Fokus ist auf autonome Autos und autonome Waffensysteme gerichtet. Der Eröffnungsvortrag wird von Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) gehalten. Weitere Workshops sind “Big Data in der Medizin – eine gesellschaftliche Revolution und was sie für uns bedeutet”, “Wie viel Evidenz steckt in unserem Gesundheitssystem?” und “Die Gene und die ‘Rassen’ – ein heikles Terrain”. Zudem wird am 24. November 2015 ein Rechercheworkshop zu “Palliativmedizin – warum geht es so langsam voran in Deutschland?” durchgeführt. Weitere Informationen über www.wissenswerte-bremen.de.

Abb.: Was sieht das autonome Auto?

Against Autonomous Weapons

KI-Forscher und Robotiker sowie weitere Wissenschaftler aus aller Welt haben das Verbot von autonomen Waffensystemen, etwa Kampfrobotern, gefordert. Zu den Unterzeichnern des offenen Briefs gehören der Physiker und Astrophysiker Stephen Hawking, der Apple-Co-Founder Steve Wozniak und der Sprachwissenschaftler und Linksintellektuelle Noam Chomsky. Manche Experten lehnen Kampfroboter ab, weil diese falsche Entscheidungen treffen und die Bevölkerung verunsichern können, andere weisen darauf hin, dass Maschinen anders als Menschen nicht zu Plünderungen, Brandschatzungen und Vergewaltigungen neigen und somit die Nebenschauplätze von Kriegen menschlicher gestaltet werden können. Zudem könne man das Leben derjenigen Soldaten schützen, die von den Robotern unterstützt oder ersetzt werden. Der offene Brief wurde bei der Eröffnung der IJCAI 2015 Conference am 28. Juli 2015 präsentiert. Unterschrieben hat ihn auch der Maschinenethiker Oliver Bendel, der in seinen Fachartikeln nicht zuletzt Kampfdrohnen thematisiert hat und der Robotern, die komplexe Entscheidungen mit moralischen Implikationen zu treffen haben, ausgesprochen kritisch gegenübersteht. Er spricht sich für sogenannte einfache moralische Maschinen aus.

Abb.: Auch Aufklärungsdrohnen werden immer autonomer (Quelle: Wikipedia; Autor: Padeluun)

Kriegsmaschinen

Wie verschiedene Medien melden, will das US-Militär “Roboter mit Moralempfinden entwickeln”. Das will es schon lange, aber nun wird die Öffentlichkeit informiert. Auf GIZMODO heißt es: “Über die nächsten fünf Jahre stellt eine Abteilung des US-Verteidigungsministeriums, das Office of Naval Research, 7,5 Mio. US-Dollar (etwa 5,5 Mio. Euro) für Universitätsforschung zur Verfügung, um Roboter zu entwickeln, die richtig und falsch unterscheiden können. So könnten autonome Kampfsysteme effektiver und selbstständiger operieren. Manch ein Wissenschaftler glaubt sogar, dass solche Maschinen bessere Entscheidungen als Menschen treffen könnten, da sie einfach klaren Regeln folgen, um die Chancen und Risiken von Operationen zu bewerten.” Es ist wichtig, die Maschinenethik möglichst unabhängig von militärischer Forschung zu halten und die zivile, kommerzielle Nutzung voranzutreiben. Dass dies nicht einfach sein wird, liegt auf der Hand. In Technik- und Informationsethik sind die entstehenden moralischen Probleme zu diskutieren.

Abb.: Spinnenroboter