Schlagworte: Stanford University

The Uncanny Return of Physiognomy

Face recognition is the automated recognition of a face or the automated identification, measuring and description of features of a face. In the 21st century, it is increasingly attempted to connect to the pseudoscience of physiognomy, which has its origins in ancient times. From the appearance of persons, a conclusion is drawn to their inner self, and attempts are made to identify character traits, personality traits and temperament, or political and sexual orientation. Biometrics plays a role in this concept. It was founded in the eighteenth century, when physiognomy under the lead of Johann Caspar Lavater had its dubious climax. In the paper “The Uncanny Return of Physiognomy”, the basic principles of this topic are elaborated; selected projects from research and practice are presented and, from an ethical perspective, the possibilities of face recognition are subjected to fundamental critique in this context, including the above examples. Oliver Bendel will present his paper in March 2018 at Stanford University (“AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents”, AAAI 2018 Spring Symposium Series).

Fig.: The uncanny return of physiognomy

Mit Robotern töten?

“Darf die Polizei mit Robotern töten?” Dies ist der Titel eines Beitrags, der am 9. Juli 2016 auf Spiegel Online erschienen ist. “Nachdem ein Roboter den mutmaßlichen Heckenschützen von Dallas getötet hat, werden unbequeme Fragen laut: Wie und warum ist die Entscheidung gefallen? Bricht mit dem Einsatz von ferngesteuerten Maschinen in der Polizeiarbeit eine neue Ära an? Ist der Einsatz von tötenden Maschinen ethisch vertretbar und – wollen die USA das?” (SPON, 9. Juli 2016) Zu Wort kommt u.a. Peter Asaro, der im März 2016 in Stanford zum Symposium zur Maschinenethik beigetragen und auch in der Roboterethik als Disziplin, die nach den Konsequenzen des Einsatzes von automatischen und autonomen Maschinen fragt, einen Namen hat. Gegenüber Bloomberg äußerte er: “Sobald das zu einem Standardverfahren wird, wird es auch in anderen Situationen eingesetzt werden, die nicht so deutlich sind wie dieser Fall.” (SPON, 9. Juli 2016) Der Jurist Stoughton wies gegenüber dem gleichen Nachrichtendienst darauf hin, dass sich, ob bei Schusswaffen oder Elektroschockern, jedes Mal die Frage des angemessenen Einsatzes gestellt habe. “Ich glaube, wir werden ähnliche Gespräche über Roboter haben, die den Tod bringen.” (SPON, 9. Juli 2016)

Abb.: Wer hat die Waffe in der Hand?

Konferenz zur Maschinenethik

Beim Workshop “Ethical and Moral Considerations in Non-Human Agents” an der Stanford University vom 21. bis 23. März 2016 im Rahmen der AAAI Spring Symposia erklärte Ron Arkin (Georgia Institute of Technology, USA) in seiner Keynote “Robots that Need to Mislead: Biologically Inspired Machine Deception”, wie Tiere täuschen und wie man Maschinen beibringen kann, andere zu täuschen. Er ging auch auf die Möglichkeit ein, dass Roboter lügen, und stellte die Frage: “Should a robot be allowed to lie?” Elizabeth Kinne und Georgi Stojanov thematisierten in “Grounding Drones‘ Ethical Use Reasoning” die Chancen und Risiken von Kampfdrohnen. Sie präsentierten Szenarien, um die Probleme beim Einsatz zu vergegenwärtigen. Die Verantwortlichen könnten dazu neigen, immer mehr heikle Entscheidungen den Robotern zu überlassen. Der Vortrag “Metaethics in context of engineering ethical and moral systems” von Michal Klincewicz und Lily Frank, bereits nach der Kaffeepause, fragte nach den grundsätzlichen Möglichkeiten und Unmöglichkeiten moralischer Systeme. Oliver Bendel ging auf das LIEBOT-Projekt ein. An der Hochschule für Wirtschaft FHNW wird 2016 im Rahmen einer Bachelor-Arbeit ein Chatbot programmiert, der konsequent die Unwahrheit sagt. Vor allem stellte der Wissenschaftler aber einen annotierten Entscheidungsbaum für eine einfache moralische Maschine vor, ein tierfreundliches Roboterauto. “The artificial autonomous moral agents (AAMA): a minimalist model” war der letzte Vortrag vor dem Lunch. Ioan Muntean schlug in “The artificial autonomous moral agents (AAMA): a minimalist model” einen Ansatz der Tugendethik vor, den er zusammen mit Don Howard erarbeitet hatte. Bis zum Mittwoch tauschte man sich zur Maschinenethik und zur Roboterethik aus. Die letzte Keynote (“Programming Machine Ethics”) hielt Kumar Pandey von Aldebaran Robotics (SoftBank Group). Der Proceedingsband “The 2016 AAAI Spring Symposium Series: Technical Reports SS-16-01 – SS-16-07″ kann über www.aaai.org/Press/Reports/Symposia/Spring/ss-16.php bezogen werden.

Abb.: Sicherheitsdienst in Roboterform in der Shopping Mall von Stanford