Synthetische Stimmen mit individuellen Zügen lebender Personen werden mehr und mehr für Trickbetrug verwendet. Ein solchen Fall gab es im Sommer 2023 im Aargau in der Schweiz. Ein Mann wurde von seiner vermeintlichen Frau angerufen, ohne dass er zunächst erkannte, dass es sich um eine mit Hilfe von Machine Learning generierte Stimme und damit um einen Trickbetrug handelte. Der Lokalsender Tele M1 interviewte am 4. Juli 2023 Prof. Dr. Oliver Bendel dazu, wie solche synthetischen Stimmen entstehen. Er forscht seit einem Vierteljahrhundert zu KI-Systemen und Robotern und seit sieben Jahren speziell auch zu synthetischen Stimmen. Grundsätzlich werden in solchen Fällen neuronale Netzwerke benutzt. Man kann sie mit der individuellen Stimme trainieren. Dafür braucht es 15 – 30 Minuten an Material. Die Zeit verkürzt sich auf wenige Sekunden, wenn man vorher ein Sprachmodell mit einigen tausend Stimmen trainiert hat und einige Voraussetzungen erfüllt sind. Die Resultate können so oder so täuschend echt sein. Oft sind aber nicht die gewohnten Hintergrundgeräusche vorhanden, oder es fehlen typische Verhaltensweisen der Person, etwa das Nasehochziehen oder ein Stühlerücken. Es lohnt sich also, gut hinzuhören und im Zweifel auch einen Rückruf zu verlangen. Mehrere Aussagen aus dem Interview wurden in den Beitrag „Schockanrufe: So gelangen die falschen Polizisten an die Stimmen der Opfer“ der abendlichen Nachrichtensendung aufgenommen. Weitere Informationen zum Sender über www.telem1.ch.
Das Handelsblatt hat mit Prof. Dr. Oliver Bendel über Bio- und Bodyhacking und Human Enhancement gesprochen. Es ging vor allem um die Anwendung im Berufsleben, etwa im Büro oder in der Fabrik. Mehrere Aussagen des Technikphilosophen wurden in dem Artikel „Wie Mikrochips und smarte Brillen die Leistung im Job erhöhen können“ zitiert. Anwendungen dieser Art kann man vor allem dem Human Enhancement zurechnen. Über Bio- und Bodyhacking, Human Enhancement und Animal Enhancement sowie Cyborgs schreibt Oliver Bendel seit Jahren. Zudem hält er Vorträge zum Thema, wie bei der Architekturbiennale in Venedig im Jahre 2021 („Human and Animal Enhancement in the Context of Architecture“). Mit Studenten und Studentinnen probierte er 2017 im Silicon Valley die HoloLens von Microsoft aus. Für das Arbeitsleben sind seiner Meinung nach Datenbrillen relevant, smarte Kontaktlinsen sowie passive und aktive Exoskelette. Wichtig ist es, den Bedürfnissen der Arbeitnehmer Rechnung zu tragen und die Privat- und Intimsphäre aller Beteiligten und Betroffenen zu schützen. Der Artikel ist am 16. Juni 2023 erschienen und kann über www.handelsblatt.com/karriere/biohacking-wie-mikrochips-und-smarte-brillen-die-leistung-im-job-erhoehen-koennen/29202186.html aufgerufen werden.
Abb.: Studentinnen mit der HoloLens im Jahre 2017 bei Microsoft im Silicon Valley
„‚Nao‘, wie die Maschine heißt, tanzt und singt mit den Kindern der inklusiven Kita im Lebenshilfehaus in Karlsruhe. Das geschieht im Rahmen eines Forschungsprojektes des Karlsruher Instituts für Technologie (KIT), das Künstliche Intelligenz und Robotik im Alltag ausprobiert. ‚Wir haben mehrere Experimente in Karlsruhe, weil wir unterschiedliche Gruppen von Nutzenden adressieren, von klein bis groß‘, erklärte KIT-Professor Tamim Asfour am Mittwoch. Bei dem Forschungsprojekt kämen Roboter unter anderem in der Kita, in der Schule, im Museum oder auch im Seniorenheim zum Einsatz.“ (Badische Zeitung, 7. Juni 2023) Mit diesen Worten beginnt ein Artikel von Valeria Nickel, der am 7. Juni 2023 in der Badischen Zeitung erschienen ist. Zu Wort kommt auch Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW, der sich seit vielen Jahren mit sozialen Robotern befasst. In einem Gespräch mit der Redakteurin von der dpa erklärte er, dass Smartphones und Tablets kleinen Kindern in ihrer Entwicklung schaden können, soziale Roboter hingegen alle Sinne ansprechen und trainieren. Den Einsatz von NAO, Moxie, QTrobot und anderen Modellen in der Kita hält er für unproblematisch, sofern sie entsprechend programmiert und Bestimmungen des Datenschutzes eingehalten werden. Insbesondere autistische Kinder können nach seiner Meinung von sozialen Robotern profitieren. Der Artikel ist über www.badische-zeitung.de/wie-roboter-in-inklusiven-kitas-helfen-koennen–266860715.html verfügbar.
DeepL gilt als eines der besten Übersetzungstools der Welt. Tatsächlich schneidet es in vielen Tests und Vergleichen besser ab als Google Translate und Co. Allerdings stellt sich die Frage, welche Regeln die Firma aus Köln im Deutschen umsetzt. Wenn man einen englischen Text hat, in dem der „user“ vorkommt, kann es sein, dass dieser mit „NutzerInnen“ übersetzt wird. Dieses Wort mit Binnen-I existiert aber nicht in der deutschen Sprache. Es handelt sich um gegenderte Sprache, um eine Fantasiesprache einer bestimmten Gruppe. Der Rechtschreibrat lehnt diese Schreibweise ebenso ab wie „Nutzer*innen“, „Nutzer:innen“ oder „Nutzer_innen“. Wenn aber ein Übersetzungstool nicht der amtlichen Rechtschreibung folgt, verfehlt es letztlich seinen Sinn und Zweck. Diejenigen, die es besser wissen, müssen den Text nachkorrigieren, und diejenigen, die es nicht besser wissen, bekommen eine falsche Sprache aufgedrängt. Ähnliches lässt sich bei DeepL Write beobachten, dem Redigiertool der gleichen Firma. „Die Ärzt*innen“ wurde bei einem Test als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre übrigens „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Ob sich das deutsche Unternehmen mit seiner politisch-moralischen Positionierung einen Gefallen tut, darf bezweifelt werden. Dass es alles andere als professionell verfährt, ist offensichtlich.
Abb.: Ein scherzhaft verwendeter Genderstern in Zürich
Stefan Sommer von der Süddeutschen Zeitung hat Prof. Dr. Oliver Bendel Fragen zu Hologrammen gestellt, die Tote auf Bühnen und in Filmen „lebendig“ machen sollen, und zu Apps, mit denen man sich und andere verewigen kann. Einführend bemerkte der Technikphilosoph zu den Hologrammen: „Meist handelt es sich um Projektionen, wobei man durchsichtige Vorhänge, Glas, Metall bzw. mit Metall beschichtete Oberflächen verwendet. Ich nenne sie auch Pseudohologramme oder Quasihologramme. Grundsätzlich hat man den Eindruck, dass sich ein Körper im Raum befindet. Sehr bekannt sind die Pseudohologramme von Tupac und Hatsune Miku. Der Unterschied ist, dass der Rapper verstorben war und durch die Technologie ‚wiederbelebt‘ wurde, Hatsune Miku aber nie gelebt hat – man hat zuerst ihre Stimme erfunden und später ergänzt durch das Pseudohologramm. Bei ABBA liegt der Fall wiederum anders. Die Mitglieder leben noch, haben sich aber unsterblich gemacht, wiederum mit Pseudohologrammen, die in einer speziell dafür konstruierten Bühne in London erscheinen. Ich habe eines der Konzerte besucht. Die Wirkung ist immens. Es sind alte Fans vor Ort, die spätestens bei ‚Dancing Queen‘ ihre Rollatoren wegwerfen und zu tanzen beginnen.“ Es folgten weitere Ausführungen zu den Apps und zum digitalen Nachlass. Mehrere Statements wurden für den Artikel „Jung, erfolgreich, tot.“ verwendet, der am 1. Juni 2023 im Onlinemagazin Jetzt der Süddeutschen Zeitung erschienen ist.
On 5 June 2023, Prof. Dr. Oliver Bendel will give a talk on „Care robots from an ethical perspective“ at the Institute of Ethics, History and Humanities (iEH2) of the University of Geneva. The event will take place in room A04.2910 (CMU). Care and therapy robots can be understood as service robots and in many cases also as social robots. In the talk by Professor Dr. Oliver Bendel from Zurich, the goals, tasks, and characteristics will be clarified and, based on this, considerations will be made from the perspective of ethics. In the end, it should become clear which types of robots and prototypes or products exist in the healthcare sector, what purposes they serve, what functions they assume, and what implications and consequences this has for individuals and society. Care robots may contribute to personal autonomy while weakening informational autonomy. Therapy robots may enhance personal performance and satisfaction, but in individual cases they may also violate human dignity. It is important to design service robots and social robots in the healthcare sector in such a way that they meet as many requirements and needs as possible and are useful tools for caregivers and those in need of care. Disciplines such as machine ethics can help in this regard. Prof. Dr. Oliver Bendel is the editor of several relevant standard works, including „Pflegeroboter“ („Care Robots“, 2018) and „Soziale Roboter“ („Social Robots“, 2021). He has also advised the German Bundestag on this topic. More information via www.unige.ch.
Fig.: Bendel as scientific director of the 23rd Berlin Colloquium (Photo: Daimler und Benz Stiftung)
„Inspirierend anders“, der Podcast von Luca Beutel, ging vor kurzem in die Forschung. Für die ersten beiden Folgen hat der Mann mit dem Schnäuzer mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die erste Folge, ausgestrahlt seit dem 2. Mai 2023, heißt „#165 IAF – Die ultimative Maschine: Wie Robotik die Grenzen der Menschheit erweitert“. Oliver Bendel stellt darin die Grundlagen der Robotik dar und bringt diese in einen Zusammenhang mit der Künstlichen Intelligenz (KI). Ursprünglich wurden deren Gegenstände zusammengedacht. Dann haben sie sich aber getrennt entwickelt. Nun wachsen Roboter und KI-Systeme immer mehr zusammen. Am 9. Mai 2023 erschien die zweite Folge mit dem Titel „#167 IAF – Menschliche Bedürfnisse, robotische Lösungen: Die Zukunft der menschenähnlichen Roboter“. Darin geht es u.a. um ethische und ästhetische Fragen, die sich zu sozialen Robotern wie Pflegerobotern und Sexrobotern stellen. Auch die zweite Folge kann u.a. über Spotify aufgerufen werden.
Abb.: Oliver Bendel am Campus Brugg-Windisch (Foto: Dominic Büttner)
The CONVERSATIONS 2023, a two-day workshop on chatbot research, applications, and design, will take place at the University of Oslo, Norway. According to the CfP, contributions concerning applications of large language models such as the GPT family, are warmly welcome, as are contributions on applications combining information retrieval approaches and large language model approaches. Building on the results from previous six CONVERSATIONS workshops, the following topics are of particular interest: 1. Chatbot users and implications, 2. Chatbot user experience, design, and evaluation, 3. Chatbot frameworks and platforms, 4. Chatbots for collaboration, 5. Democratizing chatbots – chatbots for all, 6. Ethics and safety implications of chatbots and large language models, 7. Leveraging advances in AI technology and large language models. More information via 2023.conversations.ws.
In der c’t 11/2023 ist der Artikel „Virtuelle Freunde? KI-Chatbots leisten Gesellschaft und wecken einseitige Gefühle“ erschienen. Arne Grävemeyer geht auf fünf Seiten auf das Thema ein. Befragt hat er dazu Prof. Dr. Oliver Bendel. Eine Frage war, ob solche Programme und Figuren – die Emotionen zeigen (ohne sie zu haben) und hervorrufen – sich als solche offenbaren sollten. Seine Antwort: „Aus ethischer Sicht würde ich das fordern. Man sollte wissen, ob man mit Menschen oder Maschinen kommuniziert. Unsere eigenen Emotionen sind ein wertvolles Gut. Wir entwickeln sie fast automatisch, wenn wir auf menschenähnliche Entitäten stoßen. Wir haben aber die Möglichkeit, die Emotionen zu begrenzen, wenn wir wissen, dass es sich um Programme und Maschinen handelt. Dazu gehört, dass wir diese abstellen und nicht ständig an sie denken, wenn sie nicht bei uns sind. Auch unsere Zeit ist ein kostbares Gut. Wir sollten selbst entscheiden, mit wem oder was wir sie verbringen.“ (c’t, 11/2023) Insgesamt wurden schriftlich und telefonisch etliche Fragen gestellt. Einige Antworten sind in den Artikel eingeflossen, der seit 5. Mai 2023 erhältlich ist.
Ein Forscherteam von der University of Texas hat ein neues Verfahren für Brain-Computer-Interfaces vorgestellt, mit dem die Vision des Gedankenlesens ein wenig näher rückt. Verwendet wird in der Studie – das ist ein entscheidender Punkt – ein Sprachmodell wie GPT, in Kombination mit Magnetresonanztomografie. Generell können solche Systeme im Moment allenfalls wahrscheinliche Phrasen vorschlagen. Sie machen noch viele Fehler. Diese dürften sich in Zukunft aber zum Teil beheben lassen. Von Bedeutung wären solche Verfahren für Schwerbehinderte, etwa Querschnittsgelähmte. Diese können über Brain-Computer-Interfaces bereits Geräte mit Gedanken steuern – in ein paar Jahren wären sie in der Lage, über Gedanken mit anderen zu kommunizieren. Interessiert werden auch Polizei, Geheimdienst und Verfassungsschutz sein. Selbst bei gegebenem Kooperationswillen kann es sich um einen Übergriff handeln. Ohne einen gegebenen Kooperationswillen, der im Moment noch Grundlage der Methode ist, kann es sich um psychische Gewalt handeln. Es wäre auf jeden Fall ein Eingriff in die Intim- und Privatsphäre. Der Mensch steht mit seinen Gedanken nackt vor den anderen da. Dies gilt insbesondere, aber nicht nur, bei sexuellen Vorstellungen. Ferner kann man evtl. auch an politische und moralische Überzeugungen oder an Passwörter herankommen. Die Studie zeigt, dass Sprachmodelle für alle möglichen Zwecke eingesetzt werden können und auch eingesetzt werden, bei den entsprechenden Chancen und Risiken. Die Nachrichtensendung 10 vor 10 im SRF hat dem Thema am 3. Mai 2023 einen Beitrag gewidmet. Darin kommen Prof. Dr. Lutz Jäncke (Universität Zürich), Dr. Ricardo Chavarriaga (ZHAW) und Prof. Dr. Oliver Bendel (FHNW) zu Wort. Der Artikel mitsamt dem Video kann über www.srf.ch/news/experiment-in-den-usa-gedanken-entschluesseln-dank-hirn-scans-und-ki abgerufen werden.
Im Juni 2023 kommt das Buch „Assistive Technologien, technische Rehabilitation und Unterstützte Kommunikation“, herausgegeben von Martin Groß, Birgit Hennig, Stefan Kappel und Frank Wallhoff, auf den Markt. Darin enthalten ist der Beitrag „Therapieroboter aus ethischer Sicht“ von Oliver Bendel. Aus dem Abstract: „Der vorliegende Beitrag geht auf Therapieroboter ein. Diese werden wie Pflegeroboter als soziale Roboter verstanden. Es werden die Ziele, Aufgaben und Merkmale geklärt, es werden Beispiele gegeben, sowohl aus der Psychotherapie als auch aus der Ergo- und Physiotherapie, die etwa der orthopädischen und sportmedizinischen Rehabilitation dienen können, und es findet eine Diskussion aus Sicht der klassischen Bereichsethiken und der Maschinenethik statt. Deutlich wird, dass manche Antworten bereits heute geliefert werden können, andere jedoch noch empirischer Forschung und analytischer Arbeit bedürfen. Nicht zuletzt hängen einige von der sich entwickelnden Praxis ab, etwa davon, welche Rolle der Therapeut und Betreuer in Zukunft spielt, welcher Art die Therapieroboter sind und welche Verbreitung sie haben.“ Das Buch erscheint bei Springer und ist über den Verlag oder eine beliebige Buchhandlung erhältlich.
Abb.: Alpha Mini beim Yoga im Büro von Oliver Bendel
From March 27-29, 2023, the AAAI 2023 Spring Symposia featured the symposium „Socially Responsible AI for Well-being“ by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). This time the venue was exceptionally not Stanford University, but the Hyatt Regency SFO Airport. On March 28, Prof. Dr. Oliver Bendel presented the paper „Increasing Well-being through Robotic Hugs“, written by himself, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola. The paper has now been published as a preprint and can be downloaded via arxiv.org/abs/2304.14409. From the abstract: „This paper addresses the question of how to increase the acceptability of a robot hug and whether such a hug contributes to well-being. It combines the lead author’s own research with pioneering research by Alexis E. Block and Katherine J. Kuchenbecker. First, the basics of this area are laid out with particular attention to the work of the two scientists. The authors then present HUGGIE Project I, which largely consisted of an online survey with nearly 300 participants, followed by HUGGIE Project II, which involved building a hugging robot and testing it on 136 people. At the end, the results are linked to current research by Block and Kuchenbecker, who have equipped their hugging robot with artificial intelligence to better respond to the needs of subjects.“ More information on the conference via aaai.org/conference/spring-symposia/sss23/.
Fig.: Oliver Bendel during his talk (Photo: Lea Peier)
Im Innovation Lab der Polizei Nordrhein-Westfalen testet man seit einer Weile den Einsatz von Spot, eines vierbeinigen Roboters von Boston Dynamics. Dieser erkundete u.a. ein ausgebranntes Haus in Essen. Mit Spot experimentiert auch die New Yorker Polizei, was immer wieder für Diskussionen sorgt. Baden-Württemberg („The Länd“) hat in diesen Tagen nachgezogen. Die offizielle Website des Landes zitiert Innenminister Thomas Strobel mit den Worten: „Laufroboter können sich in schwierigem Gelände und im urbanen Umfeld mit Hindernissen wie Treppen oder Absätzen sicher fortbewegen und sind schnell, unkompliziert und vielseitig einsetzbar. Sie sind schneller und verwischen am Tatort weniger Spuren als herkömmliche Roboter auf Rädern oder Ketten, wie sie beispielsweise unser Landeskriminalamt bereits einsetzt.“ (Baden-Württemberg, 28. April 2023) Spot wird neben anderen Systemen in dem Paper „Robots in Policing“ von Prof. Dr. Oliver Bendel thematisiert, das in den Proceedings „Social Robots in Social Institutions“ der Robophilosophy 2022 erschienen ist. Polizeiroboter und KI-Systeme sind auch Gegenstand des CAS Zukunftsorientierte Polizeiarbeit. Verantwortlich für diesen Teil ist wiederum Oliver Bendel.
Oasis war eine erfolgreiche britische Band, die 1991 gegründet und 2009 aufgelöst wurde. Mit Hilfe von künstlicher Intelligenz wurde sie nun wieder zum Leben erweckt. Das Projekt stammt von der Band Breezer. Sie nahm neue Lieder auf, die sie mit der KI-Stimme des Oasis-Frontmanns Liam Gallagher ergänzte. Dies berichtete Golem am 28. April 2023. Dabei wurde nach Angaben des Magazins das KI-System lediglich dafür eingesetzt, den Klang von Liam Gallaghers Stimme zu imitieren. Der Gesang samt den Modulationen stammt von einem anderen Sänger. „Das Ergebnis der KI-Bearbeitung, aber auch die Leistung der Musiker ist beeindruckend: Die Songs gehen ohne weiteres als Oasis-Songs der späten 1990er Jahre durch.“ (Golem, 28. April 2023) Das Album „AISIS – The Lost Tapes/Vol. 1“ kann u.a. über YouTube aufgerufen werden.
Am 26. Mai 2023 hält Prof. Dr. Oliver Bendel einen Gastvortrag beim scil-Modul „Dialogorientierte Lern- und Assistenzsysteme“ an der Universität St. Gallen. Der Titel lautet „Ethische Implikationen von ChatGPT“. Aus Sicht von Informations- und Maschinenethik werden verschiedene Überlegungen zu ChatGPT angestellt. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen … Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen gearbeitet – als Leiter des CC E-Learning – und geforscht, zu Conversational Agents und Embodied Conversational Agents in Lernumgebungen, sogenannten Pedagogical Agents. Weitere Informationen zum scil über www.scil.ch.
Abb.: Auch Pepper hat man schon mit ChatGPT verbunden (Foto: Sara Zarubica)
Am 9. April 2023 versammelten sich die Passagiere am Flughafen von San Francisco an einem der Gates, um auf das Boarding eines SWISS-Flugs zu warten. Für viele Schweizer und Deutsche ging es – mit dem Zielflughafen Zürich – zurück in die Heimat. Beim Boarding mussten alle vor ein Gesichtserkennungssystem treten und ihre biometrischen Merkmale erfassen lassen. Dies ersetzte das Vorzeigen der Bordkarte. Es gab keinen Hinweis der Airline oder einer Behörde auf eine Alternative. Eine Anfrage eines Betroffenen an SWISS, auf welcher rechtlichen Grundlage dies erfolgte, wurde wie folgt beantwortet: „Ich habe mir Ihren Fall durchgelesen und möchte Ihnen mitteilen, dass das Gesichtserkennungssystem nicht obligatorisch ist. Es wird immer ein Mitarbeiter im Dienst sein, der die Sicherheitskontrolle auch manuell durchführen kann. Wenn Sie das nächste Mal in eine solche Situation kommen und nicht durch das Gesichtserkennungssystem gehen möchten, können Sie jederzeit einen Mitarbeiter bitten, Sie manuell durch die Kontrolle zu begleiten.“ Der Hinweis, dass die Nutzung des Systems nicht obligatorisch ist, müsste allerdings vor Ort gegeben werden. Man ist beim Boarding eines Rückflugs unter einem gewissen Druck, befindet sich auf fremdem Boden – und sieht sich mit einer unerwarteten Situation konfrontiert. All dies nutzt das Unternehmen oder sein Partner – die US-amerikanische Behörde – offenbar aus. Auch zur Datenerfassung und -verwendung gab es keinerlei Informationen, weder vor noch nach dem Vorgang. Ohne Zweifel wird die informationelle Autonomie verletzt. Insgesamt findet der Einsatz eines problematischen Systems ohne ausdrückliche Zustimmung der Passagiere statt. Laut einem Artikel von 2021 hat man das Verfahren bereits seit längerer Zeit getestet. „Die Swiss bestätigt den Einsatz der Technologie. Zusammen mit dem Mutterkonzern, der Lufthansa-Gruppe, engagiere man sich für den Einsatz der biometrischen Gesichtsfelderkennung. … Beim Projekt in San Francisco handle es sich in erster Linie um einen ‚übergeordneten Grenzkontrollprozess‘ der US-Behörden … Die Swiss und die Lufthansa seien aber bei der Umsetzung begleitend involviert gewesen, um eine Schnittstelle im Abfertigungsprogramm herzustellen.“ (Luzerner Zeitung, 8. September 2021)
„Oliver Bendel antwortet im März auf eine Interviewanfrage aus San Francisco. Der Informationsethiker ist auf dem Weg an ein Symposium, wo er über Umarmungsroboter und Barroboter referieren wird. Vor einigen Jahren hat er an derselben Veranstaltung der renommierten Association for the Advancement of Artificial Intelligence (AAAI) annotierte Entscheidungsbäume für moralische Maschinen vorgestellt. Wenn sich Bendel nicht gerade auf einer seiner vielen wissenschaftlichen Reisen befindet, forscht er in beschaulicher Umgebung: Seit 2009 bekleidet der 55-Jährige eine Professur für Informationsethik, Maschinenethik und Soziale Robotik an der Fachhochschule Nordwestschweiz (FHNW) in Brugg-Windisch.“ (Inside IT, 24. April 2023) Mit diesen Worten beginnt ein Artikel von Thomas Schwandener, der am 24. April 2023 in Inside IT erschienen ist. Weiter heißt es: „In seiner Arbeit geht es um das Zusammenleben von sozialen Robotern und Menschen, um die Potenziale künstlicher Intelligenz, aber auch um ethische Folgefragen. Bendel ist eine Autorität auf seinem Gebiet. Er hat mehrere Standardwerke verfasst, spricht an internationalen Fachtagungen und trat mehrfach vor dem Deutschen Bundestag als Sachverständiger auf.“ (Inside IT, 24. April 2023) Es folgt ein längeres Interview, das am Rande der Shift geführt wurde. Darin weist der Informations- und Maschinenethiker auf die tiefe Kluft zwischen Menschen und Maschinen hin. Der ganze Artikel kann hier aufgerufen werden.
Abb.: Oliver Bendel bei der Shift (Foto: Shift/Louis Rafael)
Next to Robophilosophy, ICSR may be the most important conference on social robotics. The fourteenth edition took place in Florence at the end of 2022 and was dedicated to the health sector. „The 15th International Conference on Social Robotics (ICSR 2023) will bring together researchers and practitioners working on the interaction between humans and intelligent robots and on the integration of social robots into our society. ICSR 2023 will take place in Doha as a face-to-face conference on December 4-7, 2023. This will be the first time that the conference will be hosted in Qatar and in the Middle East and North Africa region.“ (Website ICSR) The theme of this year’s ICSR is „Human-Robot Collaboration: Sea, Air, Land, Space and Cyberspace“. According to the organizers, the theme emphasizes on all physical and cyber-physical domains where humans and robots collaborate. More information and CfP via icsr23.qa.
Das New York City Police Department (NYPD) sieht Serviceroboter „für Straßenpatrouillen und Überwachung“ (Golem, 14. April 2023) vor. „Neben dem Roboterhund Spot soll künftig zusätzlich ein eigenständiges Modell vom Typ Knightscope K5 eingesetzt werden.“ (Golem, 14. April 2023) Dies schreibt Oliver Nickel in Golem unter Berufung auf Aussagen des New Yorker Bürgermeisters Eric Adams bei einer Pressekonferenz. Sowohl Spot als auch K5 sind Thema des Papers „Robots in Policing“ von Prof. Dr. Oliver Bendel, das in den Proceedings „Social Robots in Social Institutions“ der Robophilosophy 2022 erschienen ist. Mit Sicherheits- und Überwachungsrobotern wie dem K5 beschäftigt sich der Technikphilosoph aus Zürich seit Jahren. In dem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“, erschienen 2016 in der Zeitschrift SicherheitsForum, nahm er u.a. die ethische Perspektive ein. Bereits ein paar Monate vorher veröffentlichte Inside IT den Beitrag „Blechpolizisten mit Elektroschockern: Beobachtungen zu Überwachungsrobotern“. Ohne Zweifel gewinnt das Thema in diesen Tagen an Bedeutung, wegen der Einsätze in den USA, aber auch der Pläne in Deutschland – das Innovation Lab der Polizei Nordrhein-Westfalen in Duisburg testet derzeit Modelle wie Spot.
The AAAI Spring Symposia is a legendary conference that has been held since 1992. It usually takes place at Stanford University. Until 2018, the leading US artificial intelligence organization itself published the proceedings. Since 2019, each symposium is responsible for its own. Following a restructuring of the AAAI website, the proceedings can be found in a section of the new „AAAI Conference and Symposium Proceedings“ page. In 2016, Stanford University hosted one of the most important gatherings on machine ethics and robot ethics ever, the symposium „Ethical and Moral Considerations in Non-Human Agents“ … Contributors included Peter M. Asaro, Oliver Bendel, Joanna J. Bryson, Lily Frank, The Anh Han, and Luis Moniz Pereira. Also present was Ronald C. Arkin, one of the most important and – because of his military research – controversial machine ethicists. The 2017 and 2018 symposia were also groundbreaking for machine ethics and attracted experts from around the world. The papers can be accessed at aaai.org/aaai-publications/aaai-conference-proceedings.
The ACI took place from 5 to 8 December 2022 in Newcastle upon Tyne. It is the world’s leading conference on animal-computer interaction. The proceedings were published in the ACM Library on March 30, 2023. They include the paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ by Oliver Bendel and Ali Yürekkirmaz. From the abstract: „Face recognition, in the sense of identifying people, is controversial from a legal, social, and ethical perspective. In particular, opposition has been expressed to its use in public spaces for mass surveillance purposes. Face recognition in animals, by contrast, seems to be uncontroversial from a social and ethical point of view and could even have potential for animal welfare and protection. This paper explores how face recognition for bears (understood here as brown bears) in the Alps could be implemented within a system that would help animals as well as humans. It sets out the advantages and disadvantages of wildlife cameras, ground robots, and camera drones that would be linked to artificial intelligence. Based on this, the authors make a proposal for deployment. They favour a three-stage plan that first deploys fixed cameras and then incorporates camera drones and ground robots. These are all connected to a control centre that assesses images and developments and intervenes as needed. The paper then discusses social and ethical, technical and scientific, and economic and structural perspectives. In conclusion, it considers what could happen in the future in this context.“ The proceedings can be accessed via dl.acm.org/doi/proceedings/10.1145/3565995.
Der 28. März 2023 war der zweite Tag des Symposiums „Socially Responsible AI for Well-being“ im Rahmen der AAAI 2023 Spring Symposia. Veranstaltungsort ist normalerweise die Stanford University. Aus personellen Gründen wurde die Konferenz in diesem Jahr ins Hyatt Regency in San Francisco verlegt. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW stellte am Morgen das Paper „Increasing Well-being through Robotic Hugs“ vor, das von ihm, Andrea Puljic, Robin Heiz, Furkan Tömen und Ivan De Paola verfasst wurde. Das Team hatte einen Umarmungsroboter namens HUGGIE gebaut und an über 130 Probanden getestet. Wärme und Weichheit – dies betonen auch Kuchenbecker und Block – sind wesentlich für die Akzeptanz. Stimme, Geruch und Herzschlag werden sehr unterschiedlich bewertet. Eine weibliche Stimme könnte die Akzeptanz bei einer Umarmung durch den Roboter verbessern. Danach hielten Lea Peier und er ihren Vortrag „How Can Bar Robots Enhance the Well-being of Guests?“. Sie gingen auf zwei Barroboter ein, die in der Schweiz im Betrieb sind bzw. waren. Informationen zur Konferenz sind über aaai.org/conference/spring-symposia/sss23/ erhältlich.
Abb.: Oliver Bendel bei seinem Vortrag zu Umarmungsrobotern (Foto: Lea Peier)