On 5 June 2023, Prof. Dr. Oliver Bendel will give a talk on „Care robots from an ethical perspective“ at the Institute of Ethics, History and Humanities (iEH2) of the University of Geneva. The event will take place in room A04.2910 (CMU). Care and therapy robots can be understood as service robots and in many cases also as social robots. In the talk by Professor Dr. Oliver Bendel from Zurich, the goals, tasks, and characteristics will be clarified and, based on this, considerations will be made from the perspective of ethics. In the end, it should become clear which types of robots and prototypes or products exist in the healthcare sector, what purposes they serve, what functions they assume, and what implications and consequences this has for individuals and society. Care robots may contribute to personal autonomy while weakening informational autonomy. Therapy robots may enhance personal performance and satisfaction, but in individual cases they may also violate human dignity. It is important to design service robots and social robots in the healthcare sector in such a way that they meet as many requirements and needs as possible and are useful tools for caregivers and those in need of care. Disciplines such as machine ethics can help in this regard. Prof. Dr. Oliver Bendel is the editor of several relevant standard works, including „Pflegeroboter“ („Care Robots“, 2018) and „Soziale Roboter“ („Social Robots“, 2021). He has also advised the German Bundestag on this topic. More information via www.unige.ch/medecine/ieh2/fr/la-une/prochain-colloque-ieh2/.
Fig.: Bendel as scientific director of the 23rd Berlin Colloquium (Photo: Daimler und Benz Stiftung)
„Inspirierend anders“, der Podcast von Luca Beutel, ging vor kurzem in die Forschung. Für die ersten beiden Folgen hat der Mann mit dem Schnäuzer mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die erste Folge, ausgestrahlt seit dem 2. Mai 2023, heißt „#165 IAF – Die ultimative Maschine: Wie Robotik die Grenzen der Menschheit erweitert“. Oliver Bendel stellt darin die Grundlagen der Robotik dar und bringt diese in einen Zusammenhang mit der Künstlichen Intelligenz (KI). Ursprünglich wurden deren Gegenstände zusammengedacht. Dann haben sie sich aber getrennt entwickelt. Nun wachsen Roboter und KI-Systeme immer mehr zusammen. Am 9. Mai 2023 erschien die zweite Folge mit dem Titel „#167 IAF – Menschliche Bedürfnisse, robotische Lösungen: Die Zukunft der menschenähnlichen Roboter“. Darin geht es u.a. um ethische und ästhetische Fragen, die sich zu sozialen Robotern wie Pflegerobotern und Sexrobotern stellen. Auch die zweite Folge kann u.a. über Spotify aufgerufen werden.
Abb.: Oliver Bendel am Campus Brugg-Windisch (Foto: Dominic Büttner)
The CONVERSATIONS 2023, a two-day workshop on chatbot research, applications, and design, will take place at the University of Oslo, Norway. According to the CfP, contributions concerning applications of large language models such as the GPT family, are warmly welcome, as are contributions on applications combining information retrieval approaches and large language model approaches. Building on the results from previous six CONVERSATIONS workshops, the following topics are of particular interest: 1. Chatbot users and implications, 2. Chatbot user experience, design, and evaluation, 3. Chatbot frameworks and platforms, 4. Chatbots for collaboration, 5. Democratizing chatbots – chatbots for all, 6. Ethics and safety implications of chatbots and large language models, 7. Leveraging advances in AI technology and large language models. More information via 2023.conversations.ws.
In der c’t 11/2023 ist der Artikel „Virtuelle Freunde? KI-Chatbots leisten Gesellschaft und wecken einseitige Gefühle“ erschienen. Arne Grävemeyer geht auf fünf Seiten auf das Thema ein. Befragt hat er dazu Prof. Dr. Oliver Bendel. Eine Frage war, ob solche Programme und Figuren – die Emotionen zeigen (ohne sie zu haben) und hervorrufen – sich als solche offenbaren sollten. Seine Antwort: „Aus ethischer Sicht würde ich das fordern. Man sollte wissen, ob man mit Menschen oder Maschinen kommuniziert. Unsere eigenen Emotionen sind ein wertvolles Gut. Wir entwickeln sie fast automatisch, wenn wir auf menschenähnliche Entitäten stoßen. Wir haben aber die Möglichkeit, die Emotionen zu begrenzen, wenn wir wissen, dass es sich um Programme und Maschinen handelt. Dazu gehört, dass wir diese abstellen und nicht ständig an sie denken, wenn sie nicht bei uns sind. Auch unsere Zeit ist ein kostbares Gut. Wir sollten selbst entscheiden, mit wem oder was wir sie verbringen.“ (c’t, 11/2023) Insgesamt wurden schriftlich und telefonisch etliche Fragen gestellt. Einige Antworten sind in den Artikel eingeflossen, der seit 5. Mai 2023 erhältlich ist.
Ein Forscherteam von der University of Texas hat ein neues Verfahren für Brain-Computer-Interfaces vorgestellt, mit dem die Vision des Gedankenlesens ein wenig näher rückt. Verwendet wird in der Studie – das ist ein entscheidender Punkt – ein Sprachmodell wie GPT, in Kombination mit Magnetresonanztomografie. Generell können solche Systeme im Moment allenfalls wahrscheinliche Phrasen vorschlagen. Sie machen noch viele Fehler. Diese dürften sich in Zukunft aber zum Teil beheben lassen. Von Bedeutung wären solche Verfahren für Schwerbehinderte, etwa Querschnittsgelähmte. Diese können über Brain-Computer-Interfaces bereits Geräte mit Gedanken steuern – in ein paar Jahren wären sie in der Lage, über Gedanken mit anderen zu kommunizieren. Interessiert werden auch Polizei, Geheimdienst und Verfassungsschutz sein. Selbst bei gegebenem Kooperationswillen kann es sich um einen Übergriff handeln. Ohne einen gegebenen Kooperationswillen, der im Moment noch Grundlage der Methode ist, kann es sich um psychische Gewalt handeln. Es wäre auf jeden Fall ein Eingriff in die Intim- und Privatsphäre. Der Mensch steht mit seinen Gedanken nackt vor den anderen da. Dies gilt insbesondere, aber nicht nur, bei sexuellen Vorstellungen. Ferner kann man evtl. auch an politische und moralische Überzeugungen oder an Passwörter herankommen. Die Studie zeigt, dass Sprachmodelle für alle möglichen Zwecke eingesetzt werden können und auch eingesetzt werden, bei den entsprechenden Chancen und Risiken. Die Nachrichtensendung 10 vor 10 im SRF hat dem Thema am 3. Mai 2023 einen Beitrag gewidmet. Darin kommen Prof. Dr. Lutz Jäncke (Universität Zürich), Dr. Ricardo Chavarriaga (ZHAW) und Prof. Dr. Oliver Bendel (FHNW) zu Wort. Der Artikel mitsamt dem Video kann über www.srf.ch/news/experiment-in-den-usa-gedanken-entschluesseln-dank-hirn-scans-und-ki abgerufen werden.
Im Juni 2023 kommt das Buch „Assistive Technologien, technische Rehabilitation und Unterstützte Kommunikation“, herausgegeben von Martin Groß, Birgit Hennig, Stefan Kappel und Frank Wallhoff, auf den Markt. Darin enthalten ist der Beitrag „Therapieroboter aus ethischer Sicht“ von Oliver Bendel. Aus dem Abstract: „Der vorliegende Beitrag geht auf Therapieroboter ein. Diese werden wie Pflegeroboter als soziale Roboter verstanden. Es werden die Ziele, Aufgaben und Merkmale geklärt, es werden Beispiele gegeben, sowohl aus der Psychotherapie als auch aus der Ergo- und Physiotherapie, die etwa der orthopädischen und sportmedizinischen Rehabilitation dienen können, und es findet eine Diskussion aus Sicht der klassischen Bereichsethiken und der Maschinenethik statt. Deutlich wird, dass manche Antworten bereits heute geliefert werden können, andere jedoch noch empirischer Forschung und analytischer Arbeit bedürfen. Nicht zuletzt hängen einige von der sich entwickelnden Praxis ab, etwa davon, welche Rolle der Therapeut und Betreuer in Zukunft spielt, welcher Art die Therapieroboter sind und welche Verbreitung sie haben.“ Das Buch erscheint bei Springer und ist über den Verlag oder eine beliebige Buchhandlung erhältlich.
Abb.: Alpha Mini beim Yoga im Büro von Oliver Bendel
From March 27-29, 2023, the AAAI 2023 Spring Symposia featured the symposium „Socially Responsible AI for Well-being“ by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). This time the venue was exceptionally not Stanford University, but the Hyatt Regency SFO Airport. On March 28, Prof. Dr. Oliver Bendel presented the paper „Increasing Well-being through Robotic Hugs“, written by himself, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola. The paper has now been published as a preprint and can be downloaded via arxiv.org/abs/2304.14409. From the abstract: „This paper addresses the question of how to increase the acceptability of a robot hug and whether such a hug contributes to well-being. It combines the lead author’s own research with pioneering research by Alexis E. Block and Katherine J. Kuchenbecker. First, the basics of this area are laid out with particular attention to the work of the two scientists. The authors then present HUGGIE Project I, which largely consisted of an online survey with nearly 300 participants, followed by HUGGIE Project II, which involved building a hugging robot and testing it on 136 people. At the end, the results are linked to current research by Block and Kuchenbecker, who have equipped their hugging robot with artificial intelligence to better respond to the needs of subjects.“ More information on the conference via aaai.org/conference/spring-symposia/sss23/.
Fig.: Oliver Bendel during his talk (Photo: Lea Peier)
Im Innovation Lab der Polizei Nordrhein-Westfalen testet man seit einer Weile den Einsatz von Spot, eines vierbeinigen Roboters von Boston Dynamics. Dieser erkundete u.a. ein ausgebranntes Haus in Essen. Mit Spot experimentiert auch die New Yorker Polizei, was immer wieder für Diskussionen sorgt. Baden-Württemberg („The Länd“) hat in diesen Tagen nachgezogen. Die offizielle Website des Landes zitiert Innenminister Thomas Strobel mit den Worten: „Laufroboter können sich in schwierigem Gelände und im urbanen Umfeld mit Hindernissen wie Treppen oder Absätzen sicher fortbewegen und sind schnell, unkompliziert und vielseitig einsetzbar. Sie sind schneller und verwischen am Tatort weniger Spuren als herkömmliche Roboter auf Rädern oder Ketten, wie sie beispielsweise unser Landeskriminalamt bereits einsetzt.“ (Baden-Württemberg, 28. April 2023) Spot wird neben anderen Systemen in dem Paper „Robots in Policing“ von Prof. Dr. Oliver Bendel thematisiert, das in den Proceedings „Social Robots in Social Institutions“ der Robophilosophy 2022 erschienen ist. Polizeiroboter und KI-Systeme sind auch Gegenstand des CAS Zukunftsorientierte Polizeiarbeit. Verantwortlich für diesen Teil ist wiederum Oliver Bendel.
Oasis war eine erfolgreiche britische Band, die 1991 gegründet und 2009 aufgelöst wurde. Mit Hilfe von künstlicher Intelligenz wurde sie nun wieder zum Leben erweckt. Das Projekt stammt von der Band Breezer. Sie nahm neue Lieder auf, die sie mit der KI-Stimme des Oasis-Frontmanns Liam Gallagher ergänzte. Dies berichtete Golem am 28. April 2023. Dabei wurde nach Angaben des Magazins das KI-System lediglich dafür eingesetzt, den Klang von Liam Gallaghers Stimme zu imitieren. Der Gesang samt den Modulationen stammt von einem anderen Sänger. „Das Ergebnis der KI-Bearbeitung, aber auch die Leistung der Musiker ist beeindruckend: Die Songs gehen ohne weiteres als Oasis-Songs der späten 1990er Jahre durch.“ (Golem, 28. April 2023) Das Album „AISIS – The Lost Tapes/Vol. 1“ kann u.a. über YouTube aufgerufen werden.
Am 26. Mai 2023 hält Prof. Dr. Oliver Bendel einen Gastvortrag beim scil-Modul „Dialogorientierte Lern- und Assistenzsysteme“ an der Universität St. Gallen. Der Titel lautet „Ethische Implikationen von ChatGPT“. Aus Sicht von Informations- und Maschinenethik werden verschiedene Überlegungen zu ChatGPT angestellt. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen … Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen gearbeitet – als Leiter des CC E-Learning – und geforscht, zu Conversational Agents und Embodied Conversational Agents in Lernumgebungen, sogenannten Pedagogical Agents. Weitere Informationen zum scil über www.scil.ch.
Abb.: Auch Pepper hat man schon mit ChatGPT verbunden (Foto: Sara Zarubica)
Am 9. April 2023 versammelten sich die Passagiere am Flughafen von San Francisco an einem der Gates, um auf das Boarding eines SWISS-Flugs zu warten. Für viele Schweizer und Deutsche ging es – mit dem Zielflughafen Zürich – zurück in die Heimat. Beim Boarding mussten alle vor ein Gesichtserkennungssystem treten und ihre biometrischen Merkmale erfassen lassen. Dies ersetzte das Vorzeigen der Bordkarte. Es gab keinen Hinweis der Airline oder einer Behörde auf eine Alternative. Eine Anfrage eines Betroffenen an SWISS, auf welcher rechtlichen Grundlage dies erfolgte, wurde wie folgt beantwortet: „Ich habe mir Ihren Fall durchgelesen und möchte Ihnen mitteilen, dass das Gesichtserkennungssystem nicht obligatorisch ist. Es wird immer ein Mitarbeiter im Dienst sein, der die Sicherheitskontrolle auch manuell durchführen kann. Wenn Sie das nächste Mal in eine solche Situation kommen und nicht durch das Gesichtserkennungssystem gehen möchten, können Sie jederzeit einen Mitarbeiter bitten, Sie manuell durch die Kontrolle zu begleiten.“ Der Hinweis, dass die Nutzung des Systems nicht obligatorisch ist, müsste allerdings vor Ort gegeben werden. Man ist beim Boarding eines Rückflugs unter einem gewissen Druck, befindet sich auf fremdem Boden – und sieht sich mit einer unerwarteten Situation konfrontiert. All dies nutzt das Unternehmen oder sein Partner – die US-amerikanische Behörde – offenbar aus. Auch zur Datenerfassung und -verwendung gab es keinerlei Informationen, weder vor noch nach dem Vorgang. Ohne Zweifel wird die informationelle Autonomie verletzt. Insgesamt findet der Einsatz eines problematischen Systems ohne ausdrückliche Zustimmung der Passagiere statt. Laut einem Artikel von 2021 hat man das Verfahren bereits seit längerer Zeit getestet. „Die Swiss bestätigt den Einsatz der Technologie. Zusammen mit dem Mutterkonzern, der Lufthansa-Gruppe, engagiere man sich für den Einsatz der biometrischen Gesichtsfelderkennung. … Beim Projekt in San Francisco handle es sich in erster Linie um einen ‚übergeordneten Grenzkontrollprozess‘ der US-Behörden … Die Swiss und die Lufthansa seien aber bei der Umsetzung begleitend involviert gewesen, um eine Schnittstelle im Abfertigungsprogramm herzustellen.“ (Luzerner Zeitung, 8. September 2021)
„Oliver Bendel antwortet im März auf eine Interviewanfrage aus San Francisco. Der Informationsethiker ist auf dem Weg an ein Symposium, wo er über Umarmungsroboter und Barroboter referieren wird. Vor einigen Jahren hat er an derselben Veranstaltung der renommierten Association for the Advancement of Artificial Intelligence (AAAI) annotierte Entscheidungsbäume für moralische Maschinen vorgestellt. Wenn sich Bendel nicht gerade auf einer seiner vielen wissenschaftlichen Reisen befindet, forscht er in beschaulicher Umgebung: Seit 2009 bekleidet der 55-Jährige eine Professur für Informationsethik, Maschinenethik und Soziale Robotik an der Fachhochschule Nordwestschweiz (FHNW) in Brugg-Windisch.“ (Inside IT, 24. April 2023) Mit diesen Worten beginnt ein Artikel von Thomas Schwandener, der am 24. April 2023 in Inside IT erschienen ist. Weiter heißt es: „In seiner Arbeit geht es um das Zusammenleben von sozialen Robotern und Menschen, um die Potenziale künstlicher Intelligenz, aber auch um ethische Folgefragen. Bendel ist eine Autorität auf seinem Gebiet. Er hat mehrere Standardwerke verfasst, spricht an internationalen Fachtagungen und trat mehrfach vor dem Deutschen Bundestag als Sachverständiger auf.“ (Inside IT, 24. April 2023) Es folgt ein längeres Interview, das am Rande der Shift geführt wurde. Darin weist der Informations- und Maschinenethiker auf die tiefe Kluft zwischen Menschen und Maschinen hin. Der ganze Artikel kann hier aufgerufen werden.
Abb.: Oliver Bendel bei der Shift (Foto: Shift/Louis Rafael)
Next to Robophilosophy, ICSR may be the most important conference on social robotics. The fourteenth edition took place in Florence at the end of 2022 and was dedicated to the health sector. „The 15th International Conference on Social Robotics (ICSR 2023) will bring together researchers and practitioners working on the interaction between humans and intelligent robots and on the integration of social robots into our society. ICSR 2023 will take place in Doha as a face-to-face conference on December 4-7, 2023. This will be the first time that the conference will be hosted in Qatar and in the Middle East and North Africa region.“ (Website ICSR) The theme of this year’s ICSR is „Human-Robot Collaboration: Sea, Air, Land, Space and Cyberspace“. According to the organizers, the theme emphasizes on all physical and cyber-physical domains where humans and robots collaborate. More information and CfP via icsr23.qa.
Das New York City Police Department (NYPD) sieht Serviceroboter „für Straßenpatrouillen und Überwachung“ (Golem, 14. April 2023) vor. „Neben dem Roboterhund Spot soll künftig zusätzlich ein eigenständiges Modell vom Typ Knightscope K5 eingesetzt werden.“ (Golem, 14. April 2023) Dies schreibt Oliver Nickel in Golem unter Berufung auf Aussagen des New Yorker Bürgermeisters Eric Adams bei einer Pressekonferenz. Sowohl Spot als auch K5 sind Thema des Papers „Robots in Policing“ von Prof. Dr. Oliver Bendel, das in den Proceedings „Social Robots in Social Institutions“ der Robophilosophy 2022 erschienen ist. Mit Sicherheits- und Überwachungsrobotern wie dem K5 beschäftigt sich der Technikphilosoph aus Zürich seit Jahren. In dem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“, erschienen 2016 in der Zeitschrift SicherheitsForum, nahm er u.a. die ethische Perspektive ein. Bereits ein paar Monate vorher veröffentlichte Inside IT den Beitrag „Blechpolizisten mit Elektroschockern: Beobachtungen zu Überwachungsrobotern“. Ohne Zweifel gewinnt das Thema in diesen Tagen an Bedeutung, wegen der Einsätze in den USA, aber auch der Pläne in Deutschland – das Innovation Lab der Polizei Nordrhein-Westfalen in Duisburg testet derzeit Modelle wie Spot.
The AAAI Spring Symposia is a legendary conference that has been held since 1992. It usually takes place at Stanford University. Until 2018, the leading US artificial intelligence organization itself published the proceedings. Since 2019, each symposium is responsible for its own. Following a restructuring of the AAAI website, the proceedings can be found in a section of the new „AAAI Conference and Symposium Proceedings“ page. In 2016, Stanford University hosted one of the most important gatherings on machine ethics and robot ethics ever, the symposium „Ethical and Moral Considerations in Non-Human Agents“ … Contributors included Peter M. Asaro, Oliver Bendel, Joanna J. Bryson, Lily Frank, The Anh Han, and Luis Moniz Pereira. Also present was Ronald C. Arkin, one of the most important and – because of his military research – controversial machine ethicists. The 2017 and 2018 symposia were also groundbreaking for machine ethics and attracted experts from around the world. The papers can be accessed at aaai.org/aaai-publications/aaai-conference-proceedings.
The ACI took place from 5 to 8 December 2022 in Newcastle upon Tyne. It is the world’s leading conference on animal-computer interaction. The proceedings were published in the ACM Library on March 30, 2023. They include the paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ by Oliver Bendel and Ali Yürekkirmaz. From the abstract: „Face recognition, in the sense of identifying people, is controversial from a legal, social, and ethical perspective. In particular, opposition has been expressed to its use in public spaces for mass surveillance purposes. Face recognition in animals, by contrast, seems to be uncontroversial from a social and ethical point of view and could even have potential for animal welfare and protection. This paper explores how face recognition for bears (understood here as brown bears) in the Alps could be implemented within a system that would help animals as well as humans. It sets out the advantages and disadvantages of wildlife cameras, ground robots, and camera drones that would be linked to artificial intelligence. Based on this, the authors make a proposal for deployment. They favour a three-stage plan that first deploys fixed cameras and then incorporates camera drones and ground robots. These are all connected to a control centre that assesses images and developments and intervenes as needed. The paper then discusses social and ethical, technical and scientific, and economic and structural perspectives. In conclusion, it considers what could happen in the future in this context.“ The proceedings can be accessed via dl.acm.org/doi/proceedings/10.1145/3565995.
Der 28. März 2023 war der zweite Tag des Symposiums „Socially Responsible AI for Well-being“ im Rahmen der AAAI 2023 Spring Symposia. Veranstaltungsort ist normalerweise die Stanford University. Aus personellen Gründen wurde die Konferenz in diesem Jahr ins Hyatt Regency in San Francisco verlegt. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW stellte am Morgen das Paper „Increasing Well-being through Robotic Hugs“ vor, das von ihm, Andrea Puljic, Robin Heiz, Furkan Tömen und Ivan De Paola verfasst wurde. Das Team hatte einen Umarmungsroboter namens HUGGIE gebaut und an über 130 Probanden getestet. Wärme und Weichheit – dies betonen auch Kuchenbecker und Block – sind wesentlich für die Akzeptanz. Stimme, Geruch und Herzschlag werden sehr unterschiedlich bewertet. Eine weibliche Stimme könnte die Akzeptanz bei einer Umarmung durch den Roboter verbessern. Danach hielten Lea Peier und er ihren Vortrag „How Can Bar Robots Enhance the Well-being of Guests?“. Sie gingen auf zwei Barroboter ein, die in der Schweiz im Betrieb sind bzw. waren. Informationen zur Konferenz sind über aaai.org/conference/spring-symposia/sss23/ erhältlich.
Abb.: Oliver Bendel bei seinem Vortrag zu Umarmungsrobotern (Foto: Lea Peier)
Der 28. März 2023 war der zweite Tag des Symposiums „Socially Responsible AI for Well-being“ im Rahmen der AAAI 2023 Spring Symposia. Veranstaltungsort ist normalerweise die Stanford University. Aus personellen Gründen wurde die Konferenz in diesem Jahr ins Hyatt Regency in San Francisco verlegt. Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW stellte am Morgen das Paper „Increasing Well-being through Robotic Hugs“ vor, das von ihm, Andrea Puljic, Robin Heiz, Furkan Tömen und Ivan De Paola verfasst wurde. Das Team hatte einen Umarmungsroboter namens HUGGIE gebaut und an über 130 Probanden getestet. Danach hielten Lea Peier und er ihren Vortrag „How Can Bar Robots Enhance the Well-being of Guests?“. Sie gingen auf zwei Barroboter ein, die in der Schweiz im Betrieb sind bzw. waren. Lea Peier hatte im Rahmen ihrer Abschlussarbeit an der Hochschule für Wirtschaft FHNW die wohl erste empirische Untersuchung zu Barrobotern durchgeführt. Beide Vorträge weckten das Interesse der Zuhörer, die vor allem aus Japan und den USA stammten. Informationen zur Konferenz sind über aaai.org/conference/spring-symposia/sss23/ erhältlich.
Am 27. März 2023 begann das Symposium „Socially Responsible AI for Well-being“ im Rahmen der AAAI 2023 Spring Symposium Series. Die traditionsreiche Konferenz wurde ausnahmsweise von der Stanford University ins Hyatt Regency SFO Airport verlegt. In seinem Eröffnungsvortrag erklärte Takashi Kido, einer der beiden Organisatoren, was Responsible AI ist, und erwähnte die Begriffe „Accountability“, „Responsibility“ und „Transparency“. Der Fokus des Symposiums ist Well-being und Fairness. Takashi Kido erwähnte den Vortrag „Should Social Robots in Retail Manipulate Customers?“ von Prof. Dr. Oliver Bendel beim Symposium „How Fair is Fair? Achieving Wellbeing AI“ von 2022, der auf dem gleichnamigen Paper von Oliver Bendel und Liliana Alves beruhte. Er leitete dann über zum Begriff “Socially Responsible AI“, wobei er folgende Diskussion benutzte: „Socially Responsible AI is about human responsibility for the development of intelligent systems along fundamental human principles and values, to ensure human flourishing and well-being in a sustainable world, considering for humans and AI ideal relationships“. Am Ende durften auch Überlegungen zu ChatGPT nicht fehlen. Es schloss sich eine intensive Diskussion über den Chatbot an, der zugleich ein Contentgenerator ist. Das Faszinierende ist, dass dieses Thema Laien und Experten gleichermaßen aufwühlt. Informationen zur Konferenz sind über aaai.org/conference/spring-symposia/sss23/ erhältlich.
Der Zukunftsrat des deutschen Bundeskanzlers Olaf Scholz hat im Dezember 2022 Impulse für den Innovationsstandort Deutschland diskutiert. Man war sich laut Bundesministerium für Bildung und Forschung (BMBF) einig, dass die Robotik hohe Potenziale bietet und die Beherrschung der damit zusammenhängenden Technologien auch eine Frage der Wettbewerbsfähigkeit sowie der technologischen Souveränität ist. Man will nun zwei zentrale Handlungsempfehlungen des Zukunftsrats zur Robotik, nämlich „Spitzenforschung und Transfer stärken“ und „Talente gewinnen“, umsetzen. Um dies zu erreichen, lud das BMBF ausgewiesene Experten zu einem Fachgespräch ein, das am 27. März 2023 in Bonn stattfindet. Es gilt, Themen für Schwerpunkte in der Forschung und Ansätze zur Gewinnung von Spitzenkräften zu entwickeln. Auch Prof. Dr. Oliver Bendel, Philosoph und Wirtschaftsinformatiker aus Zürich, wurde angefragt. Da er zur gleichen Zeit in San Francisco bei den AAAI Spring Symposia zwei Vorträge hält (einen zu Barrobotern, zusammen mit Lea Peier, einen anderen zu Umarmungsrobotern), wurde er vom BMBF gebeten, seinen Input schriftlich zu formulieren. Auf sechs Seiten ging er auf Potenziale von Basistechnologien, die Integration von Robotern in komplexe Strukturen, aktuelle Forschungsfragen in der Robotik sowie Vertrauenswürdigkeit im Kontext robotischer Systeme ein. Sein Fokus lag dabei auf Servicerobotern und sozialen Robotern. Das Dokument liegt dem BMBF seit 15. März 2023 vor und wird beim Fachgespräch vor Ort ausgehändigt.
Abb.: Oliver Bendel bei einem Dreh mit 3sat (Foto: Sara Zarubica)
Im Rahmen des Themenwochenendes „Wenn der Mensch zur Maschine wird“ fanden am 5. März 2023 am Zentrum Paul Klee zur Ausstellung „Paul Klee. Vom Rausch der Technik“ zwei Gespräche statt. „Cyborgs – die besseren Menschen?“ war der Titel des ersten, zwischen Prof. Dr. Oliver Bendel (Wirtschaftsinformatiker und Technikphilosoph) und Fabienne Eggelhöfer (Chefkuratorin). Das zweite mit dem Titel „Siri spricht über Klee“ führte Jane Mumford (Kabarettistin, Komikerin, Musikerin und Illustratorin) mit dem Sprachassistenten von Apple. Sie bezog auch ChatGPT ein, wobei die Stimme von einem Schauspieler geliehen wurde. Im Zusammenhang mit dem System von OpenAI stellte sie drei Haikus aus dem Band „Dass es nur Kunst war, verdeckte die Kunst“ von Oliver Bendel vor. Mit Hilfe geeigneter Prompts hatte er ChatGPT erstaunliche Ergebnisse entlockt. Das Publikum spendete nach beiden Gesprächen lautstarken Applaus.
Adrian Lobe stellte einige Fragen an Oliver Bendel, die sich auf Generative AI bezogen. Im Fokus waren KI-basierte Bildgeneratoren, die inzwischen fotorealistische Abbildungen erschaffen können. Solche legte der Journalist dem in Zürich lebenden Professor vor und wollte von ihm wissen, wie er diese Retortenmenschen aus ethischer Sicht bewertet. Die Antwort begann mit den folgenden Worten: „Es spricht zunächst nichts dagegen, mit Hilfe von KI-basierten Bildgeneratoren fiktive Frauen und Männer zu erschaffen, also Avatare oder Hologramme. Man schadet niemandem, wenn die Bilder auf dem Bildschirm oder in einem Gerät erscheinen. Problematischer sind Deep Fakes, die reale Personen teilweise oder gesamthaft abbilden. Sie können die Menschenwürde verletzen, vor allem bei sexuellen Darstellungen. Aus ästhetischer Sicht ist es interessant, Menschen auf die Welt zu bringen, die man selbst schön findet, die man aber weder in den Medien noch im Alltag antrifft. Es wird ein Mensch gemacht, hat Wagner in ‚Faust II‘ ausgerufen, als Mephistopheles zu ihm getreten ist. Allerdings war es nur ein kleiner Homunkulus. Nun kann man seinen Traum verwirklichen und eine realistische Figur nach seinen Wünschen kreieren. Das ist auch aus ethischer Sicht relevant – denn es kann zu einem guten, erfüllten Leben beitragen. Vielleicht werden einem bestimmte Wünsche auch erst klar. Man versteht besser, was man will und was man nicht will, was man schön findet und was nicht. Man lernt sich besser kennen und kann auch anderen mitteilen, was man will und schön findet. Nur werden sich nicht alle Wünsche erfüllen lassen. Und eine Partnerschaft ist auch kein Wunschkonzert.“ Es folgten durchaus kritische Anmerkungen zur Praxis des Bildergenerierens sowie weitere Antworten auf weitere Fragen. Einzelne Statements wurden in den Artikel „Sieht unheimlich echt aus!“ (auch: „Unheimlich echt!“) übernommen, der am 27. Februar 2023 in ca. 20 Schweizer Zeitungen erschienen ist, etwa in der Aargauer Zeitung, in der Luzerner Zeitung und im St. Galler Tagblatt, und auf den in der Folge etwa bei 20 Minuten Bezug genommen wurde.