Stephanie Schnydrig von CH Media war im Gespräch mit Oliver Bendel und fragte u.a., wie ChatGPT und Co. unsere Art, Dinge im Internet zu suchen, verändern werden. Die Antwort des Wirtschaftsinformatikers und Technikphilosophen lautete: „Die Benutzer erhalten nicht nur eine Liste mit Websites, sondern auch eine Antwort in natürlicher Sprache bzw. einen fertigen Text. So kann man bei Bing – in das ChatGPT integriert ist – nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Die Benutzer müssen nicht hunderte von Rezepten vergleichen und bewerten. Ihr Aufwand reduziert sich. Zugleich stellt sich die Frage, ob das Rezept wirklich etwas taugt. Aus welchen Quellen stammt es? Und sind wirklich alle Gänge vegetarisch? Wen kann ich zur Verantwortung ziehen, wenn etwas schiefgeht? Zum Teil können die Systeme die Quellen nennen, zum Teil aber auch nicht – Machine Learning verwischt sozusagen die Herkunft ein Stück weit. Vermutlich werden wir, sofern die Systeme gesprochene Sprache beherrschen, viel mehr mit Suchmaschinen sprechen als früher. Die Ausgaben taugen grundsätzlich zum Dialog, und die Systeme finden auf fast alles eine Antwort. Ich konnte schon vor Jahren Google Assistant fragen, wer Rihanna ist. Der Sprachassistent hat die Antwort auf Wikipedia gefunden und vorgelesen. Heute bedient sich ein Tool aus tausenden Quellen und variiert die Antwort. Man hat ganz andere Möglichkeiten.“ Es wurden weitere Fragen gestellt und Antworten gegeben. Die eine oder andere Aussage wurde im Artikel „Bingen wir bald, anstatt zu googeln?“ verwendet, der am 9. Februar 2023 in der Luzerner Zeitung und verschiedenen anderen Schweizer Zeitungen erschienen ist.
Abb.: Die neuen Suchmaschinen sind dialogorientiert
The proceedings of ICSR 2022 were published in early 2023. Included is the paper „The CARE-MOMO Project“ by Oliver Bendel and Marc Heimann. From the abstract: „In the CARE-MOMO project, a morality module (MOMO) with a morality menu (MOME) was developed at the School of Business FHNW in the context of machine ethics. This makes it possible to transfer one’s own moral and social convictions to a machine, in this case the care robot with the name Lio. The current model has extensive capabilities, including motor, sensory, and linguistic. However, it cannot yet be personalized in the moral and social sense. The CARE-MOMO aims to eliminate this state of affairs and to give care recipients the possibility to adapt the robot’s ‚behaviour‘ to their ideas and requirements. This is done in a very simple way, using sliders to activate and deactivate functions. There are three different categories that appear with the sliders. The CARE-MOMO was realized as a prototype, which demonstrates the functionality and aids the company in making concrete decisions for the product. In other words, it can adopt the morality module in whole or in part and further improve it after testing it in facilities.“ The book (part II of the proceedings) can be downloaded or ordered via link.springer.com/book/10.1007/978-3-031-24670-8.
Artikel 5 Absatz 3 Satz 1 des Grundgesetzes für die Bundesrepublik Deutschland bestimmt: „Kunst und Wissenschaft, Forschung und Lehre sind frei. Die Freiheit der Lehre entbindet nicht von der Treue zur Verfassung.“ Ähnlich lautet Artikel 20 der Bundesverfassung der Schweizerischen Eidgenossenschaft: „Die Freiheit der wissenschaftlichen Lehre und Forschung ist gewährleistet.“ Artikel 17 des Staatsgrundgesetzes über die allgemeinen Rechte der Staatsbürger schützt in Österreich die Freiheit der Wissenschaft („Die Wissenschaft und ihre Lehre ist frei.“). Allerdings wird in Deutschland, in Österreich und in der Schweiz die Wissenschaftsfreiheit – die Forschungs-, Lehr- und Lernfreiheit umfasst – immer mehr verletzt, durch Vorgaben von Hochschul- und Studiengangleitungen, durch Sprachleitfäden für Mitglieder der Hochschulen und durch Druck von Aktivisten. Im Nomos-Verlag ist der Band „Wissenschaftsfreiheit: Warum dieses Grundrecht zunehmend umkämpft ist“ erschienen. In der Verlagsinformation heißt es: „Im letzten Jahrzehnt hat sich, was die Wertschätzung und Definition von Wissenschaftsfreiheit betrifft, eine wachsende Kluft an Hochschulen aufgetan. Auf der einen Seite stehen diejenigen, für die Wissenschaftsfreiheit ein grundsätzlich schützenswertes individuelles Grundrecht ist. Ihnen gegenüber stehen diejenigen, die den Schutz von Forschung und Lehre unter einen weltanschaulichen Vorbehalt stellen. Insbesondere identitätspolitisch motivierte Hochschulangehörige greifen zu den Mitteln der moralischen Diskreditierung, sozialen Ausgrenzung und institutionellen Bestrafung, um ihre Weltsicht durchzusetzen. Dieser Band analysiert die Erscheinungsformen und Folgen dieser politisierten und moralisierten Wissenschaftsausrichtung.“ (Verlagsinformation Nomos) Die Beiträge stammen von Russell A. Berman, Christian von Coelln, Michael Esfeld, Marie-Luisa Frick, Barbara Holland-Cunz, Sandra Kostner, Stefan Luft, Arne Pautsch, Inken Prohl, Richard Traunmüller, Vojin Saša Vukadinović und Alexander Zinn. Das Buch kann über www.nomos-shop.de/isbn/978-3-8487-8429-5 bezogen werden.
Abb.: Auch in der Schweiz ist die Wissenschaftsfreiheit bedroht
As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „Increasing Well-being and Health through Robotic Hugs“ by Oliver Bendel, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.
As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „How Can Bar Robots Enhance the Well-being of Guests?“ by Oliver Bendel and Lea K. Peier was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.
Data Visualization (Datenvisualisierung) befasst sich mit der grafischen Darstellung von (großen Mengen an) Daten und Informationen, etwa in Form von Graphen, Diagrammen, Dashboards und Animationen, wobei ein zentrales Anliegen ist, Verständlichkeit zu erzielen und Komplexität zu reduzieren. Die Informationsgrafik (Infografik), die ihr ebenfalls entspringt, hat in Print- und Onlinemedien eine große Beliebtheit erlangt, wird aber auch von Behörden zur Kommunikation verwendet. Der Begriff der Datenvisualisierung meint zum einen das interdisziplinäre Gebiet oder Fach, zum anderen den Gegenstand, also die Umsetzung selbst. Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es wird im zweiten Abschnitt auf Entwicklung und Merkmale eingegangen. Im dritten und letzten Abschnitt führt der Autor aus: „Data Visualization ist für manche Experten sowohl Wissenschaft als auch Kunst. Die Aussagekraft spielt ebenso eine Rolle wie die Ausdruckskraft. Nicht alle werden mit dem Einzug des Bildlichen ins Sprachliche einverstanden sein und einige weiterhin der Tabellen- oder der Textform den Vorzug geben. Zudem liegt in der Reduktion der Komplexität die Gefahr der Simplifizierung. Informationsethik und Medienethik beschäftigen sich mit moralischen Fragen, die sich in diesem Zusammenhang ergeben, keineswegs nur mit negativen Aspekten wie Suggestion und Manipulation, sondern auch mit positiven wie Erkenntnisgewinn sowie Erzeugung und Wahrnehmung von Schönheit (die wiederum mit Wissenschaft und Kunst zusammenhängen).“ Anschliessend wird noch auf die Perspektive von Informations- und Medienethik eingegangen. Der Beitrag ist am 1. Februar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/data-visualization-124948 aufgerufen werden.
Der Sammelband „Pflegeroboter“, herausgegeben vom Philosophen und Wirtschaftsinformatiker Oliver Bendel aus Zürich, hat im Januar 2023 sage und schreibe 400.000 Downloads erreicht. Gezählt werden auf SpringerLink die Downloads des gesamten Werks sowie einzelner Kapitel. Dazu kommen Verkauf und Vertrieb über andere Plattformen und über Buchhandlungen (was in dieser Zahl nicht enthalten ist). Man kann mit Fug und Recht behaupten, dass es ein Standardwerk zum Thema ist. Immer wieder wird gefordert, etwa vom Deutschen Ethikrat, dessen Vorsitzender bis 2020 der Theologe Peter Dabrock war, den Begriff „Roboter in der Pflege“ zu bevorzugen. Natürlich kann man nun von Kernobst sprechen und nicht mehr von Äpfeln – aber damit verschenkt man gewisse Unterscheidungsmöglichkeiten. Der Begriff des Pflegeroboters funktioniert grundsätzlich wie alle entsprechenden Komposita: Der vordere Teil verweist auf den Bereich, für den der Roboter speziell entwickelt wurde. Ob Therapie-, Sex- oder auch – um ein Beispiel jenseits der Serviceroboter zu nennen – Industrieroboter: In keinem Fall wird behauptet, dass der Bereich vollständig abgedeckt wird. Und meist ist darin oder daneben ausreichend Platz und Bedarf für andere Typen. So spielen in der Pflege bestimmte Sicherheits-, Reinigungs- oder Transportroboter eine Rolle. Diese kann man zusammen mit den Pflegerobotern, wenn sie sich für Alten- und Pflegeheime eignen und dort verwendet werden, unter den Begriff der Roboter in der Pflege subsumieren. Sie wurden womöglich leicht angepasst, aber man könnte sie wiederum leicht angepasst ins Hotel integrieren. Die Grafik „Begriffsklärung zu Pflegerobotern“ fasst dies zusammen. Das Buch wurde in seiner Open-Access-Variante durch die Daimler und Benz Stiftung ermöglicht und im November 2018 veröffentlicht. Es kann hier kostenlos heruntergeladen oder in gedruckter Form kostenpflichtig bei Springer und im Buchhandel bestellt werden.
Abb.: Peter Dabrock, ganz links, und Oliver Bendel, ganz rechts (Foto: Deutschlandstiftung Integration)
„Storytelling (dt. „Geschichtenerzählen“) ist eine Methode im Wissensmanagement (Knowledge Management) und im Veränderungsmanagement (Change Management), mit der ein Unternehmen oder eine andere Einrichtung bestimmte Neuerungen, Werte, Kulturaspekte, Best Practices, Lessons Learned etc. an Mitarbeiter vermittelt. Sie wird auch in Public Relations (PR) und Marketing angewandt und dient bspw. dazu, dass hochpreisige Produkte über eindrucksvolle Geschichten an den Mann oder die Frau gebracht werden. Überdies haben die Medien das Storytelling entdeckt.“ Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es wird im zweiten Abschnitt auf Merkmale und Ansätze eingegangen. Im dritten und letzten Abschnitt führt der Autor aus: „Storytelling hat sich in vielen Organisationen und Bereichen verbreitet. Es ist ein mächtiges Werkzeug, das sowohl intuitiv als auch systematisch gebraucht werden kann, allerdings mit der Begabung der Geschichtenerzähler steht und fällt. Die Emotionalisierung kann im Einzelfall als Manipulation gedeutet werden. Sie kann den Inhalt überlagern und eine Reflexion erschweren. Im Extremfall geht es mehr um eine gute Geschichte als um den Gegenstand selbst.“ Am Ende heißt es: „Storytelling ist eine Erfolgsgeschichte und zugleich Opfer des eigenen Erfolgs.“ Der Beitrag ist am 31. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/storytelling-124946 aufgerufen werden.
„Bei Sprache handelt es sich um Systeme der Kommunikation von Menschen, Tieren und Maschinen.“ Mit diesem Satz beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Nach grundsätzlichen Erklärungen und einer Darstellung von Entwicklung und Geschichte werden Ansätze einer Systemtheorie entwickelt, in der existenziellen Systemen wie Sprache und Moral sowie zivilisatorischen Systemen wie Politik, Journalismus, Wissenschaft und Kunst eine spezifische Aufgabe zugesprochen wird, deren Erfüllung jeweils durch ein anderes System beeinträchtigt werden kann. Diese Überlegungen kulminieren in der Feststellung, Sinn und Zweck von Sprache sei „nicht, moralisch zu sein“. Im Weiteren wird auf Dialogsysteme eingegangen, die natürliche Sprache verwenden, und auf Technologien und Programme, die Sprache übersetzen und bearbeiten, wobei hier oft ein Bias vorhanden ist und von offiziellen Regeln abgewichen wird. Ein eigener Abschnitt gehört den wirtschaftlichen Aspekten. Am Ende wird Kritik an Strömungen innerhalb der zuständigen Disziplin geübt: „Die Linguistik, die Sprache eigentlich beobachten und untersuchen sollte, gefällt sich in ihren vermeintlich progressiven Ausläufern darin, ihren eigenen Gegenstand zu manipulieren und zu instrumentalisieren. Dem tritt allerdings die klassische Sprachwissenschaft entgegen, wobei sie alte Größe zurückgewinnt, sofern sie nicht im Nostalgischen und Konservatorischen steckenbleibt.“ Zudem werden Überlegungen u.a. aus der Perspektive von Informationsethik, Medienethik, Roboterethik und Wirtschaftsethik angestellt. Der Beitrag ist am 31. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/sprache-124739 aufgerufen werden.
BR24 hat sich mit Oliver Bendel – Technikphilosoph, Informationsethiker und Maschinenethiker – über DeepL Write, ChatGPT und andere KI-Anwendungen unterhalten. Bei DeepL Write sieht er das Problem, dass das Unternehmen nicht die offiziellen Rechtschreibregeln befolgt, sondern eigene – oder aus dem Datenmaterial abgeleitete. Auch Microsoft Word hat seit vielen Jahren eine ungeeignete Rechtschreibprüfung, was vermutlich mit der zunehmend genutzten KI zusammenhängt. ChatGPT sieht Oliver Bendel als mächtiges Werkzeug an, das man für allerlei Belange nutzen kann. Hochschulen und Medien müssen freilich darauf reagieren. Studenten und Studentinnen müssen grundsätzlich fremdes geistiges Eigentum markieren und referenzieren – vielleicht gibt es bei ChatGPT kein geistiges Eigentum in diesem Sinne mehr, aber man kann auf jeden Fall sagen, dass es sich nicht um das geistige Eigentum der Anwender handelt. Auch Gesichtserkennung hält Oliver Bendel für eine mächtige Technologie. Man solle die Forschung dazu nicht begrenzen, wohl aber die Anwendung, und Gesichtserkennung zum Zweck der Massenüberwachung verbieten. Er berichtet von einem System, das von ihm und Ali Yürekkirmaz konzipiert wurde und das Gesichtserkennung für Bären in den Alpen vorsieht. Ihr Paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ wird demnächst in den Proceedings der „Ninth International Conference on Animal-Computer Interaction (ACI’22)“ erscheinen. Bei BR24 stehen ein Podcast mit dem Interview von Cosima Weiske mit Oliver Bendel und ein Artikel mit Aussagen von ihm zur Verfügung.
Abb.: Oliver Bendel bei einer Abschlusspräsentation (Foto: Sara Zarubica)
Wie bereits in seinen Büchern „400 Keywords Informationsethik“ und „450 Keywords Digitalisierung“ beschäftigt sich Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon mit der KI-Ethik. Er stellt ausführlich dar, wie diese mit den klassischen Bereichsethiken und mit der Maschinenethik verbunden ist. Am Ende heißt es: „Die KI-Ethik erhält Auftrieb durch Entwicklungen seit 2022 wie ChatGPT, DeepL Write und DALL-E 2 oder Lensa. Zunächst handelt es sich dabei um ebenso mächtige wie disruptive Tools. Bei ChatGPT stellt sich die Frage, wie fehleranfällig und vorurteilsbeladen das Reinforcement Learning from Human Feedback (RLHF) ist. Zudem kann die Datenqualität unter die Lupe genommen werden. Auch wenn Dokumente und Quellen von Arbeitskräften klassifiziert und qualifiziert werden, bedeutet das nicht unbedingt, dass ihre Verwendung unproblematisch ist. Die Arbeitsverhältnisse selbst thematisiert die Wirtschaftsethik. Bei DeepL Write kann man beanstanden, dass dieses Lektorprogramm offensichtlich nicht den Regeln des Rechtschreibrats, sondern eigenen Regeln folgt. So werden Rechtschreibfehler, die mit Sonderzeichen im Wortinneren zusammenhängen, also mit einer sogenannten geschlechtergerechten Sprache, nicht als solche erkannt bzw. beanstandet. Dies kann man in der Informationsethik und in der Medienethik untersuchen. DALL-E 2 und Lensa schaffen auf der Grundlage von Text- und Bildmaterial wirkungsstarke Visualisierungen. Angeblich werden bei Lensa die weiblichen Avatare sexualisiert, was aber nicht von allen Benutzern bestätigt werden kann. Die KI-Ethik dringt zum Kern vor, zum Machine Learning, und widmet sich der Herkunft und Qualität der Daten und dem Aufbau, der Anpassung und der Weiterentwicklung der Algorithmen. Sie behandelt mehr und mehr, wie Roboterethik und Maschinenethik, ganz grundsätzliche Aspekte, etwa in Bezug auf das Verhältnis zwischen (den Funktionsweisen und Endresultaten) künstlicher und menschlicher Intelligenz.“ Der Beitrag ist am 24. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/ki-ethik-124922 abgerufen werden.
Abb.: Eine futuristische Darstellung eines humanoiden Roboters
„Als Polizeiroboter werden unterschiedliche Robotertypen bezeichnet, die in der Polizeiarbeit verwendet werden oder verwendet werden sollen. Sie erkennen auffällige Bewegungen und Tätigkeiten, nehmen verdächtige Geräusche und Gefahrenstoffe wahr und entschärfen Bomben. Sie informieren und kontrollieren Passanten oder begleiten Polizisten bei Einsätzen. Sie sind in der Luft unterwegs, als Drohnen, oder auf dem Boden, als Roboter mit Rädern und Raupen, wenige von ihnen im Wasser. Einige von ihnen weisen eine humanoide Gestalt auf, andere eine animaloide, die Mehrzahl allerdings eine dinghafte, als Kegel respektive Quader mit Ausstülpungen und Öffnungen. Manche von ihnen sind autonom, andere teilautonom, wieder andere ferngesteuert. All diese Maschinen können – bei einem weiten Begriff – als Serviceroboter qualifiziert werden.“ Mit diesen Worten beginnt ein Beitrag, der am 24. Januar 2023 im Gabler Wirtschaftslexikon erschienen ist. Die unterschiedlichen Typen werden vorgestellt. Zudem werden mehrere Beispiele für Polizeiroboter gegeben. So sind oder waren beispielsweise Spot von Boston Dynamics, REEM von PAL Robotics und O-R3 von OTSAW Robotics im Einsatz. Der Beitrag von Prof. Dr. Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/polizeiroboter-124917 aufgerufen werden.
Abb.: Oliver Bendel bei der ICSR 2022 mit ARI, dem Nachfolger von REEM (Foto: Marc Heimann)
„Gastronomieroboter sind Serviceroboter, die in Bars, Clubs, Cafés und Restaurants sowie in bestimmten Arealen von Bahnhöfen, Flughäfen und Shopping Malls u.a. bei der Zubereitung, beim Servieren und beim Transport von Getränken und Speisen eingesetzt werden und die Servicekräfte unterstützen oder verdrängen. Manche von ihnen sind soziale Roboter oder haben zumindest soziale Merkmale bzw. Fähigkeiten. Die Gastronomie ist ein komplexer Bereich mit unterschiedlichen Aufgaben und Anforderungen. In einer Einrichtung gibt es oft eine Küche, eine Bar mit einer Theke und Barhockern und ein Areal auf einer Ebene oder auf mehreren Ebenen mit Tischen und Stühlen, wobei ein Buffet integriert sein kann. Büro, Mitarbeiterraum und Empfangsbereich stehen dem Personal zur Verfügung bzw. dienen dem Erstkontakt mit dem Kunden. Entsprechend treten ganz unterschiedliche Typen von Robotern auf.“ Mit diesen Worten beginnt ein Artikel von Prof. Dr. Oliver Bendel, der am 24. Januar 2023 im Gabler Wirtschaftslexikon erschienen ist. Die unterschiedlichen Typen werden vorgestellt. Zudem werden mehrere Beispiele für Barroboter (wie Toni und Barney) und Servierroboter (wie BellaBot und Plato) gegeben. Der Beitrag schließt ab mit der Perspektive der Ethik. Er kann über wirtschaftslexikon.gabler.de/definition/gastronomieroboter-124903 aufgerufen werden.
„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.
Bereits 2020 wurde eine große Umfrage zu Umarmungsrobotern durchgeführt (HUGGIE Project I). Die Ergebnisse wurden von Leonie Stocker, Ümmühan Korucu und Oliver Bendel im Buchbeitrag „In den Armen der Maschine“ im Band „Soziale Roboter“ veröffentlicht. Im Sommer 2022 wurde an der Hochschule für Wirtschaft FHNW ein weiteres Projekt ausgeschrieben, das in Abgrenzung zum Vorgängerprojekt HUGGIE Project II genannt wurde. Es konnte ein vierköpfiges Team gewonnen werden, mit Andrea Puljic, Robin Heiz, Furkan Tömen und Ivan De Paola. Die Aufgabe lautete, einen Umarmungsroboter namens HUGGIE zu bauen und zu testen. Dabei sollte auf den Ergebnissen von HUGGIE Project I aufgesetzt werden. Insbesondere sollte eruiert werden, ob eine robotische Umarmung zum Wohlbefinden und zur Gesundheit beiträgt und ob Stimme, Vibration als Simulation des Herzschlags und Duft die Akzeptanz der Umarmung durch einen Roboter erhöhen. Damit wurden Hinweise aus der Befragung im HUGGIE Project I aufgenommen. Ferner fanden zum Vergleich Umarmungen mit einem Riesenplüschtier namens Teddy statt. Die Ergebnisse zeigen, dass Menschen von robotischen Umarmungen profitieren und sie dadurch ihr Wohlbefinden und ihre Gesundheit steigern können. Im Pretest fand sich dafür deutliche Evidenz, im Haupttest immer noch ausreichende. Einige haben aber bereits – wie HUGGIE Project I offenbarte – in ihrer Vorstellung eine Aversion gegen robotische Umarmungen, die wiederum einige auch in der Realität (HUGGIE Project II) zeigten. Wichtig sind Wärme und Weichheit von Körper und Armen. Dies belegte bereits die Forschung von Alexis E. Block und Katherine J. Kuchenbecker. Als weniger relevant erwiesen sich Stimme, Vibration und Duft. Allerdings gibt es deutliche Anzeichen dafür, dass eine weibliche Stimme die Akzeptanz erhöhen kann und daher in diesem Kontext weiter erforscht und angepasst werden muss. Die Erkenntnisse wurden in einem Paper zusammengefasst und bei einer internationalen Konferenz eingereicht.
Abb.: HUGGIE umarmt den Probanden, Teddy ruht sich aus (Foto: Furkan Tömen)
Bild hat Oliver Bendel zu sogenannten Replicas befragt, zu Kopien lebender oder verstorbener Personen. Nach ihm können folgende Komponenten vorhanden sein: 1. Die Person, um die es geht, etwa ein unheilbar Kranker, lässt sich in Aktion filmen, ähnlich wie im Falle der ABBAtare, bei denen man Motion Capture verwendet hat. Das kann Tage und Woche dauern. So erhält man Bilder, aus denen man (virtuelle, hier auch animierte) Avatare und Pseudohologramme (letztlich Projektionen) erzeugen kann, mitsamt der individuellen Bewegungen bzw. der individuellen Mimik und Gestik. 2. Es kann auch eine synthetische Kopie der jeweiligen Stimme erzeugt werden. Dies ist seit mehreren Jahren mit nur wenigen Minuten Aufnahmematerial möglich. Der Avatar spricht dann wie die kranke bzw. dann verstorbene Person, mit all den charakteristischen Eigenschaften ihrer Stimme. 3. Zudem wird persönliches Material eingelesen, etwa Briefe, E-Mails und Sprachnachrichten, und von einem KI-System verwertet. Dieses lernt, wie die Person sich schriftlich und mündlich ausdrückt, und kann der Replica diese Eigenschaften mitgeben. Zusätzlich kann der Kranke auch bestimmte Sequenzen einsprechen, um das Datenmaterial zu vervollständigen. Eine echte Replica nutzt KI, um aus diesen Daten zu lernen und Neues zu machen. 4. Der letzte Schritt, der aber von kaum einer Firma beschritten wird, ist die Anfertigung eines humanoiden Roboters – man würde hier von einem Androiden sprechen. Diese Anfertigung mit Silikonhaut und Motoren im Gesicht ist sehr teuer und letztlich noch weniger realistisch als der (virtuelle) Avatar. Diese und andere Antworten sind in den Artikel „Das ist dran am Zukunftsplausch mit den Toten“ von Peter Amenda eingeflossen, der am 16. Januar 2023 in der Onlineausgabe erschienen ist.
In January 2023, the Proceedings of Robophilosophy 2022 were published. Included is the paper „Robots in Policing“ by Oliver Bendel. From the abstract: „This article is devoted to the question of how robots are used in policing and what opportunities and risks arise in social terms. It begins by briefly explaining the characteristics of modern police work. It puts service robots and social robots in relation to each other and outlines relevant disciplines. The article also lists types of robots that are and could be relevant in the present context. It then gives examples from different countries of the use of robots in police work and security services. From these, it derives the central tasks of robots in this area and their most important technical features. A discussion from social, ethical, and technical perspectives seeks to provide clarity on how robots are changing the police as a social institution and with social actions and relationships, and what challenges need to be addressed.“ (Abstract) Robots in policing is a topic that has not received much attention. However, it is likely to become considerably more topical in the next few years. More information about the conference on cas.au.dk/en/robophilosophy/conferences/rpc2022.
Fig.: The conference poster at the University of Helsinki
In January 2023, the proceedings of Robophilosophy 2022 were published, under the title „Social Robots in Social Institutions“. „This book presents the Proceedings of Robophilosophy 2022, the 5th event in the biennial Robophilosophy conference series, held in Helsinki, Finland, from 16 to 19 August 2022. The theme of this edition of the conference was Social Robots in Social Institutions, and it featured international multidisciplinary research from the humanities, social sciences, Human-Robot Interaction, and social robotics. The 63 papers, 41 workshop papers and 5 posters included in this book are divided into 4 sections: plenaries, sessions, workshops and posters, with the 41 papers in the ‚Sessions‘ section grouped into 13 subdivisions including elderly care, healthcare, law, education and art, as well as ethics and religion. These papers explore the anticipated conceptual and practical changes which will come about in the course of introducing social robotics into public and private institutions, such as public services, legal systems, social and healthcare services, or educational institutions.“ (Website IOS Press) The proceedings contain the paper „Robots in Policing“ by Oliver Bendel and the poster „Tamagotchi on our couch: Are social robots perceived as pets?“ by Katharina Kühne, Melinda A. Jeglinski-Mende, and Oliver Bendel. More information via www.iospress.com/catalog/books/social-robots-in-social-institutions.
„Robot Enhancement ist die Erweiterung und damit einhergehende Veränderung oder Verbesserung des Roboters durch den Benutzer bzw. eine Firma, etwa in funktionaler, ästhetischer, ethischer oder ökonomischer Hinsicht. Das Wort wurde in Anlehnung an ‚Human Enhancement‘ und ‚Animal Enhancement‘ gebildet, und man kann damit sowohl das Arbeitsgebiet als auch den Gegenstand bezeichnen.“ Mit diesen Worten führte Prof. Dr. Oliver Bendel im Februar 2021 im Gabler Wirtschaftslexikon in das Robot Enhancement ein. In einem Beitrag für ICTkommunikation, der am 21. Mai 2021 erschienen ist, entwarf er dann das Arbeitsgebiet des Robot Enhancement und gab Beispiele für die Anwendung: Pepper von Aldebaran wird eingekleidet und mit Accessoires ausgestattet, wie der in Dubai als Polizeiroboter eingesetzte REEM von PAL Robotics. AIBO, ein Roboterhund von Sony, wird mit Fell überzogen. Damit ein Umarmungsroboter wie HUGGIE riecht, reibt man ihn mit Duftstoffen ein. Oder man überzieht einen Metall- oder Plastikkopf mit Silikonhaut oder verlängert vorhandene Gliedmaßen. Im Dezember 2022 ist bei Mentis das Buch „Mensch-Maschine-Interaktion: Konzeptionelle, soziale und ethische Implikationen neuer Mensch-Technik-Verhältnisse“ erschienen, herausgegeben von Orsolya Friedrich, Johanna Seifert und Sebastian Schleidgen. Darin enthalten ist ein Beitrag von Oliver Bendel mit dem Titel „Möglichkeiten und Herausforderungen des Robot Enhancement“. Es handelt sich um die bislang ausführlichste Abhandlung zu diesem Arbeitsgebiet und seinem Gegenstand. Weitere Informationen über www.mentis.de/edcollbook/title/61544.
Abb.: Der Roboter ARI von PAL Robotics bei der ICSR 2022
Raffael Schuppisser, stellvertretender Chefredakteur der Aargauer Zeitung, interviewte Prof. Dr. Oliver Bendel zu Chatbots, die auf Machine Learning basieren. Ihn interessierte u.a., warum LaMDA und ChatGPT so unterschiedliche Antworten geben, etwa auf die Frage, ob sie eine Person sind oder ein Bewusstsein haben. Der Informations- und Maschinenethiker erläuterte: „Chatbots dieser Art beruhen auf Sprachmodellen. Dazu gehören GPT-3 (im Falle von ChatGPT) und Language Model for Dialogue Applications (im Falle von LaMDA). Die Sprachmodelle unterscheiden sich voneinander. Zudem werden sie unterschiedlich trainiert. Daher reagieren sie unterschiedlich auf Anfragen. Sie können mit dem Chatbot beliebige Gespräche führen. Er wird immer anders antworten. Er ruft eben nicht einfach Aussagen aus einer Wissensbasis ab, sondern kreiert sie jeweils neu. Es ist möglich, dass man ihn so trainiert hat, dass er abstreitet, eine Person zu sein oder Bewusstsein zu haben. Die Menschen, die ihn trainiert haben, hätten dann solche Antworten für gut und richtig befunden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert. Man kann dieses Vorgehen auch mit einer Wissensbasis kombinieren, etwa wenn es darauf ankommt, dass der Chatbot auf eine Frage hin eine bestimmte Antwort gibt oder dieselbe Aussage wiederholt trifft. So ist es einem Erfinder eines Chatbots vielleicht wichtig, dass die Angaben zu seiner Person immer korrekt und konsistent sind und auch nicht zu viel verraten wird. Wir haben unseren GOODBOT von 2013 immer wieder betonen lassen, dass er nur eine Maschine ist. Das lief allein über die feste Programmierung. Wir haben damals kein maschinelles Lernen benutzt.“ Oliver Bendel führte in weiteren Antworten aus, dass Maschinen kein echtes Bewusstsein haben können und ein solches immer nur simulieren. Am 14. und 15. Dezember 2022 griffen 22 Schweizer Zeitungen die Ausführungen auf, neben der Aargauer Zeitung etwa das St. Galler Tagblatt und die Luzerner Zeitung.
„In ihrem Lebensraum sind Lebewesen dauerhaft oder vorübergehend, um aufzuwachsen und sich fortzupflanzen, sich zu verständigen, Wasser und Nahrung zu beschaffen und Schutz zu finden. In der Biologie werden u.a. Biotop (Lebensgemeinschaft von Lebewesen verschiedener Arten als natürliches oder künstliches Ökosystem), Habitat (Lebensraum von Lebewesen bestimmter Arten dieses Biotops) und Biosphäre (Lebensraum aller Lebewesen der Erde) unterschieden.“ Mit diesen Worten beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler, der am 5. Dezember 2022 erschienen ist. In einem nächsten Abschnitt wird auf die Entwicklung eingegangen, in einem weiteren die Perspektive der Ökologie und der Ethik eingenommen. Am Ende heißt es: „Immer bewusster wird den Menschen auch, dass sie den Lebensraum von Tieren und Pflanzen bedrohen und diese besser geschützt werden müssen, um die Artenvielfalt zu erhalten. Umweltethik, Bioethik und Medizinethik sind bei den Herausforderungen ebenso gefragt wie Wirtschaftsethik und Politikethik.“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/lebensraum-124738 aufgerufen werden.
Abb.: Der Lebensraum von Tieren und Pflanzen ist bedroht
„Ein Brain-Computer-Interface (BCI), dt. ‚Gehirn-Computer-Schnittstelle‘ oder ‚Hirn-Computer-Schnittstelle‘, ist eine spezielle Mensch-Maschine-Schnittstelle oder auch Tier-Maschine-Schnittstelle. Die elektrische Aktivität des Gehirns wird nichtinvasiv mittels Elektroden auf der Haut (Haube auf dem Kopf) oder invasiv mittels implantierter Elektroden aufgezeichnet und dann mit einem Computer analysiert und in Steuersignale transformiert.“ Mit diesen Worten beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler, der am 5. Dezember 2022 erschienen ist. In einem nächsten Abschnitt wird auf die Anwendungen eingegangen, in einem weiteren die Perspektive der Ethik eingenommen. Am Ende heißt es: „Risiken sind aus Sicht der Informationsethik die Überwachung von Personen, etwa die Kontrolle darüber, ob jemand aufmerksam oder schläfrig ist, und das Abgreifen von persönlichen Daten (Messwerten) und anderen Daten (wie Passwörtern), aus Sicht der Medizinethik die Verletzung des Gehirns bei invasiven Verfahren, die Veränderung des Gehirns bei aktiven BCI und die Beeinträchtigung der sensorischen und motorischen Fähigkeiten. Die Wirtschaftsethik (speziell die Unternehmensethik) nimmt sich der Frage an, inwieweit Gehirn-Computer-Schnittstellen in Produktion, Logistik und Büro eingesetzt werden können und sollen.“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/brain-computer-interface-124767 aufgerufen werden.