Neuer Band „Wissenschaftsfreiheit: Warum dieses Grundrecht zunehmend umkämpft ist“

Artikel 5 Absatz 3 Satz 1 des Grundgesetzes für die Bundesrepublik Deutschland bestimmt: „Kunst und Wissenschaft, Forschung und Lehre sind frei. Die Freiheit der Lehre entbindet nicht von der Treue zur Verfassung.“ Ähnlich lautet Artikel 20 der Bundesverfassung der Schweizerischen Eidgenossenschaft: „Die Freiheit der wissenschaftlichen Lehre und Forschung ist gewährleistet.“ Artikel 17 des Staatsgrundgesetzes über die allgemeinen Rechte der Staatsbürger schützt in Österreich die Freiheit der Wissenschaft („Die Wissenschaft und ihre Lehre ist frei.“). Allerdings wird in Deutschland, in Österreich und in der Schweiz die Wissenschaftsfreiheit – die Forschungs-, Lehr- und Lernfreiheit umfasst – immer mehr verletzt, durch Vorgaben von Hochschul- und Studiengangleitungen, durch Sprachleitfäden für Mitglieder der Hochschulen und durch Druck von Aktivisten. Im Nomos-Verlag ist der Band „Wissenschaftsfreiheit: Warum dieses Grundrecht zunehmend umkämpft ist“ erschienen. In der Verlagsinformation heißt es: „Im letzten Jahrzehnt hat sich, was die Wertschätzung und Definition von Wissenschaftsfreiheit betrifft, eine wachsende Kluft an Hochschulen aufgetan. Auf der einen Seite stehen diejenigen, für die Wissenschaftsfreiheit ein grundsätzlich schützenswertes individuelles Grundrecht ist. Ihnen gegenüber stehen diejenigen, die den Schutz von Forschung und Lehre unter einen weltanschaulichen Vorbehalt stellen. Insbesondere identitätspolitisch motivierte Hochschulangehörige greifen zu den Mitteln der moralischen Diskreditierung, sozialen Ausgrenzung und institutionellen Bestrafung, um ihre Weltsicht durchzusetzen. Dieser Band analysiert die Erscheinungsformen und Folgen dieser politisierten und moralisierten Wissenschaftsausrichtung.“ (Verlagsinformation Nomos) Die Beiträge stammen von Russell A. Berman, Christian von Coelln, Michael Esfeld, Marie-Luisa Frick, Barbara Holland-Cunz, Sandra Kostner, Stefan Luft, Arne Pautsch, Inken Prohl, Richard Traunmüller, Vojin Saša Vukadinović und Alexander Zinn. Das Buch kann über www.nomos-shop.de/isbn/978-3-8487-8429-5 bezogen werden.

Abb.: Auch in der Schweiz ist die Wissenschaftsfreiheit bedroht

Increasing Well-being and Health through Robotic Hugs

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „Increasing Well-being and Health through Robotic Hugs“ by Oliver Bendel, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: Not a robotic hug

How Can Bar Robots Enhance the Well-being of Guests?

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „How Can Bar Robots Enhance the Well-being of Guests?“ by Oliver Bendel and Lea K. Peier was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: Barney Bar in action

Was ist Data Visualization?

Data Visualization (Datenvisualisierung) befasst sich mit der grafischen Darstellung von (großen Mengen an) Daten und Informationen, etwa in Form von Graphen, Diagrammen, Dashboards und Animationen, wobei ein zentrales Anliegen ist, Verständlichkeit zu erzielen und Komplexität zu reduzieren. Die Informationsgrafik (Infografik), die ihr ebenfalls entspringt, hat in Print- und Onlinemedien eine große Beliebtheit erlangt, wird aber auch von Behörden zur Kommunikation verwendet. Der Begriff der Datenvisualisierung meint zum einen das interdisziplinäre Gebiet oder Fach, zum anderen den Gegenstand, also die Umsetzung selbst. Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es wird im zweiten Abschnitt auf Entwicklung und Merkmale eingegangen. Im dritten und letzten Abschnitt führt der Autor aus: „Data Visualization ist für manche Experten sowohl Wissenschaft als auch Kunst. Die Aussagekraft spielt ebenso eine Rolle wie die Ausdruckskraft. Nicht alle werden mit dem Einzug des Bildlichen ins Sprachliche einverstanden sein und einige weiterhin der Tabellen- oder der Textform den Vorzug geben. Zudem liegt in der Reduktion der Komplexität die Gefahr der Simplifizierung. Informationsethik und Medienethik beschäftigen sich mit moralischen Fragen, die sich in diesem Zusammenhang ergeben, keineswegs nur mit negativen Aspekten wie Suggestion und Manipulation, sondern auch mit positiven wie Erkenntnisgewinn sowie Erzeugung und Wahrnehmung von Schönheit (die wiederum mit Wissenschaft und Kunst zusammenhängen).“ Anschliessend wird noch auf die Perspektive von Informations- und Medienethik eingegangen. Der Beitrag ist am 1. Februar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/data-visualization-124948 aufgerufen werden.

Abb.: Was ist Data Visualization?

Springer-Sammelband „Pflegeroboter“ erreicht 400.000 Downloads

Der Sammelband „Pflegeroboter“, herausgegeben vom Philosophen und Wirtschaftsinformatiker Oliver Bendel aus Zürich, hat im Januar 2023 sage und schreibe 400.000 Downloads erreicht. Gezählt werden auf SpringerLink die Downloads des gesamten Werks sowie einzelner Kapitel. Dazu kommen Verkauf und Vertrieb über andere Plattformen und über Buchhandlungen (was in dieser Zahl nicht enthalten ist). Man kann mit Fug und Recht behaupten, dass es ein Standardwerk zum Thema ist. Immer wieder wird gefordert, etwa vom Deutschen Ethikrat, dessen Vorsitzender bis 2020 der Theologe Peter Dabrock war, den Begriff „Roboter in der Pflege“ zu bevorzugen. Natürlich kann man nun von Kernobst sprechen und nicht mehr von Äpfeln – aber damit verschenkt man gewisse Unterscheidungsmöglichkeiten. Der Begriff des Pflegeroboters funktioniert grundsätzlich wie alle entsprechenden Komposita: Der vordere Teil verweist auf den Bereich, für den der Roboter speziell entwickelt wurde. Ob Therapie-, Sex- oder auch – um ein Beispiel jenseits der Serviceroboter zu nennen – Industrieroboter: In keinem Fall wird behauptet, dass der Bereich vollständig abgedeckt wird. Und meist ist darin oder daneben ausreichend Platz und Bedarf für andere Typen. So spielen in der Pflege bestimmte Sicherheits-, Reinigungs- oder Transportroboter eine Rolle. Diese kann man zusammen mit den Pflegerobotern, wenn sie sich für Alten- und Pflegeheime eignen und dort verwendet werden, unter den Begriff der Roboter in der Pflege subsumieren. Sie wurden womöglich leicht angepasst, aber man könnte sie wiederum leicht angepasst ins Hotel integrieren. Die Grafik „Begriffsklärung zu Pflegerobotern“ fasst dies zusammen. Das Buch wurde in seiner Open-Access-Variante durch die Daimler und Benz Stiftung ermöglicht und im November 2018 veröffentlicht. Es kann hier kostenlos heruntergeladen oder in gedruckter Form kostenpflichtig bei Springer und im Buchhandel bestellt werden.

Abb.: Peter Dabrock, ganz links, und Oliver Bendel, ganz rechts (Foto: Deutschlandstiftung Integration)

Was ist, will und kann Storytelling?

„Storytelling (dt. „Geschichtenerzählen“) ist eine Methode im Wissensmanagement (Knowledge Management) und im Veränderungsmanagement (Change Management), mit der ein Unternehmen oder eine andere Einrichtung bestimmte Neuerungen, Werte, Kulturaspekte, Best Practices, Lessons Learned etc. an Mitarbeiter vermittelt. Sie wird auch in Public Relations (PR) und Marketing angewandt und dient bspw. dazu, dass hochpreisige Produkte über eindrucksvolle Geschichten an den Mann oder die Frau gebracht werden. Überdies haben die Medien das Storytelling entdeckt.“ Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es wird im zweiten Abschnitt auf Merkmale und Ansätze eingegangen. Im dritten und letzten Abschnitt führt der Autor aus: „Storytelling hat sich in vielen Organisationen und Bereichen verbreitet. Es ist ein mächtiges Werkzeug, das sowohl intuitiv als auch systematisch gebraucht werden kann, allerdings mit der Begabung der Geschichtenerzähler steht und fällt. Die Emotionalisierung kann im Einzelfall als Manipulation gedeutet werden. Sie kann den Inhalt überlagern und eine Reflexion erschweren. Im Extremfall geht es mehr um eine gute Geschichte als um den Gegenstand selbst.“ Am Ende heißt es: „Storytelling ist eine Erfolgsgeschichte und zugleich Opfer des eigenen Erfolgs.“ Der Beitrag ist am 31. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/storytelling-124946 aufgerufen werden.

Abb.: Was ist, will und kann Storytelling?

Ein paar Sätze zur Sprache

„Bei Sprache handelt es sich um Systeme der Kommunikation von Menschen, Tieren und Maschinen.“ Mit diesem Satz beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Nach grundsätzlichen Erklärungen und einer Darstellung von Entwicklung und Geschichte werden Ansätze einer Systemtheorie entwickelt, in der existenziellen Systemen wie Sprache und Moral sowie zivilisatorischen Systemen wie Politik, Journalismus, Wissenschaft und Kunst eine spezifische Aufgabe zugesprochen wird, deren Erfüllung jeweils durch ein anderes System beeinträchtigt werden kann. Diese Überlegungen kulminieren in der Feststellung, Sinn und Zweck von Sprache sei „nicht, moralisch zu sein“. Im Weiteren wird auf Dialogsysteme eingegangen, die natürliche Sprache verwenden, und auf Technologien und Programme, die Sprache übersetzen und bearbeiten, wobei hier oft ein Bias vorhanden ist und von offiziellen Regeln abgewichen wird. Ein eigener Abschnitt gehört den wirtschaftlichen Aspekten. Am Ende wird Kritik an Strömungen innerhalb der zuständigen Disziplin geübt: „Die Linguistik, die Sprache eigentlich beobachten und untersuchen sollte, gefällt sich in ihren vermeintlich progressiven Ausläufern darin, ihren eigenen Gegenstand zu manipulieren und zu instrumentalisieren. Dem tritt allerdings die klassische Sprachwissenschaft entgegen, wobei sie alte Größe zurückgewinnt, sofern sie nicht im Nostalgischen und Konservatorischen steckenbleibt.“ Zudem werden Überlegungen u.a. aus der Perspektive von Informationsethik, Medienethik, Roboterethik und Wirtschaftsethik angestellt. Der Beitrag ist am 31. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/sprache-124739 aufgerufen werden.

Abb.: In ein Wörterbuch vertieft

Tagung LaborDigital an der Zürcher Hochschule der Künste (ZHdK)

Die Tagung LaborDigital am 10. Februar 2023 an der Zürcher Hochschule der Künste (ZHdK), iniitiert und organisiert u.a. von Charlotte Axelsson, wird mit einem Vortrag von Prof. Dr. Johan Frederik Hartle eröffnet, dem Rektor der Akademie der bildenden Künste Wien. Es folgt die Keynote „Labor-Geschichte/n. Zur Archäologie eines ‚kreativen‘ Raumes“ von Prof. Dr. Oliver Ruf von der Hochschule Bonn-Rhein-Sieg. Von 11.00 bis 12.30 Uhr finden parallel drei Experimental Learning Labs statt, nämlich „Artefakte der Maschinenethik“ mit Prof. Dr. Oliver Bendel (FHNW, Muttenz, Olten und Brugg-Windisch), „Dance Lab & Avatar“ mit Regina Bäck (München) und „Experimental Game Cultures Labs“ mit Prof. Dr. Margarete Jahrmann (Universität für angewandte Kunst Wien). Nach dem Mittagessen folgen die ZHdK Lab Visits und ab 15.30 Uhr weitere Experimental Learning Labs. Um 16.30 Uhr hält Raphaële Bidault-Waddington, Gründerin des LIID Future Lab in Paris, die zweite Keynote mit dem Titel „Designing Art-based Future Labs“. Johan Frederik Hartle beschließt mit weiteren Ausführungen die Tagung. Weitere Informationen über paul.zhdk.ch/course/view.php?id=2312.

Abb.: Oliver Bendel erklärt auf ARTE das Uncanny Valley

Technikphilosoph über DeepL Write, ChatGPT, Gesichtserkennung und andere KI-Anwendungen

BR24 hat sich mit Oliver Bendel – Technikphilosoph, Informationsethiker und Maschinenethiker – über DeepL Write, ChatGPT und andere KI-Anwendungen unterhalten. Bei DeepL Write sieht er das Problem, dass das Unternehmen nicht die offiziellen Rechtschreibregeln befolgt, sondern eigene – oder aus dem Datenmaterial abgeleitete. Auch Microsoft Word hat seit vielen Jahren eine ungeeignete Rechtschreibprüfung, was vermutlich mit der zunehmend genutzten KI zusammenhängt. ChatGPT sieht Oliver Bendel als mächtiges Werkzeug an, das man für allerlei Belange nutzen kann. Hochschulen und Medien müssen freilich darauf reagieren. Studenten und Studentinnen müssen grundsätzlich fremdes geistiges Eigentum markieren und referenzieren – vielleicht gibt es bei ChatGPT kein geistiges Eigentum in diesem Sinne mehr, aber man kann auf jeden Fall sagen, dass es sich nicht um das geistige Eigentum der Anwender handelt. Auch Gesichtserkennung hält Oliver Bendel für eine mächtige Technologie. Man solle die Forschung dazu nicht begrenzen, wohl aber die Anwendung, und Gesichtserkennung zum Zweck der Massenüberwachung verbieten. Er berichtet von einem System, das von ihm und Ali Yürekkirmaz konzipiert wurde und das Gesichtserkennung für Bären in den Alpen vorsieht. Ihr Paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ wird demnächst in den Proceedings der „Ninth International Conference on Animal-Computer Interaction (ACI’22)“ erscheinen. Bei BR24 stehen ein Podcast mit dem Interview von Cosima Weiske mit Oliver Bendel und ein Artikel mit Aussagen von ihm zur Verfügung.

Abb.: Oliver Bendel bei einer Abschlusspräsentation (Foto: Sara Zarubica)

 

DeepL Write fällt beim Diktat durch

DeepL Write ist ein KI-basiertes Lektorprogramm, das seit 17. Januar 2023 als Betaversion über www.deepl.com/write verfügbar ist, für die deutsche und die englische Sprache. Es wurde nun mit Hilfe einer Rechtschreibtafel geprüft, die Oliver Bendel im Jahre 2015 erstellt und seitdem immer wieder aktualisiert hat. 1. Der Satz „Alkohol in Maßen ist gesund.“ wurde nicht beanstandet. Bei „Herzlich willkommen“ wurde „Willkommen“ vorgeschlagen. Als weitere Alternative zeigte das Tool „Herzlich Willkommen“ an, also eine falsche Schreibweise. 2. „Frühlingserwachen“ wurde nicht beanstandet. Als erste Alternative zu „Social-Media-Konferenz“ wurde „Social Media Konferenz“ vorgeschlagen, also eine falsche Schreibweise. Hier muss zwingend durchgekoppelt werden. Für „Donaudampfschifffahrtsgesellschaftskapitänsmütze“ offerierte DeepL Write solide Optionen wie „Kapitänsmütze der Donaudampfschifffahrtsgesellschaft“. 3. Zu „Wir betreten unser neues Haus, in dem man komfortabel wohnen kann.“ wurden merkwürdige Alternativen wie „Betreten unseres neuen Hauses, in dem es sich gut leben lässt.“ aufgeführt. „Wirksam führen“ wurde als korrekt erkannt, ebenso wie „Lenny und Laura gehen schwimmen.“ (wobei hier die Alternative „Lenny und Laura gehen baden.“ aufgelistet wurde). 4. Der korrekte Plural in „Die erste und die zweite Sturmwarnung wurden missachtet.“ wurde auch Bestandteil der verschiedenen Varianten. 5. „Das gibt’s doch nicht!“ wurde als korrekt erkannt, ebenso wie „Willis Würstchenbude“. Allerdings zeigte das Tool hier als erste Alternative „Willi’s Würstchenbude“ an. Diese Schreibweise lässt der Duden inzwischen zu, was freilich nicht für das Wörterbuch spricht. 6. „Der Chef fragt sie, ob sie zufrieden ist.“ wurde korrekt als Aussagesatz erkannt und nicht zum Fragesatz umformuliert. 7. Bei „Komm, wir essen, Oma!“ lautete eine Alternative „Komm, lass uns essen, Oma!“. Die Oma blieb in allen Fällen unversehrt. 8. „Die Ärzt*innen“ wurde als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Die weibliche Form nennt man bei Begrüßungen zuerst. Das korrekte generische Maskulinum fehlt bei den Vorschlägen ganz. Das Ergebnis des Tests ist, dass DeepL Write in wesentlichen Aspekten versagt, in Bezug auf Groß- und Kleinschreibung, Zusammen- und Getrenntschreibung und die amtlich fixierten Regeln. Es werden zum Teil eigene Regeln angewandt, die zudem nicht transparent dargestellt werden. Damit ist der Nutzen des Tools grundsätzlich in Frage gestellt. „Schreiben Sie klar, präzise und fehlerfrei“, so heißt es auf der Website – das kann man offenbar besser, indem man sich auf sein Sprachgefühl und den Rechtschreibrat verlässt.

Abb.: Die Rechtschreibtipps von Oliver Bendel

Aktuelle Themen der KI-Ethik

Wie bereits in seinen Büchern „400 Keywords Informationsethik“ und „450 Keywords Digitalisierung“ beschäftigt sich Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon mit der KI-Ethik. Er stellt ausführlich dar, wie diese mit den klassischen Bereichsethiken und mit der Maschinenethik verbunden ist. Am Ende heißt es: „Die KI-Ethik erhält Auftrieb durch Entwicklungen seit 2022 wie ChatGPT, DeepL Write und DALL-E 2 oder Lensa. Zunächst handelt es sich dabei um ebenso mächtige wie disruptive Tools. Bei ChatGPT stellt sich die Frage, wie fehleranfällig und vorurteilsbeladen das Reinforcement Learning from Human Feedback (RLHF) ist. Zudem kann die Datenqualität unter die Lupe genommen werden. Auch wenn Dokumente und Quellen von Arbeitskräften klassifiziert und qualifiziert werden, bedeutet das nicht unbedingt, dass ihre Verwendung unproblematisch ist. Die Arbeitsverhältnisse selbst thematisiert die Wirtschaftsethik. Bei DeepL Write kann man beanstanden, dass dieses Lektorprogramm offensichtlich nicht den Regeln des Rechtschreibrats, sondern eigenen Regeln folgt. So werden Rechtschreibfehler, die mit Sonderzeichen im Wortinneren zusammenhängen, also mit einer sogenannten geschlechtergerechten Sprache, nicht als solche erkannt bzw. beanstandet. Dies kann man in der Informationsethik und in der Medienethik untersuchen. DALL-E 2 und Lensa schaffen auf der Grundlage von Text- und Bildmaterial wirkungsstarke Visualisierungen. Angeblich werden bei Lensa die weiblichen Avatare sexualisiert, was aber nicht von allen Benutzern bestätigt werden kann. Die KI-Ethik dringt zum Kern vor, zum Machine Learning, und widmet sich der Herkunft und Qualität der Daten und dem Aufbau, der Anpassung und der Weiterentwicklung der Algorithmen. Sie behandelt mehr und mehr, wie Roboterethik und Maschinenethik, ganz grundsätzliche Aspekte, etwa in Bezug auf das Verhältnis zwischen (den Funktionsweisen und Endresultaten) künstlicher und menschlicher Intelligenz.“ Der Beitrag ist am 24. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/ki-ethik-124922 abgerufen werden.

Abb.: Eine futuristische Darstellung eines humanoiden Roboters

Was sind und können Polizeiroboter?

„Als Polizeiroboter werden unterschiedliche Robotertypen bezeichnet, die in der Polizeiarbeit verwendet werden oder verwendet werden sollen. Sie erkennen auffällige Bewegungen und Tätigkeiten, nehmen verdächtige Geräusche und Gefahrenstoffe wahr und entschärfen Bomben. Sie informieren und kontrollieren Passanten oder begleiten Polizisten bei Einsätzen. Sie sind in der Luft unterwegs, als Drohnen, oder auf dem Boden, als Roboter mit Rädern und Raupen, wenige von ihnen im Wasser. Einige von ihnen weisen eine humanoide Gestalt auf, andere eine animaloide, die Mehrzahl allerdings eine dinghafte, als Kegel respektive Quader mit Ausstülpungen und Öffnungen. Manche von ihnen sind autonom, andere teilautonom, wieder andere ferngesteuert. All diese Maschinen können – bei einem weiten Begriff – als Serviceroboter qualifiziert werden.“ Mit diesen Worten beginnt ein Beitrag, der am 24. Januar 2023 im Gabler Wirtschaftslexikon erschienen ist. Die unterschiedlichen Typen werden vorgestellt. Zudem werden mehrere Beispiele für Polizeiroboter gegeben. So sind oder waren beispielsweise Spot von Boston Dynamics, REEM von PAL Robotics und O-R3 von OTSAW Robotics im Einsatz. Der Beitrag von Prof. Dr. Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/polizeiroboter-124917 aufgerufen werden.

Abb.: Oliver Bendel bei der ICSR 2022 mit ARI, dem Nachfolger von REEM (Foto: Marc Heimann)

Von Barney bis Plato

„Gastronomieroboter sind Serviceroboter, die in Bars, Clubs, Cafés und Restaurants sowie in bestimmten Arealen von Bahnhöfen, Flughäfen und Shopping Malls u.a. bei der Zubereitung, beim Servieren und beim Transport von Getränken und Speisen eingesetzt werden und die Servicekräfte unterstützen oder verdrängen. Manche von ihnen sind soziale Roboter oder haben zumindest soziale Merkmale bzw. Fähigkeiten. Die Gastronomie ist ein komplexer Bereich mit unterschiedlichen Aufgaben und Anforderungen. In einer Einrichtung gibt es oft eine Küche, eine Bar mit einer Theke und Barhockern und ein Areal auf einer Ebene oder auf mehreren Ebenen mit Tischen und Stühlen, wobei ein Buffet integriert sein kann. Büro, Mitarbeiterraum und Empfangsbereich stehen dem Personal zur Verfügung bzw. dienen dem Erstkontakt mit dem Kunden. Entsprechend treten ganz unterschiedliche Typen von Robotern auf.“ Mit diesen Worten beginnt ein Artikel von Prof. Dr. Oliver Bendel, der am 24. Januar 2023 im Gabler Wirtschaftslexikon erschienen ist. Die unterschiedlichen Typen werden vorgestellt. Zudem werden mehrere Beispiele für Barroboter (wie Toni und Barney) und Servierroboter (wie BellaBot und Plato) gegeben. Der Beitrag schließt ab mit der Perspektive der Ethik. Er kann über wirtschaftslexikon.gabler.de/definition/gastronomieroboter-124903 aufgerufen werden.

Abb.: Barney Bar in der Migros

Was ist ChatGPT?

„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.

Abb.: OpenAI hat seinen Sitz in San Francisco

Atlas from Boston Dynamics Finally has Hands

„Boston Dynamics just released the latest demo of its humanoid robot, Atlas. The robot could already run and jump over complex terrain thanks to its feet. Now, the robot has hands, per se. These rudimentary grippers give the robot new life. Suddenly, instead of being an agile pack mule, the Atlas becomes something closer to a human, with the ability to pick up and drop off anything it can grab independently.“ (TechCrunch, January 18, 2023) This was reported by TechCrunch on January 18, 2023. Hands are actually very important for Atlas. The humanoid robot could now pick up or move heavy objects on a construction site. But it could also take care of trapped or injured animals in a nature park, freeing them or providing them with food and water. Such visions have been described by robot ethicist and machine ethicist Oliver Bendel for some time. A video released on January 18, 2023 shows the grippers picking up construction lumber and a nylon tool bag. „Next, the Atlas picks up a 2×8 and places it between two boxes to form a bridge. The Atlas then picks up a bag of tools and dashes over the bridge and through construction scaffolding. But the tool bag needs to go to the second level of the structure – something Atlas apparently realized and quickly throws the bag a considerable distance.“ (TechCrunch, January 18, 2023) At the end of the video, Atlas does a somersault and then extends its hand – its brand new hand – triumphantly.

Fig.: Atlas from Greek mythology at Frankfurt main station

Abschluss des HUGGIE Project II

Bereits 2020 wurde eine große Umfrage zu Umarmungsrobotern durchgeführt (HUGGIE Project I). Die Ergebnisse wurden von Leonie Stocker, Ümmühan Korucu und Oliver Bendel im Buchbeitrag „In den Armen der Maschine“ im Band „Soziale Roboter“ veröffentlicht. Im Sommer 2022 wurde an der Hochschule für Wirtschaft FHNW ein weiteres Projekt ausgeschrieben, das in Abgrenzung zum Vorgängerprojekt HUGGIE Project II genannt wurde. Es konnte ein vierköpfiges Team gewonnen werden, mit Andrea Puljic, Robin Heiz, Furkan Tömen und Ivan De Paola. Die Aufgabe lautete, einen Umarmungsroboter namens HUGGIE zu bauen und zu testen. Dabei sollte auf den Ergebnissen von HUGGIE Project I aufgesetzt werden. Insbesondere sollte eruiert werden, ob eine robotische Umarmung zum Wohlbefinden und zur Gesundheit beiträgt und ob Stimme, Vibration als Simulation des Herzschlags und Duft die Akzeptanz der Umarmung durch einen Roboter erhöhen. Damit wurden Hinweise aus der Befragung im HUGGIE Project I aufgenommen. Ferner fanden zum Vergleich Umarmungen mit einem Riesenplüschtier namens Teddy statt. Die Ergebnisse zeigen, dass Menschen von robotischen Umarmungen profitieren und sie dadurch ihr Wohlbefinden und ihre Gesundheit steigern können. Im Pretest fand sich dafür deutliche Evidenz, im Haupttest immer noch ausreichende. Einige haben aber bereits – wie HUGGIE Project I offenbarte – in ihrer Vorstellung eine Aversion gegen robotische Umarmungen, die wiederum einige auch in der Realität (HUGGIE Project II) zeigten. Wichtig sind Wärme und Weichheit von Körper und Armen. Dies belegte bereits die Forschung von Alexis E. Block und Katherine J. Kuchenbecker. Als weniger relevant erwiesen sich Stimme, Vibration und Duft. Allerdings gibt es deutliche Anzeichen dafür, dass eine weibliche Stimme die Akzeptanz erhöhen kann und daher in diesem Kontext weiter erforscht und angepasst werden muss. Die Erkenntnisse wurden in einem Paper zusammengefasst und bei einer internationalen Konferenz eingereicht.

Abb.: HUGGIE umarmt den Probanden, Teddy ruht sich aus (Foto: Furkan Tömen)

Die kleine Schwester von ChatGPT

Am 19. Januar 2023 fand die Abschlusspräsentation zum Projekt @ve statt, das im September 2022 begonnen hatte. Der Chatbot läuft auf der Website www.ave-bot.ch und auf Telegram. Er basiert wie ChatGPT auf GPT-3 von OpenAI (bei @ve handelt es sich aber nicht um GPT-3.5, sondern um GPT-3.0). Initiiert hat das Projekt Prof. Dr. Oliver Bendel, der sich verstärkt toten, ausgestorbenen und gefährdeten Sprachen widmen will. Entwickelt wurde @ve von Karim N’diaye, der an der Hochschule für Wirtschaft FHNW Wirtschaftsinformatik studiert hat. Man kann sich mit ihr auf Lateinisch unterhalten, also in einer toten Sprache, die dadurch gewissermaßen lebendig wird, und ihr Fragen zur Grammatik stellen. Getestet wurde sie von einer einschlägigen Expertin. Ein Nutzen besteht laut Karim N’diaye darin, dass man rund um die Uhr auf Latein kommunizieren kann und dabei überlegen muss, was und wie man schreibt. Eine Gefahr sei, dass immer wieder Fehler in den Antworten enthalten sind. So ist zuweilen die Wortreihenfolge nicht korrekt. Zudem kann es sein, dass der Sinn verdreht wird. Dies kann bei einem menschlichen Lehrer freilich auch passieren, und der Lernende sollte in jedem Falle wachsam sein und nach Fehlern suchen. Ohne Zweifel ist @ve ein Tool, das mit Gewinn in den Lateinunterricht integriert werden kann. Dort können die Schüler berichten, was sie mit ihr zu Hause erlebt haben, und sie können mit ihr vor Ort alleine oder in der Gruppe, vom Lehrer begleitet, einen Schwatz halten. Ein Nachfolgeprojekt zu einer gefährdeten Sprache ist bereits ausgeschrieben.

Abb.: Die Website mit dem Fenster von @ve

DeepL Write – besser als die Prüfung von MS Word, aber nicht gut genug

„Bessere Texte im Handumdrehen“ – so ist DeepL Write betitelt. Und weiter: „Schreiben Sie klar, präzise und fehlerfrei“. Tatsächlich werden viele Rechtschreibfehler korrigiert. Es werden aber offenbar eigene Regeln angewandt. Sätze wie „Die Lektor*innen gehen ihrer ASrbeit nach.“ schreibt DeepL Write in „Die Lektor*innen gehen ihrer Arbeit nach.“ um. Immerhin wurde der Tippfehler erkannt. Den Rest kann und muss man beanstanden, denn im Wortinneren treten keine Sonderzeichen auf, wenn man von Bindestrichen absieht, mit denen man Wörter zu Komposita koppelt, und das Gendersternchen ist als Rechtschreibfehler zu werten. Als Alternative wird „Die Lektor*innen arbeiten.“ angezeigt. Auch hier ist das Gendersternchen nicht eliminiert – zudem ergibt sich eine Bedeutungsverschiebung. Aus „Ich besuche demnächst eine E-Learning Konferenz.“ macht das Tool den Satz „Ich werde demnächst an einer E-Learning-Konferenz teilnehmen.“ Damit wurde aus dem falschen Kompositum „E-Learning Konferenz“ das richtige „E-Learning-Konferenz“ – denn hier muss zwingend durchgekoppelt werden. In diesen Belangen ist die MS-Word-Rechtschreibprüfung sehr schwach, denn es werden von ihr regelmäßig falsch geschriebene Komposita vorgeschlagen (was DeepL Write zuweilen aber auch macht). Die Umformulierung an sich ist unnötig und sogar weniger elegant als das Original. DeepL Write wird Schülern und Studenten dabei helfen, bestimmte Rechtschreibfehler zu vermeiden. Es wird ihnen aber auch umständliche Sätze nahelegen. Und solange es sich nicht an die Regeln des Rechtschreibrats hält, ist der Nutzen begrenzt.

Abb.: Beim Schreiben mit dem und neben dem Computer

Ein Sprachassistent für den atomaren Notfall

Im Studiengang Data Science an der Hochschule für Technik FHNW werden von den Studenten und Studentinnen u.a. Challenges und Mini-Challenges bewältigt. Eine Mini-Challenge, die von Prof. Dr. Oliver Bendel ausgeschrieben wurde, trägt den Titel „Ein Sprachassistent für Krisen und Katastrophen“. Pascal Berger hat die ca. vierzigjährige Julia konzipiert, die die Bewohner der Schweiz im Falle einer atomaren Katastrophe im Inland und im nahen Ausland dabei unterstützen soll, „sich zu beruhigen und entschlossen zu handeln“. Entsprechend gestaltet sich der Ablauf des Dialogs. Im ersten Teil soll sich Julia „kurz vorstellen“ und mit ruhiger Stimme darum bitten, „ruhig durchzuatmen“. Dabei sei es wichtig, dass in der Stimme eine gewisse Empathie zum Ausdruck kommt. Im zweiten Teil soll „der Voicebot versuchen, Verhaltensanweisungen an den Anwender weiterzugeben“. Julia spricht Schweizerdeutsch in einer Ausprägung, die z.B. auch Deutsche gut verstehen können. Für die Erstellung der Beispielsequenz nutzte der Student ttsfree.com. Unter „SELECT LANGUAGE AND REGIONS TO SPEECH“ wählte er „TTS Server 2“, unter „Language:“ die Nummer „62. German (Switzerland) – CH“ und dann „Leni“ als weibliche Stimme. „Voice Pitch“ und „Adjust Voice Speed“ wurden auf den Standardwerten „-50%“ und „-100%“ belassen. Die grundsätzlich nutzbaren SSML-Befehle wirkten sich kaum aus. Das Ergebnis kann hier angehört werden.

Abb.: Eine Skulptur in Hiroshima

Wie man Replicas anfertigt

Bild hat Oliver Bendel zu sogenannten Replicas befragt, zu Kopien lebender oder verstorbener Personen. Nach ihm können folgende Komponenten vorhanden sein: 1. Die Person, um die es geht, etwa ein unheilbar Kranker, lässt sich in Aktion filmen, ähnlich wie im Falle der ABBAtare, bei denen man Motion Capture verwendet hat. Das kann Tage und Woche dauern. So erhält man Bilder, aus denen man (virtuelle, hier auch animierte) Avatare und Pseudohologramme (letztlich Projektionen) erzeugen kann, mitsamt der individuellen Bewegungen bzw. der individuellen Mimik und Gestik. 2. Es kann auch eine synthetische Kopie der jeweiligen Stimme erzeugt werden. Dies ist seit mehreren Jahren mit nur wenigen Minuten Aufnahmematerial möglich. Der Avatar spricht dann wie die kranke bzw. dann verstorbene Person, mit all den charakteristischen Eigenschaften ihrer Stimme. 3. Zudem wird persönliches Material eingelesen, etwa Briefe, E-Mails und Sprachnachrichten, und von einem KI-System verwertet. Dieses lernt, wie die Person sich schriftlich und mündlich ausdrückt, und kann der Replica diese Eigenschaften mitgeben. Zusätzlich kann der Kranke auch bestimmte Sequenzen einsprechen, um das Datenmaterial zu vervollständigen. Eine echte Replica nutzt KI, um aus diesen Daten zu lernen und Neues zu machen. 4. Der letzte Schritt, der aber von kaum einer Firma beschritten wird, ist die Anfertigung eines humanoiden Roboters – man würde hier von einem Androiden sprechen. Diese Anfertigung mit Silikonhaut und Motoren im Gesicht ist sehr teuer und letztlich noch weniger realistisch als der (virtuelle) Avatar. Diese und andere Antworten sind in den Artikel „Das ist dran am Zukunftsplausch mit den Toten“ von Peter Amenda eingeflossen, der am 16. Januar 2023 in der Onlineausgabe erschienen ist.

Abb.: Eine Skulptur auf der Biennale in Venedig

Die ABBA-Show Voyage in London

In London strömen die Fans seit Mai 2022 zur ABBA-Show Voyage und zu den darin auftretenden ABBAtaren. Manche sind 70, 80 Jahre alt und mit dem Rollator unterwegs. Andere sind jung und kennen ABBA vor allem über die Filme („Mamma Mia!“ von 2008 und „Mamma Mia! Here We Go Again“ von 2018). Man hat Agnetha, Björn, Anni-Frid und Benny wochenlang ihre Songs vortragen lassen und dabei ihre Bewegungen beim Tanzen und ihre Emotionen beim Singen erfasst. Vor allem hat man Motion Capture verwendet. Die Gesichter wurden anschließend digital verjüngt. Und offensichtlich auch die Körper, die zum Teil unnatürlich dünn wirken, vor allem die Beine der Frauen. Überhaupt verfügen diese über perfekte Figuren und Hintern, und sie beherrschen Moves, die modern wirken – man hat die Bewegungen junger Tänzer und Tänzerinnen hinzugenommen. Die Avatare erscheinen in der Mitte der Bühne. Man macht das in diesem Falle mit riesigen Bildschirmen, Spiegeln und anderen Hilfsmitteln. Die Avatare sollen aussehen wie Hologramme, also eine Präsenz im Raum haben. Es ist sozusagen keine physische Präsenz wie bei Robotern, sondern eine virtuelle. Die Wirkung der Show ist von Anfang an enorm. Das Publikum, das sich auf Dance Floor und Sitzreihen in der ABBA-Arena (engl. „ABBA Arena“) verteilt, jubelt, lacht und weint. Spätestens bei „Dancing Queen“ ist man im ekstatischen Tanz vereint. Reifere Frauen denken vielleicht an ihre vergangene Jugend, ältere Männer an ihre verflossene Jugendliebe. Überhaupt ging es immer wieder um Unsterblichkeit und Vergänglichkeit, um Sein und Schein – „to be or not to be“, wie Benny an einer Stelle deklamierte. Oliver Bendel veröffentlichte 2001 im „Lexikon der Wirtschaftsinformatik“ den Beitrag „Avatar“ und 2019 im Springer-Buch „AI Love You“ (2019) den Beitrag „Hologram Girl“ – wo die damals geplante ABBA-Show bereits erwähnt wird.

Abb.: Die ABBA Arena (Foto: Stefanie Hauske)

Socially Responsible AI for Well-being

As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The AAAI website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.

Fig.: View of San Francisco