„Mit den seit 1998 stattfindenden Hannah-Arendt-Tagen erinnert Hannover an die 1906 in Linden geborene, bedeutende Tochter der Landeshauptstadt.“ (Website Stadt Hannover) Die jüdische Vertreterin der Politischen Theorie, die aus Nazideutschland floh, forschte u.a. zum Totalitarismus. „Ein Kuratorium mit Mitgliedern aus Wissenschaft, Politik, Kunst, Stiftungen und Verwaltung wählt jährlich ein aktuelles Thema aus und stellt es einem breiten Publikum zur Diskussion.“ (Website Stadt Hannover) Dies wird ermöglicht mit Hilfe von Experten und Expertinnen, die von Dr. Sabine Meschkat-Peters – vom Büro des Oberbürgermeisters, der Vorsitzender des Kuratoriums ist – nach Hannover eingeladen werden und dort einen Vortrag halten. Sie müssen zudem ein Manuskript abgeben, das in den jeweiligen Sammelband aufgenommen wird. Allerdings nicht unbedingt im originalen Wortlaut, denn die Herausgeberin Prof. Dr. Franziska Martinsen greift in die Texte ein, auch gegen den ausdrücklichen Willen der Autoren. Sie ist eine Verfechterin gegenderter Sprache und fügt Gendersternchen ein, die in der deutschen Sprache nicht vorgesehen sind. Damit verursacht sie Rechtschreib- und Grammatikfehler in fremden Texten und macht diese missverständlich und unlesbar. Zudem verletzt sie Urheberrecht, Persönlichkeitsrecht und Wissenschaftsfreiheit der Autoren. Diese erhalten von der Stadt Hannover auf Anfrage keine Hilfe in dieser Sache und werden lediglich an die Herausgeberin und die Presseabteilung der Stadt verwiesen. Auch der Verlag Velbrück nimmt seine Verantwortung nicht wahr und diskreditiert sich selbst als Wissenschaftsverlag. Dass dies alles ausgerechnet im Namen einer Totalitarismusforscherin geschieht, die sich nicht mehr wehren kann, gibt zu denken.
„Robotainment ist Unterhaltung (Entertainment) mit Hilfe von Robotern, meist sozialen Robotern. Diese singen, tanzen, machen Kampfkunst und stehen für intime und sexuelle Handlungen zur Verfügung. NAO, Pepper und Alpha Mini beherrschen Kung Fu oder Tai Chi. Cozmo singt und ahmt Tiere nach. Harmony ist ein durch Film und Fernsehen bekannt gewordener Sexroboter und wird auch von der Wissenschaft erforscht. Nicht zuletzt sind soziale Roboter auf dem Markt, die Tiere anregen oder aufregen und für deren ausreichende Bewegung sorgen.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Prof. Dr. Oliver Bendel aus Zürich. In einem zweiten Abschnitt wird auf die Ideen- und Entwicklungsgeschichte der künstlichen Kreatur von der Antike bis zur Renaissance eingegangen und das Phänomen des Robotainments daraus hergeleitet. Dabei spielt nicht nur der westliche Kulturkreis eine Rolle: „In chinesischen Geschichten aus dem 6. Jahrhundert taucht ein Mann aus Holz auf, der sich dreht, singt und tanzt, und eine Frau aus Holz, deren Schönheit ohnegleichen ist.“ Im dritten Abschnitt wird die Perspektive der Ethik eingenommen, unter besonderer Berücksichtigung der Roboterethik. Der Beitrag ist am 24. März 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/robotainment-125138 aufgerufen werden.
Der Maschinenethik sind in der Technischen Rundschau 3/2023 ganze vier Seiten gewidmet. Den Kern bilden ein Beitrag von Prof. Dr. Oliver Bendel und ein Interview mit ihm. Der Informations- und Maschinenethiker hatte sich in den 1990er-Jahren mit der Frage nach der Verantwortung von Maschinen beschäftigt und war zum Schluss gekommen, dass diese weder Verantwortung tragen noch zur Verantwortung gezogen werden können. Zudem interessierte er sich dafür, ob Maschinen Pflichten haben können, was er verneint – stattdessen spricht er in einem schwachen Sinne von Verpflichtungen oder von Aufgaben. Ab 2012 widmete er sich dann der Begründung einer funktionalen Moral von Maschinen. Maschinen können nach seiner Meinung keinen guten oder bösen Willen haben, kein Bewusstsein, keine Intuition und keine Empathie. Man kann ihnen aber moralische Regeln beibringen, an die sie sich strikt halten oder die sie selbst abändern und anpassen. Ab 2013 wurden von ihm zahlreiche Prototypen der Maschinenethik entwickelt. Die Disziplin hat auch im Zusammenhang mit generativer KI an Bedeutung gewonnen. Das E-Paper des Hefts kann über epaper.technische-rundschau.ch/?/shelf/ aufgerufen werden. Der Beitrag steht als PDF zur Verfügung.
„Ein Prompt ist bei generativer KI (Generative AI) ein Input des Benutzers, zu dem das System einen Output erzeugt. Ein textbasierter Prompt kann Wörter, Buchstaben, Sonderzeichen, Zahlen und Links enthalten. Um das gewünschte Ergebnis zu bekommen, muss der Prompt möglichst eindeutig und umfassend sein. Ein einfaches Beispiel im Falle von Bildgeneratoren ist ‚3 junge Frauen vor einem See, fotorealistisch‘, wobei der erste Teil den Inhalt angibt, der zweite den Stil. Wenn Dialoge vorgesehen sind, wie bei Textgeneratoren wie ChatGPT und Bildgeneratoren wie Visual ChatGPT, kann mehrmals eine Eingabe erfolgen, um das Ergebnis anzupassen. Auch das Verweisen auf Bilder ist möglich. Zuweilen sind negative Prompts erlaubt, die etwas ausschließen.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon, erschienen am 14. März 2023. In den folgenden Absätzen wird auf Prompt Engineering und Prompt-Plattformen eingegangen. Am Ende wird die Perspektive der Ethik eingenommen: „Dass generative KI bestimmte Anfragen ablehnt, aus moralischen, rechtlichen oder ideologischen Gründen, ist Thema von Informationsethik und Medienethik. Rechtsethik, Rechtswissenschaft und Rechtsprechung untersuchen, inwieweit Prompts schützenswertes geistiges Eigentum darstellen.“ Der Beitrag von Oliver Bendel kann über wirtschaftslexikon.gabler.de/definition/prompt-125087 abgerufen werden.
Abb.: Midjourney generiert ein Bild mit drei jungen Frauen vor einem See
Forscher von Microsoft arbeiten an einer neuen Anwendung auf der Basis von ChatGPT und Lösungen wie Stable Diffusion. Mit Visual ChatGPT soll man man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. In ihrem Paper „Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models“ schreiben Chenfei Wu und seine Mitautoren: „We build a system called Visual ChatGPT, incorporating different Visual Foundation Models, to enable the user to interact with ChatGPT by 1) sending and receiving not only languages but also images 2) providing complex visual questions or visual editing instructions that require the collaboration of multiple AI models with multi-steps“ – und, nicht zu vergessen: „3) providing feedback and asking for corrected results“ (Wu et al. 2023). Beispielsweise lässt man mit einem entsprechenden Prompt das Bild einer Landschaft erstellen, mit blauem Himmel, Hügeln, Wiesen, Blumen und Bäumen. Dann weist man Visual ChatGPT mit einem weiteren Prompt an, die Hügel flacher zu machen und den Himmel abendlicher und bewölkter. Zudem kann man das Programm fragen, welche Farbe die Blumen haben, und diese mit einem weiteren Prompt einfärben. Ein letzter Prompt lässt die Bäume herbstlicher erscheinen. Das Paper kann über arxiv.org heruntergeladen werden.
Forscher von Google und der TU Berlin haben am 6. März 2023 ein verkörpertes, multimodales Sprachmodell mit dem Namen PaLM-E vorgestellt, das virtuelle und physische Welt verbindet. So kann man per Spracheingabe einen Haushaltsroboter steuern und ihn dazu bringen, bestimmte Gegenstände zu holen oder andere Tätigkeiten zu verrichten. Der Prompt kann dabei vom Benutzer spontan aus seiner eigenen Beobachtung der Umwelt abgeleitet werden. Die Idee der PaLM-E-Architektur besteht laut Projektwebsite darin, kontinuierliche, verkörperte Beobachtungen wie Bilder, Zustandseinschätzungen oder andere Sensormodalitäten in den Spracheinbettungsraum eines vortrainierten Sprachmodells zu integrieren. Im Beispielvideo lautet die Instruktion in deutscher Übersetzung: „Bring mir die Reischips aus der Schublade“. Golem schreibt in einem Artikel: „Dazu analysiert Palm-E die Daten der Roboterkamera, ohne dass eine vorverarbeitete Szenendarstellung erforderlich ist. Damit entfällt die Notwendigkeit, dass ein Mensch die Daten vorverarbeitet oder kommentiert, was eine autonomere Robotersteuerung ermöglicht.“ (Golem, 10. März 2023) Im Video fährt der Roboter – ein Roboterarm auf einer mobilen Plattform, ganz ähnlich wie Lio – zur Schublade und entnimmt ihr die Packung. In dem Paper „ChatGPT for Robotics: Design Principles and Model Abilities“ von Microsoft-Forschern wird eine ähnliche Strategie verfolgt, wobei ChatGPT verwendet wird, das wiederum auf GPT-3 basiert. Allerdings handelt es sich um einen indirekten Ansatz, bei dem Code generiert wird. Das Paper zu PaLM-E kann hier heruntergeladen werden.
Adrian Lobe stellte einige Fragen an Oliver Bendel, die sich auf Generative AI bezogen. Im Fokus waren KI-basierte Bildgeneratoren, die inzwischen fotorealistische Abbildungen erschaffen können. Solche legte der Journalist dem in Zürich lebenden Professor vor und wollte von ihm wissen, wie er diese Retortenmenschen aus ethischer Sicht bewertet. Die Antwort begann mit den folgenden Worten: „Es spricht zunächst nichts dagegen, mit Hilfe von KI-basierten Bildgeneratoren fiktive Frauen und Männer zu erschaffen, also Avatare oder Hologramme. Man schadet niemandem, wenn die Bilder auf dem Bildschirm oder in einem Gerät erscheinen. Problematischer sind Deep Fakes, die reale Personen teilweise oder gesamthaft abbilden. Sie können die Menschenwürde verletzen, vor allem bei sexuellen Darstellungen. Aus ästhetischer Sicht ist es interessant, Menschen auf die Welt zu bringen, die man selbst schön findet, die man aber weder in den Medien noch im Alltag antrifft. Es wird ein Mensch gemacht, hat Wagner in ‚Faust II‘ ausgerufen, als Mephistopheles zu ihm getreten ist. Allerdings war es nur ein kleiner Homunkulus. Nun kann man seinen Traum verwirklichen und eine realistische Figur nach seinen Wünschen kreieren. Das ist auch aus ethischer Sicht relevant – denn es kann zu einem guten, erfüllten Leben beitragen. Vielleicht werden einem bestimmte Wünsche auch erst klar. Man versteht besser, was man will und was man nicht will, was man schön findet und was nicht. Man lernt sich besser kennen und kann auch anderen mitteilen, was man will und schön findet. Nur werden sich nicht alle Wünsche erfüllen lassen. Und eine Partnerschaft ist auch kein Wunschkonzert.“ Es folgten durchaus kritische Anmerkungen zur Praxis des Bildergenerierens sowie weitere Antworten auf weitere Fragen. Einzelne Statements wurden in den Artikel „Sieht unheimlich echt aus!“ (auch: „Unheimlich echt!“) übernommen, der am 27. Februar 2023 in ca. 20 Schweizer Zeitungen erschienen ist, etwa in der Aargauer Zeitung, in der Luzerner Zeitung und im St. Galler Tagblatt, und auf den in der Folge etwa bei 20 Minuten Bezug genommen wurde.
„Schönheit (engl. ‚beauty‘) im allgemeinen Sinne ist eine visuelle, akustische, haptische oder ideelle Kategorie, die etwa das Schönsein des Himmels am Tag und in der Nacht, der Natur, eines Körpers, eines Gesichts, eines Gegenstands, eines Kunstwerks oder einer Formel umfasst.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon von Oliver Bendel. Mehrere Abschnitte widmen sich der Schönheit aus Sicht der Philosophie und anderer Disziplinen und dem Zusammenhang zwischen Kunst und Schönheit. Auch auf Wirtschaft und Schönheit wird eingegangen. So heißt es etwa mit Blick auf die Technik: „Cyborgs gefallen sich mit äußerlich sichtbaren technischen Strukturen. Humanoide und soziale Roboter überzeugen auf den ersten Blick mit ihrer künstlichen Schönheit, wobei bei Androiden das Uncanny Valley im Wege ist, das unheimliche Tal. So wirken Sophia, Harmony und Erica trotz oder gerade wegen ihrer perfekten Gesichter unheimlich, wenn sie lächeln. Avatare und (Pseudo-)Hologramme können fotorealistisch und hochattraktiv sein.“ Im letzten Abschnitt wird wiederholt die Perspektive der Ethik eingenommen. Der Beitrag ist am 22. Februar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/schoenheit-124971 aufgerufen werden.
Abb.: Ein Bildgenerator versucht sich an Schönheit
„Was sollte Ihrer Einschätzung nach zum Thema ‚Bewusste Künstliche Intelligenz‘ diskutiert werden, geschehen oder unterbleiben? Welche Forschungsansätze und Narrative gehören weiterentwickelt, aufgelöst und ersetzt, welche Irrwege endlich beendet, und welche Ansätze und Nischen sollten deutlich mehr Aufmerksamkeit erhalten? Aus welchen Gründen wird derzeit überhaupt über Künstliches Bewusstsein gesprochen, und was halten Sie für vielversprechend, möchte man ‚Bewusstsein‘ künstlich bewirken?“ Diese Fragen stellte Ende 2020 das KIT – Karlsruher Institut für Technologie verschiedenen Experten auf dem Gebiet. Oliver Bendel reichte im Frühjahr 2021 den Beitrag „Soziale Roboter und ihr Sprung in die Zukunft“ ein. Er stellte die drei Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) in einen Zusammenhang und klärte, welchen Gegenstand sie jeweils haben und welchen Ursprung oder welches Vorbild dieser wiederum hat. Dann zeigte er auf, wie die Soziale Robotik die drei Disziplinen einbezieht und ausnutzt. Der Band soll 2023 bei KIT Scientific Publishing unter dem Titel „Künstliche Intelligenz und Bewusstsein – Statements 2021“ erscheinen. Der Beitrag kann hier als Preprint heruntergeladen werden.
Sara Zarubica entwickelte 2022 im Rahmen ihrer von Prof. Dr. Oliver Bendel betreuten Abschlussarbeit an der Hochschule für Wirtschaft FHNW für ein Kinderspital eine auf einem sozialen Roboter laufende Lernanwendung. Das Ziel war es laut Abstract, aus Pepper einen interaktiven Lernpartner zu machen, mit dem die Kinder „das Schätzen von Kohlenhydratmengen in Mahlzeiten üben und so eine Grundlage für den täglichen Umgang mit Diabetes mellitus Typ 1 schaffen können“ (Abstract). Der Buchbeitrag „Pepper zu Besuch im Spital: Eine Lernanwendung für diabeteskranke Kinder und die Frage nach ihrer sozialen Angemessenheit“ von Oliver Bendel und Sara Zarubica stellt das Projekt vor und verbindet es mit Überlegungen zur sozialen Angemessenheit. Im ersten Kapitel wird in das Thema eingeführt. Das zweite legt Grundlagen zu sozialen Robotern und präsentiert exemplarisch deren Einsatz im Gesundheitsbereich. Das dritte beschreibt die Vorbereitung und Durchführung des Projekts, zudem die Tests mit den Kindergruppen im Spital. Im vierten Kapitel gehen die Autoren auf die soziale Angemessenheit der Gestaltung und Umsetzung ein, unter Berücksichtigung der bisherigen Ergebnisse und Erkenntnisse. Es wird dargelegt, wie physische Präsenz, humanoides Aussehen sowie verbales und gestisches Feedback den Lernerfolg und die Lernfreude unterstützen und wie sie Teil eines simulierten sozialen Settings in der Kinderklinik sind. Zugleich wird danach gefragt, welche technischen, pädagogischen und ethischen Herausforderungen resultieren und wie diesen mit unterschiedlichen Ansätzen begegnet werden kann. Ein fünftes Kapitel liefert eine Zusammenfassung und einen Ausblick. Der Buchbeitrag erscheint im Herbst 2023 bei Metzler im von Bruno Gransche, Jacqueline Bellon und Sebastian Nähr-Wagener herausgegebenen Band „Technik sozialisieren?“.
Seit 2010 hat Oliver Bendel mehrere Bände mit Haikus und anderen Gedichten veröffentlicht, wobei meistens das Handy eine wichtige Rolle gespielt hat: Es handelte sich entweder um Handyliteratur wie bei „stöckelnde dinger“ (2010), oder im Buch waren 2D- oder 3D-Codes abgedruckt, die die Gedichte enthielten, wie bei „handyhaiku“ (2010) und „Die Astronautin“ (2020). Im Februar 2023 entstand der Band „Dass es nur Kunst war, verdeckte die Kunst“. Die Haikus sind der Output von ChatGPT, bei wechselndem Input. Sie greifen die Themen der vorangehenden Bände auf, erzählen von Avataren, Hologrammen, Robotern und Astronautinnen. „ChatGPT“ steht für „Generative Pre-trained Transformer“. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, der seit Ende 2022 genutzt werden kann. Die Trainingsdaten stammen aus Foren, Artikeln, Büchern und gesprochener Sprache. Benutzt wird eine Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF) – der Mensch ist also im Spiel. Mit diesem Tool wurden, wie gesagt, die Haikus des Bands produziert. Manchmal wurden zu einem Input mehrere Resultate generiert und dann eines davon ausgewählt. Trotz der präzisen Anweisungen scheint ChatGPT nicht in der Lage zu sein, die Silbenanzahl durchgehend korrekt umzusetzen, übrigens auch nicht dann, wenn man ein Haiku als Vorbild eingegeben hat. Die Inputs und die Outputs, also die Haikus, wurden dann noch in JAB Codes umgewandelt. Der Band wurde am 20. Februar 2023 veröffentlicht und kann hier kostenlos heruntergeladen werden.
Stephanie Schnydrig von CH Media war im Gespräch mit Oliver Bendel und fragte u.a., wie ChatGPT und Co. unsere Art, Dinge im Internet zu suchen, verändern werden. Die Antwort des Wirtschaftsinformatikers und Technikphilosophen lautete: „Die Benutzer erhalten nicht nur eine Liste mit Websites, sondern auch eine Antwort in natürlicher Sprache bzw. einen fertigen Text. So kann man bei Bing – in das ChatGPT integriert ist – nach einem Rezept für ein Drei-Gänge-Menü für sechs Personen fragen, die sich vegetarisch ernähren. Bing schlägt nicht nur das Drei-Gänge-Menü vor, sondern erlaubt auch gezielte Nachfragen zur Zubereitung. Die Benutzer müssen nicht hunderte von Rezepten vergleichen und bewerten. Ihr Aufwand reduziert sich. Zugleich stellt sich die Frage, ob das Rezept wirklich etwas taugt. Aus welchen Quellen stammt es? Und sind wirklich alle Gänge vegetarisch? Wen kann ich zur Verantwortung ziehen, wenn etwas schiefgeht? Zum Teil können die Systeme die Quellen nennen, zum Teil aber auch nicht – Machine Learning verwischt sozusagen die Herkunft ein Stück weit. Vermutlich werden wir, sofern die Systeme gesprochene Sprache beherrschen, viel mehr mit Suchmaschinen sprechen als früher. Die Ausgaben taugen grundsätzlich zum Dialog, und die Systeme finden auf fast alles eine Antwort. Ich konnte schon vor Jahren Google Assistant fragen, wer Rihanna ist. Der Sprachassistent hat die Antwort auf Wikipedia gefunden und vorgelesen. Heute bedient sich ein Tool aus tausenden Quellen und variiert die Antwort. Man hat ganz andere Möglichkeiten.“ Es wurden weitere Fragen gestellt und Antworten gegeben. Die eine oder andere Aussage wurde im Artikel „Bingen wir bald, anstatt zu googeln?“ verwendet, der am 9. Februar 2023 in der Luzerner Zeitung und verschiedenen anderen Schweizer Zeitungen erschienen ist.
Abb.: Die neuen Suchmaschinen sind dialogorientiert
The proceedings of ICSR 2022 were published in early 2023. Included is the paper „The CARE-MOMO Project“ by Oliver Bendel and Marc Heimann. From the abstract: „In the CARE-MOMO project, a morality module (MOMO) with a morality menu (MOME) was developed at the School of Business FHNW in the context of machine ethics. This makes it possible to transfer one’s own moral and social convictions to a machine, in this case the care robot with the name Lio. The current model has extensive capabilities, including motor, sensory, and linguistic. However, it cannot yet be personalized in the moral and social sense. The CARE-MOMO aims to eliminate this state of affairs and to give care recipients the possibility to adapt the robot’s ‚behaviour‘ to their ideas and requirements. This is done in a very simple way, using sliders to activate and deactivate functions. There are three different categories that appear with the sliders. The CARE-MOMO was realized as a prototype, which demonstrates the functionality and aids the company in making concrete decisions for the product. In other words, it can adopt the morality module in whole or in part and further improve it after testing it in facilities.“ The book (part II of the proceedings) can be downloaded or ordered via link.springer.com/book/10.1007/978-3-031-24670-8.
Artikel 5 Absatz 3 Satz 1 des Grundgesetzes für die Bundesrepublik Deutschland bestimmt: „Kunst und Wissenschaft, Forschung und Lehre sind frei. Die Freiheit der Lehre entbindet nicht von der Treue zur Verfassung.“ Ähnlich lautet Artikel 20 der Bundesverfassung der Schweizerischen Eidgenossenschaft: „Die Freiheit der wissenschaftlichen Lehre und Forschung ist gewährleistet.“ Artikel 17 des Staatsgrundgesetzes über die allgemeinen Rechte der Staatsbürger schützt in Österreich die Freiheit der Wissenschaft („Die Wissenschaft und ihre Lehre ist frei.“). Allerdings wird in Deutschland, in Österreich und in der Schweiz die Wissenschaftsfreiheit – die Forschungs-, Lehr- und Lernfreiheit umfasst – immer mehr verletzt, durch Vorgaben von Hochschul- und Studiengangleitungen, durch Sprachleitfäden für Mitglieder der Hochschulen und durch Druck von Aktivisten. Im Nomos-Verlag ist der Band „Wissenschaftsfreiheit: Warum dieses Grundrecht zunehmend umkämpft ist“ erschienen. In der Verlagsinformation heißt es: „Im letzten Jahrzehnt hat sich, was die Wertschätzung und Definition von Wissenschaftsfreiheit betrifft, eine wachsende Kluft an Hochschulen aufgetan. Auf der einen Seite stehen diejenigen, für die Wissenschaftsfreiheit ein grundsätzlich schützenswertes individuelles Grundrecht ist. Ihnen gegenüber stehen diejenigen, die den Schutz von Forschung und Lehre unter einen weltanschaulichen Vorbehalt stellen. Insbesondere identitätspolitisch motivierte Hochschulangehörige greifen zu den Mitteln der moralischen Diskreditierung, sozialen Ausgrenzung und institutionellen Bestrafung, um ihre Weltsicht durchzusetzen. Dieser Band analysiert die Erscheinungsformen und Folgen dieser politisierten und moralisierten Wissenschaftsausrichtung.“ (Verlagsinformation Nomos) Die Beiträge stammen von Russell A. Berman, Christian von Coelln, Michael Esfeld, Marie-Luisa Frick, Barbara Holland-Cunz, Sandra Kostner, Stefan Luft, Arne Pautsch, Inken Prohl, Richard Traunmüller, Vojin Saša Vukadinović und Alexander Zinn. Das Buch kann über www.nomos-shop.de/isbn/978-3-8487-8429-5 bezogen werden.
Abb.: Auch in der Schweiz ist die Wissenschaftsfreiheit bedroht
As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „Increasing Well-being and Health through Robotic Hugs“ by Oliver Bendel, Andrea Puljic, Robin Heiz, Furkan Tömen, and Ivan De Paola was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.
As part of the AAAI 2023 Spring Symposia in San Francisco, the symposium „Socially Responsible AI for Well-being“ is organized by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). The paper „How Can Bar Robots Enhance the Well-being of Guests?“ by Oliver Bendel and Lea K. Peier was accepted. The talk will take place between March 26 and 29, 2023 at Hyatt Regency, San Francisco Airport. The symposium website states: „For our happiness, AI is not enough to be productive in exponential growth or economic/financial supremacies but should be socially responsible from the viewpoint of fairness, transparency, accountability, reliability, safety, privacy, and security. For example, AI diagnosis system should provide responsible results (e.g., a high-accuracy of diagnostics result with an understandable explanation) but the results should be socially accepted (e.g., data for AI (machine learning) should not be biased (i.e., the amount of data for learning should be equal among races and/or locations). Like this example, a decision of AI affects our well-being, which suggests the importance of discussing ‚What is socially responsible?‘ in several potential situations of well-being in the coming AI age.“ (Website AAAI) According to the organizers, the first perspective is „(Individually) Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to design Responsible AI for well-being. The second perspective is „Socially Responsible AI“, which aims to clarify what kinds of mechanisms or issues should be taken into consideration to implement social aspects in Responsible AI for well-being. More information via www.aaai.org/Symposia/Spring/sss23.php#ss09.
Data Visualization (Datenvisualisierung) befasst sich mit der grafischen Darstellung von (großen Mengen an) Daten und Informationen, etwa in Form von Graphen, Diagrammen, Dashboards und Animationen, wobei ein zentrales Anliegen ist, Verständlichkeit zu erzielen und Komplexität zu reduzieren. Die Informationsgrafik (Infografik), die ihr ebenfalls entspringt, hat in Print- und Onlinemedien eine große Beliebtheit erlangt, wird aber auch von Behörden zur Kommunikation verwendet. Der Begriff der Datenvisualisierung meint zum einen das interdisziplinäre Gebiet oder Fach, zum anderen den Gegenstand, also die Umsetzung selbst. Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es wird im zweiten Abschnitt auf Entwicklung und Merkmale eingegangen. Im dritten und letzten Abschnitt führt der Autor aus: „Data Visualization ist für manche Experten sowohl Wissenschaft als auch Kunst. Die Aussagekraft spielt ebenso eine Rolle wie die Ausdruckskraft. Nicht alle werden mit dem Einzug des Bildlichen ins Sprachliche einverstanden sein und einige weiterhin der Tabellen- oder der Textform den Vorzug geben. Zudem liegt in der Reduktion der Komplexität die Gefahr der Simplifizierung. Informationsethik und Medienethik beschäftigen sich mit moralischen Fragen, die sich in diesem Zusammenhang ergeben, keineswegs nur mit negativen Aspekten wie Suggestion und Manipulation, sondern auch mit positiven wie Erkenntnisgewinn sowie Erzeugung und Wahrnehmung von Schönheit (die wiederum mit Wissenschaft und Kunst zusammenhängen).“ Anschliessend wird noch auf die Perspektive von Informations- und Medienethik eingegangen. Der Beitrag ist am 1. Februar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/data-visualization-124948 aufgerufen werden.
Der Sammelband „Pflegeroboter“, herausgegeben vom Philosophen und Wirtschaftsinformatiker Oliver Bendel aus Zürich, hat im Januar 2023 sage und schreibe 400.000 Downloads erreicht. Gezählt werden auf SpringerLink die Downloads des gesamten Werks sowie einzelner Kapitel. Dazu kommen Verkauf und Vertrieb über andere Plattformen und über Buchhandlungen (was in dieser Zahl nicht enthalten ist). Man kann mit Fug und Recht behaupten, dass es ein Standardwerk zum Thema ist. Immer wieder wird gefordert, etwa vom Deutschen Ethikrat, dessen Vorsitzender bis 2020 der Theologe Peter Dabrock war, den Begriff „Roboter in der Pflege“ zu bevorzugen. Natürlich kann man nun von Kernobst sprechen und nicht mehr von Äpfeln – aber damit verschenkt man gewisse Unterscheidungsmöglichkeiten. Der Begriff des Pflegeroboters funktioniert grundsätzlich wie alle entsprechenden Komposita: Der vordere Teil verweist auf den Bereich, für den der Roboter speziell entwickelt wurde. Ob Therapie-, Sex- oder auch – um ein Beispiel jenseits der Serviceroboter zu nennen – Industrieroboter: In keinem Fall wird behauptet, dass der Bereich vollständig abgedeckt wird. Und meist ist darin oder daneben ausreichend Platz und Bedarf für andere Typen. So spielen in der Pflege bestimmte Sicherheits-, Reinigungs- oder Transportroboter eine Rolle. Diese kann man zusammen mit den Pflegerobotern, wenn sie sich für Alten- und Pflegeheime eignen und dort verwendet werden, unter den Begriff der Roboter in der Pflege subsumieren. Sie wurden womöglich leicht angepasst, aber man könnte sie wiederum leicht angepasst ins Hotel integrieren. Die Grafik „Begriffsklärung zu Pflegerobotern“ fasst dies zusammen. Das Buch wurde in seiner Open-Access-Variante durch die Daimler und Benz Stiftung ermöglicht und im November 2018 veröffentlicht. Es kann hier kostenlos heruntergeladen oder in gedruckter Form kostenpflichtig bei Springer und im Buchhandel bestellt werden.
Abb.: Peter Dabrock, ganz links, und Oliver Bendel, ganz rechts (Foto: Deutschlandstiftung Integration)
„Storytelling (dt. „Geschichtenerzählen“) ist eine Methode im Wissensmanagement (Knowledge Management) und im Veränderungsmanagement (Change Management), mit der ein Unternehmen oder eine andere Einrichtung bestimmte Neuerungen, Werte, Kulturaspekte, Best Practices, Lessons Learned etc. an Mitarbeiter vermittelt. Sie wird auch in Public Relations (PR) und Marketing angewandt und dient bspw. dazu, dass hochpreisige Produkte über eindrucksvolle Geschichten an den Mann oder die Frau gebracht werden. Überdies haben die Medien das Storytelling entdeckt.“ Mit diesen Worten beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Es wird im zweiten Abschnitt auf Merkmale und Ansätze eingegangen. Im dritten und letzten Abschnitt führt der Autor aus: „Storytelling hat sich in vielen Organisationen und Bereichen verbreitet. Es ist ein mächtiges Werkzeug, das sowohl intuitiv als auch systematisch gebraucht werden kann, allerdings mit der Begabung der Geschichtenerzähler steht und fällt. Die Emotionalisierung kann im Einzelfall als Manipulation gedeutet werden. Sie kann den Inhalt überlagern und eine Reflexion erschweren. Im Extremfall geht es mehr um eine gute Geschichte als um den Gegenstand selbst.“ Am Ende heißt es: „Storytelling ist eine Erfolgsgeschichte und zugleich Opfer des eigenen Erfolgs.“ Der Beitrag ist am 31. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/storytelling-124946 aufgerufen werden.
„Bei Sprache handelt es sich um Systeme der Kommunikation von Menschen, Tieren und Maschinen.“ Mit diesem Satz beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Nach grundsätzlichen Erklärungen und einer Darstellung von Entwicklung und Geschichte werden Ansätze einer Systemtheorie entwickelt, in der existenziellen Systemen wie Sprache und Moral sowie zivilisatorischen Systemen wie Politik, Journalismus, Wissenschaft und Kunst eine spezifische Aufgabe zugesprochen wird, deren Erfüllung jeweils durch ein anderes System beeinträchtigt werden kann. Diese Überlegungen kulminieren in der Feststellung, Sinn und Zweck von Sprache sei „nicht, moralisch zu sein“. Im Weiteren wird auf Dialogsysteme eingegangen, die natürliche Sprache verwenden, und auf Technologien und Programme, die Sprache übersetzen und bearbeiten, wobei hier oft ein Bias vorhanden ist und von offiziellen Regeln abgewichen wird. Ein eigener Abschnitt gehört den wirtschaftlichen Aspekten. Am Ende wird Kritik an Strömungen innerhalb der zuständigen Disziplin geübt: „Die Linguistik, die Sprache eigentlich beobachten und untersuchen sollte, gefällt sich in ihren vermeintlich progressiven Ausläufern darin, ihren eigenen Gegenstand zu manipulieren und zu instrumentalisieren. Dem tritt allerdings die klassische Sprachwissenschaft entgegen, wobei sie alte Größe zurückgewinnt, sofern sie nicht im Nostalgischen und Konservatorischen steckenbleibt.“ Zudem werden Überlegungen u.a. aus der Perspektive von Informationsethik, Medienethik, Roboterethik und Wirtschaftsethik angestellt. Der Beitrag ist am 31. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/sprache-124739 aufgerufen werden.
BR24 hat sich mit Oliver Bendel – Technikphilosoph, Informationsethiker und Maschinenethiker – über DeepL Write, ChatGPT und andere KI-Anwendungen unterhalten. Bei DeepL Write sieht er das Problem, dass das Unternehmen nicht die offiziellen Rechtschreibregeln befolgt, sondern eigene – oder aus dem Datenmaterial abgeleitete. Auch Microsoft Word hat seit vielen Jahren eine ungeeignete Rechtschreibprüfung, was vermutlich mit der zunehmend genutzten KI zusammenhängt. ChatGPT sieht Oliver Bendel als mächtiges Werkzeug an, das man für allerlei Belange nutzen kann. Hochschulen und Medien müssen freilich darauf reagieren. Studenten und Studentinnen müssen grundsätzlich fremdes geistiges Eigentum markieren und referenzieren – vielleicht gibt es bei ChatGPT kein geistiges Eigentum in diesem Sinne mehr, aber man kann auf jeden Fall sagen, dass es sich nicht um das geistige Eigentum der Anwender handelt. Auch Gesichtserkennung hält Oliver Bendel für eine mächtige Technologie. Man solle die Forschung dazu nicht begrenzen, wohl aber die Anwendung, und Gesichtserkennung zum Zweck der Massenüberwachung verbieten. Er berichtet von einem System, das von ihm und Ali Yürekkirmaz konzipiert wurde und das Gesichtserkennung für Bären in den Alpen vorsieht. Ihr Paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ wird demnächst in den Proceedings der „Ninth International Conference on Animal-Computer Interaction (ACI’22)“ erscheinen. Bei BR24 stehen ein Podcast mit dem Interview von Cosima Weiske mit Oliver Bendel und ein Artikel mit Aussagen von ihm zur Verfügung.
Abb.: Oliver Bendel bei einer Abschlusspräsentation (Foto: Sara Zarubica)
Wie bereits in seinen Büchern „400 Keywords Informationsethik“ und „450 Keywords Digitalisierung“ beschäftigt sich Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon mit der KI-Ethik. Er stellt ausführlich dar, wie diese mit den klassischen Bereichsethiken und mit der Maschinenethik verbunden ist. Am Ende heißt es: „Die KI-Ethik erhält Auftrieb durch Entwicklungen seit 2022 wie ChatGPT, DeepL Write und DALL-E 2 oder Lensa. Zunächst handelt es sich dabei um ebenso mächtige wie disruptive Tools. Bei ChatGPT stellt sich die Frage, wie fehleranfällig und vorurteilsbeladen das Reinforcement Learning from Human Feedback (RLHF) ist. Zudem kann die Datenqualität unter die Lupe genommen werden. Auch wenn Dokumente und Quellen von Arbeitskräften klassifiziert und qualifiziert werden, bedeutet das nicht unbedingt, dass ihre Verwendung unproblematisch ist. Die Arbeitsverhältnisse selbst thematisiert die Wirtschaftsethik. Bei DeepL Write kann man beanstanden, dass dieses Lektorprogramm offensichtlich nicht den Regeln des Rechtschreibrats, sondern eigenen Regeln folgt. So werden Rechtschreibfehler, die mit Sonderzeichen im Wortinneren zusammenhängen, also mit einer sogenannten geschlechtergerechten Sprache, nicht als solche erkannt bzw. beanstandet. Dies kann man in der Informationsethik und in der Medienethik untersuchen. DALL-E 2 und Lensa schaffen auf der Grundlage von Text- und Bildmaterial wirkungsstarke Visualisierungen. Angeblich werden bei Lensa die weiblichen Avatare sexualisiert, was aber nicht von allen Benutzern bestätigt werden kann. Die KI-Ethik dringt zum Kern vor, zum Machine Learning, und widmet sich der Herkunft und Qualität der Daten und dem Aufbau, der Anpassung und der Weiterentwicklung der Algorithmen. Sie behandelt mehr und mehr, wie Roboterethik und Maschinenethik, ganz grundsätzliche Aspekte, etwa in Bezug auf das Verhältnis zwischen (den Funktionsweisen und Endresultaten) künstlicher und menschlicher Intelligenz.“ Der Beitrag ist am 24. Januar 2023 erschienen und kann über wirtschaftslexikon.gabler.de/definition/ki-ethik-124922 abgerufen werden.
Abb.: Eine futuristische Darstellung eines humanoiden Roboters