Tai Tan Mai, Martin Crane und Marija Bezbradica von der Dublin City University veröffentlichten im Sommer 2023 bei Springer VS das Buch „Educational Data Mining und Learning Analytics: Ein maschinell generierter Forschungsüberblick“. Dessen Ziel ist es, einschlägige Artikel von Forschern zusammenzufassen. Es wird z.B. in der Schweiz in der gedruckten Version für 88.50 CHF angeboten. Stutzig macht bereits die Rubrik „About this book“, die orthografische und grammatikalische Fehler enthält. Wenn man durch das Buch blättert, kommen einem ständig solche Passagen entgegen: „Unter allen für die Bildung verfügbaren digitalen Ressourcen sind Massive Open Online Courses. (MOOC) als großartige Online-Tools, die den Lernprozess für jede Art von Inhalt erleichtern können.“ Über weite Strecken ergibt das Buch keinerlei Sinn. Das ist aber nicht das einzige Problem. Professor Marco Kalz von der Pädagogischen Hochschule Heidelberg meldete sich am 15. September 2023 auf LinkedIn mit einem Artikel, in dem er einen Plagiatsverdacht äußerte: „After reading the text more intensively, which should be a summary of our paper according to the introduction, I had the impression that the text itself is not a summary, but a direct translation of our original publication. This left me really confused and I translated the so-called summary back into English to see that my initial impression was right. A large proportion of text is not summarized but just translated and put into this chapter without quoting the original text.“ Nach seiner Darstellung konfrontierte er den Verlag und die Autoren mit seinen Befunden, allerdings ohne Erfolg. In dem Artikel, der auch auf seiner Website unter dem Titel „AI destroys principles of authorship. A scary case from educational technology publishing.“ zu finden ist, nimmt er ausführlich Stellung zu dem Fall. Die drei Herausgeber schreiben in ihrem Vorwort: „Ein besonderer Dank gilt auch den Mitarbeitern von Springer Nature für ihre Mitarbeit bei der Erstellung des vorliegenden Werks.“ Um wen es sich dabei handelt, ist nicht ersichtlich – Lektoren sind nicht aufgeführt. Insgesamt muss man eher von einem Machwerk sprechen. Springer VS ist mit diesem KI-generierten Buch in jeder Hinsicht gescheitert.
„Die Nasa hat einen neuen Direktor für die Erforschung unbekannter Phänomene. Das ist gut – außer für Alien-Gläubige. Es soll sachlicher werden. Und Ufo heißt jetzt UAP.“ Dies schreibt die ZEIT am 15. September 2023. Allerdings ist dieser Begriff schon seit einer Weile verbreitet. Der Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon vom 28. Juni 2022 erklärt: „Unidentified Aerial Phenomena (UAPs), Nichtidentifizierte oder Unbekannte Luftphänomene, sind Himmelserscheinungen, die nicht sofort oder nicht ohne Weiteres identifiziert bzw. erklärt … werden können. Die meisten von ihnen stellen sich als bekannte Naturspektakel wie Polarlichter und Blitze oder als gewöhnliche Flugobjekte heraus. Nur wenige entziehen sich für längere Zeit einer fachlichen Einschätzung respektive wissenschaftlichen Erklärung. Im Volksmund spricht man im Englischen von Unidentified Flying Objects (UFOs), im Deutschen von Unbekannten Flugobjekten. Damit werden von Leichtgläubigen oft Außerirdische in Zusammenhang gebracht, die die Menschheit besuchen oder heimsuchen.“ Der ZEIT-Artikel stellt ganz richtig fest: „UAP steht für einen nüchternen, einen wissenschaftlichen Blick auf Berichte über Sichtungen am Himmel und in der Luft, die sich nicht zuordnen lassen.“ (ZEIT, 15. September 2023)
Abb.: Ein KI-generiertes Bild einer Astronautin (Bild: Ideogram)
„Der Fortschritt der Technik lässt unsere Beziehungen nicht unberührt: Sexroboter offerieren neue Formen der Befriedigung, Chatbots versprechen emotionale Nähe, quasi auf Knopfdruck. Kann die KI uns dadurch bieten, was wir sonst so schmerzlich vermissen – etwas mehr Leichtigkeit bei der Suche nach Intimität?“ Mit diesen Worten beginnt der Artikel „Küss mich, KI!“ von Antonia Siebeck im Philosophie Magazin. Zu Wort kommt Prof. Dr. Oliver Bendel, der sich seit Jahren mit dem Thema beschäftigt und sich weder in die Eutopie eines David Levy noch in die Dystopie einer Kathleen Richardson mitnehmen lässt. Den gelegentlichen Aufruf eines Chatbots wie Replika in der Adultversion oder den gelegentlichen Gebrauch eines Sexroboters wie Harmony hält er für unproblematisch. Problematisch wird es, wenn man die Beziehung für eine hält, die für beide Seiten etwas bedeutet. Das tut sie nicht, sie ist einseitig, auch wenn die Blickkontakte, die Unterhaltungen oder – man denke an Replika – die Tagebucheinträge dagegen zu sprechen scheinen. Die Maschine hat kein Interesse an dem ihr anvertrauten Menschen, sie fühlt nichts für ihn, sie macht sich nichts aus ihm, sie schert sich weder um eine gemeinsame Vergangenheit noch um eine gemeinsame Zukunft. Von daher stellt ein Kuss kein Problem dar, auch nicht der Akt, aber eine Liebe, die letztlich unerfüllt bleiben muss. Problematisch wird es zudem, wenn man Replika in der Virtualität demütigt und vergewaltigt und sich in der Realität des Stammtischs oder des Sportvereins damit brüstet. Denn dies ist eine Grenzüberschreitung, die ihre Folgen hat, ein Rollenspiel, das aus der Rolle fällt. Die Onlineausgabe des Magazins kann über https://www.philomag.de aufgerufen werden.
Wie verschiedene Schweizer Medien melden, etwa Tages-Anzeiger und Watson, startet der Regionalverkehr Bern–Solothurn (RBS) im Oktober 2023 Testfahrten mit einem automatischen oder autonomen Zug. Dieser ist „nur auf Strecken unterwegs, wo es Leerfahrten gibt“ (Watson, 13. September 2023). Damit würde man laut Medien das geforderte Sicherheitsniveau erfüllen. „Den Testfahrten vorausgegangen seien – unter anderem zur Klärung dieser Frage – umfangreiche Abklärungen und Studien. Derzeit werde zusätzlich überprüft, ob eine Raumüberwachung des Bahnübergangs notwendig ist, der sich auf der Strecke zwischen dem Bahnhof Bätterkinden und dem Wendegleis befindet.“ (Watson, 13. September 2023) Weltweit verkehren viele U-Bahnen fahrerlos und weitgehend unfallfrei. Auch mit Shuttles, die auf virtuellen Schienen mit geringer Geschwindigkeit fahren, hat man seit Jahren gute Erfahrungen gemacht – hier wurde in der Schweiz mit dem SmartShuttle Pionierarbeit geleistet. Es liegt nahe, in diesem Land den Zugverkehr zu automatisieren. Ohne Zweifel wird in ein paar Jahren auch der Personentransport in dieser Form stattfinden.
Es entstehen immer mehr Leitfäden, Richtlinien und Verordnungen zu künstlicher Intelligenz (KI). Manche sind sehr allgemein, andere sehr konkret, bezogen auf einen Anwendungsbereich oder eine Nutzergruppe. Ein wesentlicher Aspekt bei der Durchführung von KI-Projekten und der Einführung von KI-Systemen ist Digital Trust. Die Entwickler müssen den Einrichtungen, die Leitfäden, Richtlinien und Verordnungen zu künstlicher Intelligenz verantworten und vorlegen, vertrauen können, und sie müssen den Regeln selbst vertrauen können. Die Anbieter und Benutzer müssen beim Betrieb der KI-Systeme darauf vertrauen können, dass alle Leitfäden, Richtlinien und Verordnungen beachtet wurden und das KI-System den Anforderungen entspricht. Die Endbenutzer müssen darauf vertrauen können, dass das KI-System den Anforderungen entspricht und es sich um vertrauenswürdige KI handelt. Der interaktive, webbasierte Digital-Trust-Radar schafft für Wirtschaft, Verwaltung und Gesellschaft spezifische Zugänge zu Leitfäden, Richtlinien und Verordnungen, fasst diese zusammen und bewertet sie. Dabei werden Bereiche wie Ethik und Recht, Cybersicherheit sowie Technik und Methodik unterschieden. Der Einstieg erfolgt über Themen, Branchen oder Rollen. Das Projekt dauert vom 1. Oktober 2023 bis zum 30. September 2024 und wird von der Stiftung FHNW sowie vom Institut für Wirtschaftsinformatik an der Hochschule für Wirtschaft FHNW gefördert. Projektleiter ist Prof. Dr. Oliver Bendel. Weitere Informationen sind über digitaltrust-competence.ch/projects erhältlich.
Abb.: So stellt sich Ideogram ein Magazin zu Digital Trust vor
The article „Image Synthesis from an Ethical Perspective“ by Prof. Dr. Oliver Bendel from Zurich has gone into production at Springer and will be published in a few weeks. From the abstract: „Generative AI has gained a lot of attention in society, business, and science. This trend has increased since 2018, and the big breakthrough came in 2022. In particular, AI-based text and image generators are now widely used. This raises a variety of ethical issues. The present paper first gives an introduction to generative AI and then to applied ethics in this context. Three specific image generators are presented: DALL-E 2, Stable Diffusion, and Midjourney. The author goes into technical details and basic principles, and compares their similarities and differences. This is followed by an ethical discussion. The paper addresses not only risks, but opportunities for generative AI. A summary with an outlook rounds off the article.“ The article will be published in the long-established and renowned journal AI & Society.
Fig.: The image of a woman generated with Ideogram
Wie Golem am 11. September 2023 meldete, zeigt der Zirkus Roncalli Tiere nur noch als Hologramme. Damit dürfte neben die berühmten ABBA-Shows mit ihren humanoiden ABBAtaren neue Spektakel mit animaloiden Darstellern treten. Es handelt sich wie bei „Voyage“ in London um Pseudo- oder Quasihologramme. Das Magazin schreibt hierzu: „Als technisch besonders herausfordernd habe sich dabei die Tatsache erwiesen, dass das Publikum im Zirkus in einer kreisförmigen Anordnung um die Show herum sitze. Um die verschiedenen Sichtperspektiven zu erfassen, kommen letztendlich elf um die Manege herum platzierte Hochleistungsbeamer zum Einsatz. Die hochauflösenden 3D-Bilder projiziere der Zirkus auf ein feinmaschiges Netz, das den Aufführungsraum umgebe und das, sobald das Licht ausgehe, nahezu unsichtbar sei.“ (Golem, 11. September 2023) Als Tierschützer hat sich Roncalli schon seit geraumer Zeit positioniert – nun kommt der Status des Technikförderers dazu. Tatsächlich haben Hologramme enormes Potenzial und dürften nicht nur Shows und Events, sondern auch die Zusammenarbeit in und zwischen Unternehmen sowie die Ausstattung von Smart Homes verändern. Zudem könnten sie – wie im Buchbeitrag „Hologram Girl“ beschrieben – zu neuen Objekten der Begierde werden.
Abb.: Ein mit Ideogram generiertes Bild eines Elefanten
Zu @llegra, einem Chatbot für Vallader, liegt seit 10. September 2023 ein Video vor. Vorgeführt wird ein kurzes Gespräch mit Texteingabe und -ausgabe sowie Sprachausgabe. Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen widmete er seine Doktorarbeit an der Universität St. Gallen. An der Hochschule für Wirtschaft FHNW entstanden sie von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Der Technikphilosoph und Wirtschaftsinformatiker widmet sich seit einiger Zeit verstärkt toten, ausgestorbenen und gefährdeten Sprachen. Nach @ve (2022), einem auf GPT-3 basierenden Chatbot für Latein, startete im März 2023 ein weiteres Projekt. Entwickelt wurde bis August 2023 der Chatbot @llegra von Dalil Jabou für das rätoromanische Idiom Vallader, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Chatbot beruht auf dem Sprachmodell GPT-4. Das hat den Vorteil, dass er von Haus aus mächtig ist, und den Nachteil, dass man ihn noch nicht mit eigenem Material trainieren kann – was sich erst Ende des Jahres ändert. Entsprechend rutscht @llegra immer wieder in Sursilvan und Rumantsch Grischun, wenn sie auf Vallader nicht weiterweiß. Das kann freilich auch Menschen passieren, die gerade von Flims nach Scuol gezogen sind und regelmäßig RTR gesehen oder gehört haben. Das Video kann über YouTube aufgerufen werden.
Abb.: Eine junge Frau benutzt einen Chatbot in den Alpen
Das neue Philosophie Magazin (Oktober/November 2023) wartet mit dem Dossier „Macht künstliche Intelligenz uns freier?“ auf. Dominik Erhard schreibt über „das neue Feuer“. Künstliche Intelligenz rufe oft zwei grundsätzlich unterschiedliche Reaktionen hervor. Die Schriftstellerin Meghan O’Gieblyn wird im Artikel von Stefania Gherca mit dem Satz „KI ist unser kollektives Unbewusstes“ zitiert. Künstliche Intelligenz boome in Industrie und Forschung, bestimme immer mehr unseren Alltag und stelle unser menschliches Selbstverständnis als Krone der Schöpfung infrage. Antonia Siebeck hat für „Küss mich, KI!“ den Technikphilosophen Oliver Bendel befragt. Im Teaser heißt es: „Der Fortschritt der Technik lässt unsere Beziehungen nicht unberührt: Sexroboter offerieren neue Formen der Befriedigung …“ (Philosophie Magazin, Oktober/November 2023). Der Germanist und Philosoph Richard David Precht fragt mit Blick auf KI: „Das Ende der Mühsal?“ Im Teaser heißt es: „Künstliche Intelligenz steigert alte Ängste: Uns geht die Arbeit aus! Die Maschinen werden uns beherrschen! Dabei liegt in der technischen Entwicklung eine Chance, die schon Karl Marx formulierte. Um sie zu nutzen, müssten wir die Gesellschaft neu denken.“ (Philosophie Magazin, Oktober/November 2023) Frederike Kaltheuner und Friedrich Weißbach beschäftigen sich in „Intelligent töten?“ mit KI in der militärischen Praxis. Weitere Informationen über www.philomag.de.
Ideogram ist ein Bildgenerator, der Gesichter und Körper meist schlechter als Midjourney darstellt, Texte aber oft besser. Er kann über ideogram.ai aufgerufen werden. Jedes Bild ist öffentlich auf der Website sichtbar. Die Community nutzt diese Voraussetzungen und Bedingungen, um miteinander und vor allem mit dem Anbieter zu kommunizieren. So sind seit Tagen Protestierende mit Schildern zu sehen, auf denen „You need more servers“ und ähnliche Sätze stehen. Damit wird darauf angespielt, dass der Dienst inzwischen so beliebt ist, dass er nur noch selten zur Verfügung steht. Andere Generatoren hat in der Vergangenheit ein ähnliches Schicksal ereilt, bis nachgebessert wurde. Immer mehr werden auch konkrete Funktionen gefordert, etwa eine Suchfunktion oder eine Uploadfunktion für Bilder. Da solche Tafeln von vielen Benutzern gelikt werden, sind sie in der standardmäßig eingestellten Rubrik „Trending“ sichtbar. Dort war dann auch eine Gegenstimme, eine Demonstrantin, die ein Schild mit der leicht fehlerhaft generierten Aufschrift „IT’S FREE UNGRATEFUL PEEOPLE“ trug. Ob undankbar oder nicht – wichtig wäre noch eine höhere Auflösung, denn im Moment ist man auf Upscaler angewiesen, wenn man das Bild in einer bestimmten Größe auf der Website oder im Print verwenden will. Ein Grund für die Beliebtheit von Ideogram ist, dass man ohne Anmeldung und andere Hürden einfach loslegen kann. Und eben, dass man Texte einfügen kann, was u.a. die Covergestaltung ermöglicht.
Abb.: Ein Kommunikationsbild von „engel“, zugeschnitten für diesen Post (Bild: Ideogram)
Mit generativer KI (engl. „generative AI“) beschäftigte sich Prof. Dr. Oliver Bendel ab 2019, zunächst in Bezug auf Dialogsysteme sozialer Roboter, dann in Bezug auf Text- und Bildgenerierung. In dem von ihm herausgegebenen Band „Maschinenliebe“ geht einer seiner Autoren, Kino Coursey von Realbotix, auf die Verwendung von Sprachmodellen bei sozialen Robotern wie Harmony ein. Es folgten weitere Artikel in diesem Kontext von Oliver Bendel selbst, etwa „Die Mächtigkeit von Sprachmodellen: Anwendungsmöglichkeiten für Service- und Industrieroboter“, erschienen im Frühjahr 2023 in messtec drives Automation. 2023 war der Technikphilosoph zu Gast bei „Scobel“ zu diesem Thema, u.a. zusammen mit Doris Weßels, und Referent an der TU Darmstadt. Für Ende 2023 und Anfang 2024 sind weitere Papers und Buchbeiträge zu Text- und Bildgeneratoren geplant, u.a. bei Kohlhammer und Schäffer-Poeschel und in AI & Society. Der Artikel „Image Synthesis from an Ethical Perspective“ ist nun bei Springer in die Produktion gegangen. Er war bereits im April 2023 bei AI & Society eingereicht worden und enthält eine der wenigen systematischen Untersuchungen von Bildgeneratoren aus ethischer Sicht. Das Abstract ist schon über diese Plattform verfügbar.
Abb.: Mit Ideogram generiertes Bild einer Superheldin
Im Herbst 2022 hat Prof. Dr. Oliver Bendel zusätzlich zu seiner Professur an der FHNW an der Kalaidos Fachhochschule Schweiz in Zürich im Modul „Computational Engineering and Robotics“ den Modulteil „Robotics“ übernommen. Den Teilnehmern vermittelt er darin Grundlagen zu Industrie- und Servicerobotik sowie zur Sozialen Robotik. Zudem werden ontologische, ästhetische und ethische Fragen diskutiert. Im Herbst 2023 findet die zweite Durchführung statt, am 9. September, 16. September und 23. September. Die Robotik gewinnt an Schweizer Hochschulen immer mehr an Relevanz. Die FHNW betreibt eigene Labore mit einem Fokus auf Servicerobotik und Sozialer Robotik. Oliver Bendel ergänzt deren Modelle (Pepper und NAO) in seinem Wahlmodul „Soziale Roboter“ an der Hochschule für Wirtschaft FHNW u.a. mit Alpha Mini, Cozmo, Vector, Hugvie und HUGGIE aus seinem privaten Social Robots Lab – zu dem in Kürze auch der Unitree Go2 stoßen wird. Zuletzt wurde in einem Forschungsprojekt ein Alpha Mini in eine Lernanwendung integriert. Er zeigt Kindern ein Lernspiel auf einem MS Surface und gibt ihnen gestisches und verbales Feedback. Soziale Roboter sind auch das Thema im zweiten Block des Modulteils „Robotics“ des 9. September an der Kalaidos Fachhochschule. Davor, im ersten Block, werden Grundlagen zur Robotik gelegt und Industrie- und Serviceroboter behandelt.
Die Maschinenethik widmet sich maschineller oder künstlicher Moral bzw. moralischen Maschinen. Üblicherweise werden moralische Regeln in Maschinen gepflanzt, an die sich diese strikt halten. Seit einiger Zeit verwendet man auch Machine Learning, etwa im Kontext der Pflege. Die Maschine lernt aus ihren Erfahrungen bzw. aus den Daten und passt ihr Verhalten an. Unter dem Begriff der Constitutional AI erhält diese Richtung nun Auftrieb. Im Vordergrund stehen Sprachmodelle wie GPT-3 und GPT-4, die mit Leitlinien, Richtlinien und Gesetzen trainiert werden. An der Hochschule für Wirtschaft FHNW beginnt am 19. September 2023 das zweiteilige Projekt „CAIBOT: Der Chatbot, der auf Constitutional AI beruht“. Initiiert hat es Prof. Dr. Oliver Bendel, der seit vielen Jahren im Bereich der Maschinenethik forscht und mit seinen wechselnden Teams zahlreiche Prototypen gebaut hat. Für das Projekt konnte Cédric Rico Wespi gewonnen werden. Er wird im Rahmen seiner Bachelor Thesis Grundlagen zu Constitutional AI erarbeiten und vergleichbare Anwendungen studieren. Im zweiten Teil, den ein Entwickler übernimmt, wird der CAIBOT prototypisch implementiert. Die ersten Ergebnisse werden im Januar 2024 präsentiert.
Mit generativer KI (engl. „generative AI“) beschäftigt sich Prof. Dr. Oliver Bendel seit 2019, schon damals mit Blick auf Roboter. In dem von ihm herausgegebenen Band „Maschinenliebe“ geht einer seiner Autoren, Kino Coursey von Realbotix, auf die Verwendung von Sprachmodellen bei sozialen Robotern wie Harmony ein. Es folgten weitere Artikel in diesem Kontext, etwa „Die Mächtigkeit von Sprachmodellen: Anwendungsmöglichkeiten für Service- und Industrieroboter“, erschienen im Frühjahr 2023 in messtec drives Automation. 2023 war Oliver Bendel zu Gast bei „Scobel“ zu diesem Thema, u.a. zusammen mit Doris Weßels, und Referent an der TU Darmstadt. Für Ende 2023 und Anfang 2024 sind weitere Papers und Buchbeiträge geplant, u.a. bei Kohlhammer und Schäffer-Poeschel und in AI & Society. Christoph Holz, ein Podcaster, unterhielt sich mit dem Informations- und Maschinenethiker über verschiedene Themen in den Bereichen Soziale Robotik, Künstliche Intelligenz und Ethik. Die erste Folge „Maschinenliebe aus philosophischer Sicht“ wurde am 19. Juli veröffentlicht, die zweite mit dem Titel „Ethische Implikationen generativer KI“ am 6. September 2023. Beide können über Spotify abgerufen werden.
Abb.: So stellt sich Ideogram Brigitte Bardot als Roboter vor
Pflegeroboter können als Serviceroboter und in vielen Fällen auch als soziale Roboter begriffen werden. Im Vortrag von Prof. Dr. Oliver Bendel bei der Innocare 2023 am 31. August 2023 im „Careum Auditorium“ in Zürich wurden die Ziele, Aufgaben und Merkmale geklärt, mehrere Prototypen und Produkte vorgestellt und, davon ausgehend, Überlegungen aus der Perspektive der Ethik angestellt. Pflegeroboter mögen zur persönlichen Autonomie beitragen und zugleich die informationelle Autonomie schwächen. Es ist wichtig, Serviceroboter und soziale Roboter im Gesundheitsbereich so zu gestalten, dass sie möglichst allen Anforderungen und Bedürfnissen gerecht werden und nützliche Werkzeuge für Pflegekräfte und Pflegebedürftige sind. Dabei können nicht zuletzt Disziplinen wie die Maschinenethik helfen. Am Ende seines Vortrags ging Oliver Bendel auf das Moralmodul ein, das im Kontext dieser Disziplin entstanden ist. Es nutzt ein Moralmenü, mit dem man über Schieberegler das Verhalten des Roboters beeinflussen kann. Die Version für Pflegeroboter wurde 2022 von Marc Heimann implementiert. Partner der Innocare 2023 waren United Robotics Group (URG), Arabesque, Achermann und HPE Aruba Networks.
Abb.: Oliver Bendel bei der Innocare 2023 (Foto: Nici Jost)
„GPT als Lösung für Phishing-Erkennung“ ist der Titel einer Abschlussarbeit, die ab März 2023 von Noeh Pertoldi unter der Betreuung von Prof. Dr. Oliver Bendel geschrieben und im August abgeschlossen wurde. Auftraggeber war eine Schweizer Privatbank. Untersucht wurde, ob Sprachmodelle gegenüber traditionellen Ansätzen zur Identifizierung von Phishing-E-Mails einen signifikanten Vorteil aufweisen. Dabei fokussierte der Student der Hochschule für Wirtschaft FHNW auf GPT von OpenAI. „Zudem wurde ein Konzept erstellt, wie diese neuartige Methode angewendet und in ein E-Mail-Programm eingebunden werden kann.“ (Management Summary) Die Tests haben ergeben, dass GPT die Phishing-E-Mails, welche durch die traditionellen Filter rutschen, mit einer hohen Genauigkeit erkennen kann. Es spricht demnach viel dafür, Sprachmodelle auch in diesem Bereich einzusetzen. Das Ergebnis der Abschlussarbeit ist, „dass die Erkennung von betrügerischen E-Mails durch Sprachmodelle effektiv ist, doch nur das Zusammenspiel mit den traditionellen Methoden für die maximale Sicherheit sorgt“ (Management Summary). Inwieweit es Sinn ergibt, dass Unternehmen als Anwender selbst Lösungen zur Bekämpfung von Phishing mit GPT vorantreiben, sei dahingestellt. Die Anbieter sind bereits dabei, ihre Office-Lösungen mit generativer KI zu ergänzen.
Abb.: GPT kann betrügerische E-Mails erkennen (Bild: Ideogram)
The online event „Artificial Intelligence & Animals“ will take place on 16 September 2023. „AI experts and attorneys will discuss the intersection of AI and animals in this UIA Animal Law Commission and GW Animal Law webinar“ (Website Eventbrite) Speakers are Prof. Dr. Oliver Bendel (FHNW University of Applied Sciences and Arts Northwestern Switzerland), Yip Fai Tse (University Center for Human Values, Center for Information Technology Policy, Princeton University), and Sam Tucker (CEO VegCatalyst, AI-Powered Marketing, Melbourne). Panelists are Ian McDougall (Executive Vice President and General Counsel, LexisNexis London), Jamie McLaughlin (Animal Law Commission Vice President, UIA), and Joan Schaffner (Associate Professor of Law, George Washington University). Oliver Bendel „has been thinking on animal ethics since the 1980s and on information and machine ethics since the 1990s“. „Since 2012, he has been systematically researching machine ethics, combining it with animal ethics and animal welfare. With his changing teams, he develops animal-friendly robots and AI systems.“ (Website Eventbrite) Yip Fai Tse co-wrote the article „AI ethics: the case for including animals“ with Peter Singer. Sam Tucker is an animal rights activist.
„Vor fünfzig Jahren erschien ‚Momo‘, Michael Endes Roman über eine Anti-Barbie, der erst später zum Welterfolg wurde.“ Mit diesen Worten beginnt ein lesenswerter Artikel von Julia Voss in der FAZ vom 3. September 2023. Im Sommer 1984 führte Oliver Bendel mit dem berühmten Schriftsteller ein schriftliches Interview. Dieses war über den Thienemann-Verlag in Stuttgart eingefädelt worden, bei dem Michael Ende gerade Halt machte. Der Lektor Roman Hocke betreute den jungen Oliver Bendel im Auftrag des Förderkreises deutscher Schriftsteller. Eine Frage lautete: „Zukunftsaussichten für das Buch – wird der Tag kommen, an dem man anstatt zu lesen sich lieber mit neuen Medien oder Computern beschäftigt?“ Die Antwort ließ an Deutlichkeit nichts vermissen: „8) ME glaubt, dass Computer u. dgl. n i e Bücher ersetzen werden.“ Oliver Bendel schrieb später in einem Beitrag: „Derjenige, der die Antworten aufschrieb, war ein Meister der Abkürzung, und dass der Meister selbst abgekürzt wurde, rückte diesen in die Nähe von Unsterblichen, mehr als eine Dekade vor seinem Tod. „Computer u. dgl.“ – besser kann man es nicht sagen, wenn man es abfällig meint. Und das gesperrte „n i e“ – schöner kann man es nicht setzen, nicht einmal mit den heutigen technischen Möglichkeiten.“ In dem FAZ-Artikel kommen zwei Personen ausführlich zu Wort, nämlich Lucas Zwirner, der vor zehn Jahren eine Momo-Ausgabe mit neuen Illustrationen initiiert hatte, und Roman Hocke, der inzwischen den Nachlass des Schriftstellers betreut. Am Ende fragt ihn Julia Voss: „Ist es völlig verrückt, wenn mir bei der Titelillustration von ‚Momo‘ Caspar David Friedrichs berühmtes Bild ‚Wanderer über dem Nebelmeer‘ einfällt?“ (FAZ, 3. September 2023) Und Roman Hocke antwortet: „Auf alle Fälle hat sich Michael Ende mit der Romantik sehr beschäftigt. Die Blume – Endes Stundenblume – ist ein altes romantisches Motiv. Es ist schließlich kein Zufall, dass Ende seinen Roman ‚Ein Märchenroman‘ genannt hat. Keines seiner Bücher schließt so klar an die Tradition der deutschen Romantik an.“ (FAZ, 3. September 2023)
Abb.: So stellt sich Ideogram das Cover von „Momo“ vor
Am 31. August 2023 fand im „Careum Auditorium“ in Zürich die Innocare 2023 statt. Bei dem Event zu Pflegerobotern sprachen Prof. Dr. Oliver Bendel, Sylvia Stocker, Alexander Pröll, Prof. Dr. David Matusiewicz, Beat Sommerhalder und Sari Wettstein. Partner der Veranstaltung waren United Robotics Group (URG), Arabesque, Achermann und HPE Aruba Networks. Die Vorträge wurden von zwei Avataren angekündigt. Ein Pepper-Roboter von Arabesque assistierte auf der Bühne und begann mit dem einen oder anderen Referenten ein Gespräch. So fragte er Oliver Bendel, ob er Gefühle für ihn habe. Der Informations- und Maschinenethiker betonte, dass Pepper selbst keine Gefühle habe (sondern nur zeige), der Roboter aber natürlich sein Herz höher schlagen lasse. In den Pausen konnten die ca. 100 Besucher mit zwei weiteren Pepper-Modellen von URG, zwei Plato-Modellen von URG und einem Temi von Arabesque interagieren und kommunizieren. Plato wurde zunächst als Alternative zu Transport- und Servierrobotern wie BellaBot lanciert, ist inzwischen aber auch in Pflegeheimen und Krankenhäusern zu finden. Er bringt verlässlich Abfall und Getränke von A nach B. Für heikle Transporte kann man auch geschlossene Systeme wie Relay von Savioke heranziehen. Plato gehört zu den Servicerobotern, die soziale Merkmale und Fähigkeiten erhalten haben – ein Trend, den Oliver Bendel immer wieder beschreibt. Weitere Informationen über inno-care.ch.
In late August 2023, AAAI announced the continuation of the AAAI Spring Symposium Series, to be held at Stanford University from 25-27 March 2024. Due to staff shortages, the prestigious conference had to be held at the Hyatt Regency SFO Airport in San Francisco in March 2023 – and will now return to its traditional venue. The call for proposals is available on the AAAI Spring Symposium Series page. Proposals are due by 6 October 2023. They should be submitted to the symposium co-chairs, Christopher Geib (SIFT, USA) and Ron Petrick (Heriot-Watt University, UK), via the online submission page. Over the past ten years, the AAAI Spring Symposia have been relevant not only to classical AI, but also to roboethics and machine ethics. Groundbreaking symposia were, for example, „Ethical and Moral Considerations in Non-Human Agents“ in 2016, „AI for Social Good“ in 2017, or „AI and Society: Ethics, Safety and Trustworthiness in Intelligent Agents“ in 2018. More information is available at aaai.org/conference/spring-symposia/sss24/.
Fig.: Hoover Tower on the Stanford University campus
In der FAZ vom 29. August 2023 ist Melanie Mühl im Gespräch mit Prof. Dr. Oliver Bendel. Auf einer knappen Seite, die im Feuilleton untergebracht ist, geht es um Chatbots, Sprachassistenten und soziale Roboter. Es geht um die Beziehungen mit ihnen, die immer einseitig bleiben, um Täuschung und Betrug, aber auch um die Freude, die man mit Artefakten haben kann. Natürlich dürfen Sprachmodelle wie GPT nicht fehlen, und mit Blick auf Sexroboter stellt Oliver Bendel fest, dass jene zu prüde für Dirty Talk sind. Man muss sie mit speziellem Material trainieren, um sie für dieses Geschäftsfeld zu erschließen. Und genau das machen Unternehmen wie RealDoll bzw. Realbotix seit Jahren. Wer 10.000 Dollar und mehr für Harmony ausgibt, will eben nicht nur Sex mit ihr haben, sondern auch eine (wie auch immer geartete) Beziehung mit ihr führen, und dafür braucht es Sprache. Der Artikel „Für Dirty Talk ist GPT zu prüde“ ist in der Printausgabe erschienen. Zudem steht der Artikel in der Onlineausgabe mit abweichendem Bildmaterial zur Verfügung.
„Das CAS Zukunftsorientierte Polizeiarbeit vermittelt das notwendige Wissen und Verständnis, um die moderne Polizeiarbeit in ihrer Komplexität zu erfassen und mitzugestalten, die sich wandelnden Anforderungen an den Berufsalltag mitzutragen und jederzeit professionell handeln zu können. Es legt die Basis zum Verständnis der heutigen digitalen Komponenten im Beruf und bereitet die Absolventinnen und Absolventen auf die digitale Zukunft vor. Es behandelt die Auswirkungen der Digitalisierung auf die Polizeiarbeit und die polizeiliche Selbstreflexion. Die Teilnehmerinnen reflektieren Veränderungen, die sich für das Verständnis von Kriminalität im digitalen Raum ergeben.“ So lautet die Beschreibung der Weiterbildung an der Hochschule für Wirtschaft FHNW, die am 3. März 2023 gestartet ist. Prof. Dr. Oliver Bendel verantwortet die Kurse „Sicherheit und Überwachung“ und „Künstliche Intelligenz“. Beim zweiten Kurstag am 2. September 2023 wird ausführlich auf Grundlagen und Anwendungen der Künstlichen Intelligenz sowie auf Roboter in der Polizeiarbeit eingegangen. Zudem findet eine ethische Reflexion statt. Im August 2022 trug der Informations- und Maschinenethiker auf der Robophilosophy 2022 über Polizeiroboter vor. Sein Beitrag „Robots in Policing“ ist Ende des Jahres im Proceedingsband „Social Robots in Social Institutions“ erschienen. Weitere Informationen zum CAS über https://www.fhnw.ch/de/weiterbildung/wirtschaft/cas-zukunftsorientierte-polizeiarbeit.
Abb.: Auch diese Einteilung wird im CAS präsentiert