Aus Oasis wird AISIS

Oasis war eine erfolgreiche britische Band, die 1991 gegründet und 2009 aufgelöst wurde. Mit Hilfe von künstlicher Intelligenz wurde sie nun wieder zum Leben erweckt. Das Projekt stammt von der Band Breezer. Sie nahm neue Lieder auf, die sie mit der KI-Stimme des Oasis-Frontmanns Liam Gallagher ergänzte. Dies berichtete Golem am 28. April 2023. Dabei wurde nach Angaben des Magazins das KI-System lediglich dafür eingesetzt, den Klang von Liam Gallaghers Stimme zu imitieren. Der Gesang samt den Modulationen stammt von einem anderen Sänger. „Das Ergebnis der KI-Bearbeitung, aber auch die Leistung der Musiker ist beeindruckend: Die Songs gehen ohne weiteres als Oasis-Songs der späten 1990er Jahre durch.“ (Golem, 28. April 2023) Das Album „AISIS – The Lost Tapes/Vol. 1“ kann u.a. über YouTube aufgerufen werden.

Abb.: Eine Band bei ihrem Auftritt

Erfolgreiche Durchführung der Shift 2023

Am 20. April 2023 fand die Shift statt, eine Tagung zu Fragen von Informationsethik, Roboterethik und KI-Ethik. Initiatorin und Organisatorin ist Cornelia Diethelm. Moderatorin war wieder Patrizia Laeri. Die Keynote hielt Prof. Dr. Oliver Bendel aus Zürich. Er ging zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschrieb er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellte er ethische Überlegungen an. Am Ende behandelte er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigte, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik waren ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Ein Panel zur Regulierung von KI durch die EU fand am Nachmittag statt. Dabei stach die Schweizer Informatikerin und Unternehmerin Bea Knecht hervor, die nicht nur enorme fachliche Expertise hatte, sondern auch herausragende Reflexionsfähigkeiten – und eine genaue und anschauliche Sprache. Weitere Informationen zur Shift über digitalresponsibility.ch/digitaleethikkonferenz/

Abb.: Oliver Bendel im Gespräch mit Patrizia Laeri (Foto: Shift/Louis Rafael)

KI-generierter Song à la Drake und The Weeknd

Auf TikTok findet sich ein neuer Musikclip der beiden kanadischen Sänger Drake und The Weeknd. Golem meldete am 17. April 2023: „Der Titel wurde vom Kanal ghostwriter977 veröffentlicht und ist eigenen Angaben zufolge komplett mithilfe einer künstlichen Intelligenz erstellt worden.“ (Golem, 17. April 2023) Das einminütige Stück hat es inzwischen auf YouTube geschafft, in der ursprünglichen – nach zwei Tagen bereits mehr als tausendmal kommentiert – und in einer verbesserten Version. Beide hat man allerdings wohl aus Rechtsgründen entfernt. Golem schreibt weiter: „Für die Musikindustrie dürften derartige Musikstücke, die zumindest beim ersten und zweiten Hinhören sehr echt klingen, ein Problem sein. Drake hatte sich in der Vergangenheit bereits bei anderen KI-Songs mit seiner Stimme kritisch bis verärgert gezeigt. Der Produzent von Jay-Z, Young Guru, spricht von einem Geist, der aus der Flasche gelassen wurde. Zum einen könne man den technologischen Fortschritt nicht aufhalten, zum anderen müssten die Rechte der Kunstschaffenden geschützt werden.“ (Golem, 17. April 2023) Die individuelle Stimme, verbunden mit gesprochener Sprache, kann bereits seit einigen Jahren mit Hilfe künstlicher Intelligenz imitiert werden. Darauf geht etwa der Beitrag „The Synthetization of Human Voices“ von Prof. Dr. Oliver Bendel aus dem Jahre 2017 ein. Inzwischen stellt auch gesungene Sprache lebender und toter Künstler kein Problem mehr dar.

Abb.: Eine CD von The Weeknd

Von Halluzinationen befreit?

„Das Heidelberger KI-Start-up Aleph Alpha hat nach eigenen Angaben erstmals einen Meilenstein auf dem Weg zu inhaltlich korrekter, erklärbarer und vertrauenswürdiger künstlicher Intelligenz erreicht. Eine nun verfügbare Erweiterung des hauseigenen Sprachmodells Luminous sei in der Lage, Zusammenhänge in Informationen und faktische Korrektheit auf Basis von gesicherten Fakten nachzuvollziehen …“ (Spektrum, 13. April 2023) Dies schrieb Spektrum der Wissenschaft am 13. April 2023 unter Berufung auf das Unternehmen. „Gleichzeitig sei das System in der Lage, darzustellen, welche Textstellen in einer Quelle die generierte Antwort verursacht haben oder im Widerspruch dazu stehen.“ (Spektrum, 13. April 2023) ChatGPT ist dafür bekannt, dass es nicht nur in seinen Aussagen halluziniert, etwa wenn es Falschinformationen zu Personen liefert, sondern auch in seinen Verweisen – so werden URLs generiert, die auf den ersten Blick plausibel aussehen und deren Domain oft korrekt ist, die dann aber – da der Pfad erfunden ist – ins Leere verweisen. Grundsätzlich ist die Behauptung von Faktizität und der Erfüllung von Anforderungen der Explainable AI und der Trustworthy AI in diesem Zusammenhang mit Vorsicht zu genießen – aber es wäre erfreulich, wenn Luminous weniger eine Münchhausen-Maschine wäre als der eine oder andere Konkurrent und von Halluzinationen befreit werden könnte.

Abb.: Von Halluzinationen befreit?

Roboter und KI-Systeme bei der Shift

„Die Shift ist eine exklusive Plattform zur Digitalen Ethik. Was begeistert uns bei neuartigen Angeboten, die dank Big Data, Künstlicher Intelligenz & Co. möglich sind? Was akzeptieren Kundinnen und Kunden sowie die Gesellschaft, was nicht? Und wo sind Grenzen nötig? Diese Fragen stehen im Zentrum der Shift. Es geht um aktuelle Kundenerwartungen sowie Akzeptanz und Vertrauen im digitalen Raum.“ (Website Shift) So steht es auf der Website der Tagung, die 2023 bereits in die fünfte Runde geht. Die Keynote hält Prof. Dr. Oliver Bendel aus Zürich. Er geht zunächst auf soziale Roboter ein und auf die Disziplinen Künstliche Intelligenz, Maschinenethik und Maschinelles Bewusstsein. Dann beschreibt er mehrere soziale Roboter, die auch als Serviceroboter im engeren Sinne eingesetzt werden. Auf dieser empirischen Basis stellt er ethische Überlegungen an. Am Ende behandelt er Sprachmodelle wie GPT-3 bzw. GPT-4 und PaLM-E. Er zeigt, wie soziale Roboter und Serviceroboter von diesen profitieren können, in ihrer Sprachfähigkeit und bei ihrer Wahrnehmung der Welt. Auch Ansätze der Maschinenethik sind ein Thema, von der Einpflanzung moralischer Regeln bis hin zur Nutzung von Moralmenüs. Weitere Informationen zur Shift über digitalresponsibility.ch/digitaleethikkonferenz/

Abb.: ARI von PAL Robotics

Wie Sprachmodelle für die Steuerung von Haushaltsrobotern genutzt werden können

Forscher von Google und der TU Berlin haben am 6. März 2023 ein verkörpertes, multimodales Sprachmodell mit dem Namen PaLM-E vorgestellt, das virtuelle und physische Welt verbindet. So kann man per Spracheingabe einen Haushaltsroboter steuern und ihn dazu bringen, bestimmte Gegenstände zu holen oder andere Tätigkeiten zu verrichten. Der Prompt kann dabei vom Benutzer spontan aus seiner eigenen Beobachtung der Umwelt abgeleitet werden. Die Idee der PaLM-E-Architektur besteht laut Projektwebsite darin, kontinuierliche, verkörperte Beobachtungen wie Bilder, Zustandseinschätzungen oder andere Sensormodalitäten in den Spracheinbettungsraum eines vortrainierten Sprachmodells zu integrieren. Im Beispielvideo lautet die Instruktion in deutscher Übersetzung: „Bring mir die Reischips aus der Schublade“. Golem schreibt in einem Artikel: „Dazu analysiert Palm-E die Daten der Roboterkamera, ohne dass eine vorverarbeitete Szenendarstellung erforderlich ist. Damit entfällt die Notwendigkeit, dass ein Mensch die Daten vorverarbeitet oder kommentiert, was eine autonomere Robotersteuerung ermöglicht.“ (Golem, 10. März 2023) Im Video fährt der Roboter – ein Roboterarm auf einer mobilen Plattform, ganz ähnlich wie Lio – zur Schublade und entnimmt ihr die Packung. In dem Paper „ChatGPT for Robotics: Design Principles and Model Abilities“ von Microsoft-Forschern wird eine ähnliche Strategie verfolgt, wobei ChatGPT verwendet wird, das wiederum auf GPT-3 basiert. Allerdings handelt es sich um einen indirekten Ansatz, bei dem Code generiert wird. Das Paper zu PaLM-E kann hier heruntergeladen werden.

Abb.: Ein Roboterarm (Foto: F&P Robotics)

Das LLaMA kommt auf die Welt

Wie Golem am 25. Februar 2023 meldete, hat Meta das Sprachmodell LLaMA angekündigt. Dieses soll in Konkurrenz zu GPT-3 von OpenAI (ChatGPT) und LaMDA von Google (Bard) treten. „LLaMA ist nach Angaben von Meta für die Erstellung von Texten, die Führung von Chat-Gesprächen, die Zusammenfassung von schriftlichen Materialien und für komplexere Aufgaben wie das Lösen von mathematischen Problemen oder die Vorhersage von Proteinstrukturen geeignet. Das Modell wurde von Metas Fundamental AI Research Team entwickelt.“ (Golem, 25. Februar 2023) Das neue Sprachmodell werde derzeit nicht bei Plattformen wie Facebook oder Instagram verwendet. „Stattdessen solle es ausschließlich auf KI spezialisierten Forschern zur Verfügung gestellt werden, um diese bei ihrer Arbeit zu unterstützen.“ (Golem, 25. Februar 2023) Der Artikel „Facebook steigt in den KI-Markt ein“ kann hier abgerufen werden.

Abb.: Lamas in Peru

KI-generierte Haikus

Seit 2010 hat Oliver Bendel mehrere Bände mit Haikus und anderen Gedichten veröffentlicht, wobei meistens das Handy eine wichtige Rolle gespielt hat: Es handelte sich entweder um Handyliteratur wie bei „stöckelnde dinger“ (2010), oder im Buch waren 2D- oder 3D-Codes abgedruckt, die die Gedichte enthielten, wie bei „handyhaiku“ (2010) und „Die Astronautin“ (2020). Im Februar 2023 entstand der Band „Dass es nur Kunst war, verdeckte die Kunst“. Die Haikus sind der Output von ChatGPT, bei wechselndem Input. Sie greifen die Themen der vorangehenden Bände auf, erzählen von Avataren, Hologrammen, Robotern und Astronautinnen. „ChatGPT“ steht für „Generative Pre-trained Transformer“. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, der seit Ende 2022 genutzt werden kann. Die Trainingsdaten stammen aus Foren, Artikeln, Büchern und gesprochener Sprache. Benutzt wird eine Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF) – der Mensch ist also im Spiel. Mit diesem Tool wurden, wie gesagt, die Haikus des Bands produziert. Manchmal wurden zu einem Input mehrere Resultate generiert und dann eines davon ausgewählt. Trotz der präzisen Anweisungen scheint ChatGPT nicht in der Lage zu sein, die Silbenanzahl durchgehend korrekt umzusetzen, übrigens auch nicht dann, wenn man ein Haiku als Vorbild eingegeben hat. Die Inputs und die Outputs, also die Haikus, wurden dann noch in JAB Codes umgewandelt. Der Band wurde am 20. Februar 2023 veröffentlicht und kann hier kostenlos heruntergeladen werden.

Abb.: Das Cover des Bands

Technikphilosoph über DeepL Write, ChatGPT, Gesichtserkennung und andere KI-Anwendungen

BR24 hat sich mit Oliver Bendel – Technikphilosoph, Informationsethiker und Maschinenethiker – über DeepL Write, ChatGPT und andere KI-Anwendungen unterhalten. Bei DeepL Write sieht er das Problem, dass das Unternehmen nicht die offiziellen Rechtschreibregeln befolgt, sondern eigene – oder aus dem Datenmaterial abgeleitete. Auch Microsoft Word hat seit vielen Jahren eine ungeeignete Rechtschreibprüfung, was vermutlich mit der zunehmend genutzten KI zusammenhängt. ChatGPT sieht Oliver Bendel als mächtiges Werkzeug an, das man für allerlei Belange nutzen kann. Hochschulen und Medien müssen freilich darauf reagieren. Studenten und Studentinnen müssen grundsätzlich fremdes geistiges Eigentum markieren und referenzieren – vielleicht gibt es bei ChatGPT kein geistiges Eigentum in diesem Sinne mehr, aber man kann auf jeden Fall sagen, dass es sich nicht um das geistige Eigentum der Anwender handelt. Auch Gesichtserkennung hält Oliver Bendel für eine mächtige Technologie. Man solle die Forschung dazu nicht begrenzen, wohl aber die Anwendung, und Gesichtserkennung zum Zweck der Massenüberwachung verbieten. Er berichtet von einem System, das von ihm und Ali Yürekkirmaz konzipiert wurde und das Gesichtserkennung für Bären in den Alpen vorsieht. Ihr Paper „A Face Recognition System for Bears: Protection for Animals and Humans in the Alps“ wird demnächst in den Proceedings der „Ninth International Conference on Animal-Computer Interaction (ACI’22)“ erscheinen. Bei BR24 stehen ein Podcast mit dem Interview von Cosima Weiske mit Oliver Bendel und ein Artikel mit Aussagen von ihm zur Verfügung.

Abb.: Oliver Bendel bei einer Abschlusspräsentation (Foto: Sara Zarubica)

 

DeepL Write fällt beim Diktat durch

DeepL Write ist ein KI-basiertes Lektorprogramm, das seit 17. Januar 2023 als Betaversion über www.deepl.com/write verfügbar ist, für die deutsche und die englische Sprache. Es wurde nun mit Hilfe einer Rechtschreibtafel geprüft, die Oliver Bendel im Jahre 2015 erstellt und seitdem immer wieder aktualisiert hat. 1. Der Satz „Alkohol in Maßen ist gesund.“ wurde nicht beanstandet. Bei „Herzlich willkommen“ wurde „Willkommen“ vorgeschlagen. Als weitere Alternative zeigte das Tool „Herzlich Willkommen“ an, also eine falsche Schreibweise. 2. „Frühlingserwachen“ wurde nicht beanstandet. Als erste Alternative zu „Social-Media-Konferenz“ wurde „Social Media Konferenz“ vorgeschlagen, also eine falsche Schreibweise. Hier muss zwingend durchgekoppelt werden. Für „Donaudampfschifffahrtsgesellschaftskapitänsmütze“ offerierte DeepL Write solide Optionen wie „Kapitänsmütze der Donaudampfschifffahrtsgesellschaft“. 3. Zu „Wir betreten unser neues Haus, in dem man komfortabel wohnen kann.“ wurden merkwürdige Alternativen wie „Betreten unseres neuen Hauses, in dem es sich gut leben lässt.“ aufgeführt. „Wirksam führen“ wurde als korrekt erkannt, ebenso wie „Lenny und Laura gehen schwimmen.“ (wobei hier die Alternative „Lenny und Laura gehen baden.“ aufgelistet wurde). 4. Der korrekte Plural in „Die erste und die zweite Sturmwarnung wurden missachtet.“ wurde auch Bestandteil der verschiedenen Varianten. 5. „Das gibt’s doch nicht!“ wurde als korrekt erkannt, ebenso wie „Willis Würstchenbude“. Allerdings zeigte das Tool hier als erste Alternative „Willi’s Würstchenbude“ an. Diese Schreibweise lässt der Duden inzwischen zu, was freilich nicht für das Wörterbuch spricht. 6. „Der Chef fragt sie, ob sie zufrieden ist.“ wurde korrekt als Aussagesatz erkannt und nicht zum Fragesatz umformuliert. 7. Bei „Komm, wir essen, Oma!“ lautete eine Alternative „Komm, lass uns essen, Oma!“. Die Oma blieb in allen Fällen unversehrt. 8. „Die Ärzt*innen“ wurde als korrekt angesehen, obwohl diese Schreibweise in der amtlich fixierten Sprache nicht existiert. Erst als zweite Alternative wurde „Ärztinnen und Ärzte“ unterbreitet. Hier wäre „Ärzte und Ärztinnen“ vorzuziehen, wenn man zuerst die am wenigsten komplexe Form aufführen will. Die weibliche Form nennt man bei Begrüßungen zuerst. Das korrekte generische Maskulinum fehlt bei den Vorschlägen ganz. Das Ergebnis des Tests ist, dass DeepL Write in wesentlichen Aspekten versagt, in Bezug auf Groß- und Kleinschreibung, Zusammen- und Getrenntschreibung und die amtlich fixierten Regeln. Es werden zum Teil eigene Regeln angewandt, die zudem nicht transparent dargestellt werden. Damit ist der Nutzen des Tools grundsätzlich in Frage gestellt. „Schreiben Sie klar, präzise und fehlerfrei“, so heißt es auf der Website – das kann man offenbar besser, indem man sich auf sein Sprachgefühl und den Rechtschreibrat verlässt.

Abb.: Die Rechtschreibtipps von Oliver Bendel

Was ist ChatGPT?

„‚ChatGPT‘ steht für ‚Chat‘ (dt. ‚Schwatz‘) und ‚Generative Pre-trained Transformer‘. Es handelt sich um einen Chatbot (bzw. ein System zum Produzieren von Content) von OpenAI, dem das Sprachmodell GPT-3.5 desselben Unternehmens zugrunde liegt. Die Trainingsdaten stammen u.a. aus Foren, Artikeln und Büchern sowie gesprochener Sprache. Benutzt wird eine spezielle Form von Machine Learning, nämlich Reinforcement Learning from Human Feedback (RLHF). Dabei sind Menschen involviert, die bestimmte Antworten für gut und richtig befinden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert.» Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel im Gabler Wirtschaftslexikon, der am 24. Januar 2023 erschienen ist. Es wird auf Entwicklung und Hintergrund eingegangen. Zudem wird die Perspektive der Ethik eingenommen. So wird der Chatbot zum ersten Mal als moralische Maschine bezeichnet und damit in die Nähe von GOODBOT und BESTBOT gerückt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/chatgpt-124904 aufgerufen werden. Er wird in den nächsten Monaten immer wieder aktualisiert und erweitert.

Abb.: OpenAI hat seinen Sitz in San Francisco

Warum geben LaMDA und ChatGPT so unterschiedliche Antworten?

Raffael Schuppisser, stellvertretender Chefredakteur der Aargauer Zeitung, interviewte Prof. Dr. Oliver Bendel zu Chatbots, die auf Machine Learning basieren. Ihn interessierte u.a., warum LaMDA und ChatGPT so unterschiedliche Antworten geben, etwa auf die Frage, ob sie eine Person sind oder ein Bewusstsein haben. Der Informations- und Maschinenethiker erläuterte: „Chatbots dieser Art beruhen auf Sprachmodellen. Dazu gehören GPT-3 (im Falle von ChatGPT) und Language Model for Dialogue Applications (im Falle von LaMDA). Die Sprachmodelle unterscheiden sich voneinander. Zudem werden sie unterschiedlich trainiert. Daher reagieren sie unterschiedlich auf Anfragen. Sie können mit dem Chatbot beliebige Gespräche führen. Er wird immer anders antworten. Er ruft eben nicht einfach Aussagen aus einer Wissensbasis ab, sondern kreiert sie jeweils neu. Es ist möglich, dass man ihn so trainiert hat, dass er abstreitet, eine Person zu sein oder Bewusstsein zu haben. Die Menschen, die ihn trainiert haben, hätten dann solche Antworten für gut und richtig befunden. Mit ihrem Feedback wird ein Belohnungssystem trainiert, das wiederum den Chatbot trainiert. Man kann dieses Vorgehen auch mit einer Wissensbasis kombinieren, etwa wenn es darauf ankommt, dass der Chatbot auf eine Frage hin eine bestimmte Antwort gibt oder dieselbe Aussage wiederholt trifft. So ist es einem Erfinder eines Chatbots vielleicht wichtig, dass die Angaben zu seiner Person immer korrekt und konsistent sind und auch nicht zu viel verraten wird. Wir haben unseren GOODBOT von 2013 immer wieder betonen lassen, dass er nur eine Maschine ist. Das lief allein über die feste Programmierung. Wir haben damals kein maschinelles Lernen benutzt.“ Oliver Bendel führte in weiteren Antworten aus, dass Maschinen kein echtes Bewusstsein haben können und ein solches immer nur simulieren. Am 14. und 15. Dezember 2022 griffen 22 Schweizer Zeitungen die Ausführungen auf, neben der Aargauer Zeitung etwa das St. Galler Tagblatt und die Luzerner Zeitung.

Abb.: Ein Dialog mit ChatGPT

Über Staubsauger und One-Night-Stands

„Eine Künstliche Intelligenz, die nicht nur Arbeiten für uns erledigt, sondern mit der man sich unterhalten kann, mit der man in tiefe Gespräche eintauchen könnte, die nicht nur unsere Handlungen, sondern möglicherweise auch unsere sozialen Kontakte ersetzt, durch Isolation geplagte Menschen vom Gefühl der Einsamkeit befreit, die unseren Nöten und Sorgen zuhört, Ratschläge gibt, verständnisvoll tröstet, die sexuelle Wünsche erfüllt, lässt sich für viele nicht nur auf pragmatischer Ebene denken, sondern wirft ethische Fragen auf, nicht zuletzt die alte Frage nach der Bedeutung – und Ersetzbarkeit – des Individuums, der Humanität.“ (ByteCookie, 26. Oktober 2022) So ist es zu lesen in einem Artikel mit dem Titel „Über Staubsauger und One-Night-Stands“, der am 26. Oktober 2022 auf ByteCookie erschienen ist, einer Plattform für Freelancer. Zu Wort kommen u.a. Olga Levina, Professorin an der TH Brandenburg, Hans-Georg Dederer, Professor an der Universität Passau, und Oliver Bendel, Professor an der Hochschule für Wirtschaft FHNW. Die Plattform kann über www.bytecookie.net aufgerufen werden (es ist ein Login erforderlich).

Abb.: Staubsaugen auf dem roten Teppich in Cannes

Sind Maschinen das Ende der Menschheit?

„Sind Maschinen das Ende der Menschheit?“ So lautet der Titel eines Ende Oktober 2022 erschienenen Dossiers in der Zeitschrift „Der Pragmaticus“. Diese wurde u.a. vom Red-Bull-Chef Dietrich Mateschitz gegründet. Er ist vor kurzem gestorben, und es handelt sich um das erste Dossier, dessen Veröffentlichung er nicht mehr erlebt hat. Darin heißt es: „KI hat unser Leben bereits jetzt in vielerlei Hinsicht unter Kontrolle. Sie lesen diesen Text vielleicht auf einem Smartphone in der U-Bahn, und dank Google Maps wissen Sie schon, ob Sie den Anschlussbus nach Hause erreichen werden. Vielleicht sitzen Sie auch am Schreibtisch, ein desorientierter Staubsaugerroboter fährt schon wieder gegen den Sessel und reißt Sie aus dem Lesefluss, genervt sagen Sie: ‚Alexa, stopp!‘ KI hat es sich längst, oft unbemerkt, in unserem Alltag bequem gemacht, in Form von Smartphones, virtuellen Assistenten oder Saugrobotern.“ Zu Wort kommen u.a. Sepp Hochreiter, Professor für Machine Learning in Linz, und Georg Dorffner, Professor für KI an der Medizinischen Universität in Wien, zudem Oliver Bendel, Professor für Wirtschaftsinformatik und Ethik an der Hochschule für Wirtschaft FHNW. Maschinen sind, so seine Meinung, nicht das Ende der Menschheit, ganz im Gegenteil. Das Dossier kann über www.derpragmaticus.com/d/roboter/ aufgerufen werden.

Abb.: Ein eher harmloser Geselle

Lexikonbeitrag zu maschineller Übersetzung

Maschinelle Übersetzung (engl. ‚machine translation‘) ist die automatische Übersetzung von einer natürlichen Sprache in eine andere. Sie wird erforscht und entwickelt innerhalb der Künstlichen Intelligenz.“ Mit diesen Worten beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon zur maschinellen Übersetzung von Oliver Bendel, veröffentlicht im März 2022. Eingegangen wird auch auf das Earth Species Project, in dem man die maschinelle Übersetzung zwischen tierischer und menschlicher Sprache anstrebt. „Interessant für erste Versuche sind Wale und Affen und andere Tiere, die Töne zur Verständigung benutzen. Bedenken muss man, dass mit tierischen und menschlichen Sprachen unterschiedliche Weltmodelle verbunden sind.“ Am Ende wird die Perspektive der Ethik eingenommen: „Ungewollte Bedeutungsverschiebungen und ihre Folgen mag man in der Medienethik thematisieren. Die Übersetzung von wissenschaftlichen Texten und Gebrauchstexten wird weitgehend automatisiert, was in der Wirtschaftsethik analysiert werden kann.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/maschinelle-uebersetzung-123753 abgerufen werden.

Abb.: Ein Wörterbuch kann auch bei der Übersetzung helfen

Interview zur Dual-Use-Problematik

Dual-Use ist ein altbekanntes Problem. Meist ist damit gemeint, dass etwas sowohl zivilen als auch militärischen Zwecken dienen kann. Letztere sind oft nicht im Sinne des Erfinders. Man kann den Begriff weiter fassen und ihn so verstehen, dass nützliche Instrumente und Technologien in den falschen Händen zu schädlichen werden. Das kennt man bereits von Messern und Fahrzeugen, und man kann auch aus vielen hilfreichen Robotern tödliche Waffen machen. Künstliche Intelligenz kann dabei helfen, Krankheiten zu erkennen und zu bekämpfen oder aber Krankheiten – etwa durch biologische Waffen, die von ihr mitentwickelt werden – hervorzurufen. Genau zu diesem Thema befragte der Tages-Anzeiger den Informations- und Maschinenethiker Oliver Bendel. Das Interview erschien am 25. März 2022 in der gedruckten Ausgabe. Es ist auch online abrufbar.

Abb.: KI kann bei der Entwicklung biologischer Waffen helfen

KI-gestütztes Recruiting

Der Artikel „KI-gestütztes Recruiting – technische Grundlagen, wirtschaftliche Chancen und Risiken sowie ethische und soziale Herausforderungen“ von Gwendolin Wilke und Oliver Bendel ist am 7. März 2022 in der HMD – Praxis der Wirtschaftsinformatik erschienen. Aus dem Abstract: „Bei der Rekrutierung von neuen Mitarbeitern und Mitarbeiterinnen setzen Firmen heute vermehrt auf die Unterstützung durch künstliche Intelligenz (KI). Die technischen Möglichkeiten reichen von Vorauswahlgesprächen mit Chatbots über die automatisierte Auswertung schriftlicher Bewerbungsdossiers hinsichtlich Fachkompetenz und Erfahrung bis hin zur maschinellen Analyse von
Videobewerbungen zur Bewertung von Softskills wie Selbstvertrauen, Enthusiasmus oder Kommunikationsfähigkeit. Auch Lernplattformen werden zur Vorauswahl und Überprüfung eingesetzt. Der Artikel erklärt die technischen Grundlagen und Möglichkeiten des KI-gestützten Recruitings und zeigt wirtschaftliche Chancen und Risiken auf. Ethische und soziale Herausforderungen werden diskutiert und verständliche und umsetzbare Handlungsempfehlungen für Unternehmen unterbreitet, damit sie rechtliche Vorgaben und ethische Richtlinien einhalten und auf Kritik reagieren können.“ Es handelt sich um eine Open-Access-Publikation, die über link.springer.com/article/10.1365/s40702-022-00849-w heruntergeladen werden kann.

Abb.: Eine Jobsuchende

Soziale Robotik und künstliches Bewusstsein

Der von Oliver Bendel herausgegebene Springer-Band „Soziale Roboter“ enthält, das Vorwort mitgerechnet, 30 Beiträge führender Expertinnen und Experten. Von Klaus Mainzer stammt die Abhandlung „Soziale Robotik und künstliches Bewusstsein: Technische und philosophische Grundlagen“. Aus dem Abstract: „Die Entstehung natürlichen Bewusstseins ist Gegenstand interdisziplinärer Forschung von Gehirnforschung, Neuro- und Kognitionspsychologie und Philosophie. Eine technische Umsetzung von Bewusstsein in der Robotik setzt eine hochentwickelte KI-Forschung voraus. Voraussetzung ist eine hybride KI, die symbolische KI und subsymbolische KI verbindet: Erkenntnistheoretisch entspricht hybride KI einem ‚hybriden‘ kognitiven System wie dem menschlichen Organismus, in dem die (‚unbewusste‘) Verarbeitung von Wahrnehmungsdaten mit (‚bewusstem‘) logischen Schließen verbunden wird. Hybrider KI werden daher höhere Intelligenzgrade zugesprochen als der Reduktion auf symbolische oder subsymbolische KI, die bereits in technischem Einsatz sind. Humanoide Roboter sind Hybridsysteme im Sinn hybrider KI mit symbolischer Wissensrepräsentation und verhaltensbasiertem Agieren, das die sensorisch-motorische Leiblichkeit und Veränderung von Umweltsituationen berücksichtigt.“ Ein Abschnitt „behandelt die Grundlagen humanoider Robotik im Human Robotics Project (HRP) mit seinen kognitivistisch-funktionalistischen Grundlagen, konnektionistischen Grundlagen bis zu hybriden kognitiven Robotern auf der Grundlage hybrider KI“. „Abschließend geht es … um die Frage, ob künstliches Bewusstsein in Zukunft technisch möglich und sinnvoll ist. Im Zentrum stehen zukünftige Schlüsseltechnologien wie kollektive Intelligenz in Cyberphysical Systems, neue Rechnerstrukturen mit neuromorphen Computern und Quantencomputer.“ Das Buch ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: AAAI 2019 Spring Symposium an der Stanford University zu künstlichem Bewusstsein

Soziale Robotik und KI

Insgesamt 30 Beiträge enthält der von Oliver Bendel herausgegebene Springer-Band „Soziale Roboter“, wenn man das Vorwort mitzählt. Von Felix Lindner stammt die Abhandlung „Soziale Robotik und KI: Wie sich Roboter autonom nach Werten und Normen verhalten können“. Aus dem Abstract: „Während im öffentlichen Diskurs Künstliche Intelligenz und Robotik häufig ganz selbstverständlich zusammengedacht werden, haben sich historisch zwei separate Disziplinen entwickelt: die Künstliche Intelligenz beschäftigt sich mit der Formalisierung und Algorithmisierung von Schlussfolgern und Problemlösen, und die Robotik befasst sich mit der maschinellen Wahrnehmung der Umwelt sowie der autonomen Ausführung von Handlungen. In diesem Kapitel wird die Soziale Robotik als ein Bindeglied zwischen den beiden Disziplinen aufgefasst. Soziale Roboter sind Roboter, die sich nach den Werten und Normen des sozialen Miteinanders richten. Damit dies möglich wird, müssen Verfahren aus der Robotik um eine soziale Dimension erweitert werden. Eine Möglichkeit besteht darin, Techniken aus der Künstlichen Intelligenz zu verwenden, um soziale Werte und Normen explizit zu modellieren. Der Beitrag thematisiert das sogenannte Value-Alignment-Problem in der Künstlichen Intelligenz im Allgemeinen und demonstriert anhand von sozialer Roboter-Navigation im Speziellen, wie Techniken aus der Künstlichen Intelligenz für die Soziale Robotik genutzt werden können, damit Roboter ihre Handlungen nach menschlichen Werten und Normen ausrichten.“ Das Buch ist Anfang November 2021 erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 bezogen werden.

Abb.: Harmony (Foto: Realbotix, bearbeitet)

Überlegungen zu Rahmenbedingungen beim Einsatz von Pflegerobotern

Die Zeitschrift für Berufs- und Wirtschaftspädagogik widmet sich im Sommer 2021 dem Thema „Künstliche Intelligenz in der beruflichen Bildung: Zukunft der Arbeit und Bildung mit intelligenten Maschinen?!“. Herausgegeben wird das Sonderheft von Prof. Dr. Sabine Seufert und ihren Kollegen. In der Verlagsinformation heißt es: „Die Autorinnen und Autoren reflektieren kritisch die Auswirkungen der KI auf die berufliche Bildung. In einem ersten Teil untersuchen sie die Implikationen von KI auf gewerblich-technische Berufe, Industrieberufe, IT-Berufe und Pflegeberufe. In einem zweiten Teil widmen sie sich Forschungsrichtungen zur KI in der Berufsbildung – von der Individualisierung durch Hybrid Intelligence über Learning Analytics, Augmented Reality und Virtual Reality bis zur beruflichen Rehabilitation und Lernortkooperation.“ (Information Franz Steiner Verlag) Der Beitrag von Prof. Dr. Oliver Bendel trägt den Titel „Strukturelle und organisationale Rahmenbedingungen für den Einsatz von Pflegerobotern“. Das Heft kann über elibrary.steiner-verlag.de/book/99.105010/9783515130752 bestellt werden. Eine Leseprobe ist hier erhältlich.

Abb.: P-Care im Pflegeheim (Foto: Daimler und Benz Stiftung)

„Mundraub“ mit Hilfe von KI

„KI passt Lippenbewegungen an andere Sprachen an“ – so der Titel eines Artikels von Tobias Költzsch, der am 23. Mai 2021 bei Golem erschienen ist. „Das britische Unternehmen Flawless entwickelt eine auf Deepfake basierende Technologie, mit deren Hilfe synchronisierte Filme realistischer aussehen sollen. Das vom Regisseur Scott Mann mitgegründete Unternehmen will mit Hilfe von künstlicher Intelligenz die Lippenbewegungen von Schauspielern im Nachhinein anpassen, damit sie der synchronisierten Sprache entsprechen.“ (Golem, 23. Mai 2021) Dies wirft zahlreiche Fragen auf. Die Lippen gehören den Schauspielerinnen und Schauspielern, die Bewegungen ihrer Lippen zu ihrem Spiel. Wenn die Lippen nun anders aussehen und sich anders bewegen, könnte das zum einen Persönlichkeitsrechte verletzen, zum anderen die Qualität des Films beeinträchtigen. Insgesamt gibt es ethische, rechtliche und künstlerische Implikationen. Der Raub der Stimme ist schon seit einiger Zeit möglich – nun erfolgt ein „Mundraub“ der neuen Art.

Abb.: Charlize Theron auf dem roten Teppich

Die KI und ihre Geschwister

Die Künstliche Intelligenz (KI) hat nach Dekaden des Auf- und Abschwungs im 21. Jahrhundert eine enorme Bedeutung in Forschung und Praxis erlangt. Maschinenethik und Maschinelles Bewusstsein (Künstliches Bewusstsein) konnten zur gleichen Zeit ihre Begriffe und Methoden in die Öffentlichkeit tragen, wo sie mehr oder weniger gut verstanden wurden. Eine Grafik versucht seit 2018 die Begriffe und Zusammenhänge von Künstlicher Intelligenz, Maschinenethik und Maschinellem Bewusstsein zu klären. Sie wird ständig weiterentwickelt und dadurch präziser, aber auch komplexer. Seit Anfang 2021 liegt eine neue Version vor. In ihr wird noch deutlicher gemacht, dass die drei Disziplinen bestimmte Fähigkeiten (meist von Menschen) nicht nur abbilden, sondern auch erweitern können.

Abb.: Die KI und ihre Geschwister