Ein Forscherteam von der University of Texas hat ein neues Verfahren für Brain-Computer-Interfaces vorgestellt, mit dem die Vision des Gedankenlesens ein wenig näher rückt. Verwendet wird in der Studie – das ist ein entscheidender Punkt – ein Sprachmodell wie GPT, in Kombination mit Magnetresonanztomografie. Generell können solche Systeme im Moment allenfalls wahrscheinliche Phrasen vorschlagen. Sie machen noch viele Fehler. Diese dürften sich in Zukunft aber zum Teil beheben lassen. Von Bedeutung wären solche Verfahren für Schwerbehinderte, etwa Querschnittsgelähmte. Diese können über Brain-Computer-Interfaces bereits Geräte mit Gedanken steuern – in ein paar Jahren wären sie in der Lage, über Gedanken mit anderen zu kommunizieren. Interessiert werden auch Polizei, Geheimdienst und Verfassungsschutz sein. Selbst bei gegebenem Kooperationswillen kann es sich um einen Übergriff handeln. Ohne einen gegebenen Kooperationswillen, der im Moment noch Grundlage der Methode ist, kann es sich um psychische Gewalt handeln. Es wäre auf jeden Fall ein Eingriff in die Intim- und Privatsphäre. Der Mensch steht mit seinen Gedanken nackt vor den anderen da. Dies gilt insbesondere, aber nicht nur, bei sexuellen Vorstellungen. Ferner kann man evtl. auch an politische und moralische Überzeugungen oder an Passwörter herankommen. Die Studie zeigt, dass Sprachmodelle für alle möglichen Zwecke eingesetzt werden können und auch eingesetzt werden, bei den entsprechenden Chancen und Risiken. Die Nachrichtensendung 10 vor 10 im SRF hat dem Thema am 3. Mai 2023 einen Beitrag gewidmet. Darin kommen Prof. Dr. Lutz Jäncke (Universität Zürich), Dr. Ricardo Chavarriaga (ZHAW) und Prof. Dr. Oliver Bendel (FHNW) zu Wort. Der Artikel mitsamt dem Video kann über www.srf.ch/news/experiment-in-den-usa-gedanken-entschluesseln-dank-hirn-scans-und-ki abgerufen werden.
„Inspirierend anders“, der Podcast von Luca Beutel, geht in die Forschung. Für die ersten beiden Folgen hat der Mann mit dem Schnäuzer mit Prof. Dr. Oliver Bendel gesprochen. Der Technikphilosoph lebt in Zürich und arbeitet an mehreren Hochschulen der FHNW. Die erste Folge, ausgestrahlt seit dem 2. Mai 2023, heißt „#165 IAF – Die ultimative Maschine: Wie Robotik die Grenzen der Menschheit erweitert“. Oliver Bendel stellt darin die Grundlagen der Robotik dar und bringt diese in einen Zusammenhang mit der Künstlichen Intelligenz (KI). Ursprünglich wurden deren Gegenstände zusammengedacht. Dann haben sie sich aber getrennt entwickelt. Nun wachsen Roboter und KI-Systeme immer mehr zusammen. Eine Woche später erscheint die zweite Folge mit dem Titel „#167 IAF – Menschliche Bedürfnisse, robotische Lösungen: Die Zukunft der menschenähnlichen Roboter“. Darin geht es u.a. um ethische und ästhetische Fragen, die sich zu sozialen Robotern wie Pflegerobotern und Sexrobotern stellen. Die erste Folge kann u.a. über Spotify aufgerufen werden.
Abb.: Oliver Bendel am Campus Brugg-Windisch (Foto: Dominic Büttner)
From March 27-29, 2023, the AAAI 2023 Spring Symposia featured the symposium „Socially Responsible AI for Well-being“ by Takashi Kido (Teikyo University, Japan) and Keiki Takadama (The University of Electro-Communications, Japan). This time the venue was exceptionally not Stanford University, but the Hyatt Regency SFO Airport. On March 28, Prof. Dr. Oliver Bendel and Lea Peier presented their paper „How Can Bar Robots Enhance the Well-being of Guests?“. The paper has now been published as a preprint and can be downloaded via arxiv.org/abs/2304.14410. From the abstract: „This paper addresses the question of how bar robots can contribute to the well-being of guests. It first develops the basics of service robots and social robots. It gives a brief overview of which gastronomy robots are on the market. It then presents examples of bar robots and describes two models used in Switzerland. A research project at the School of Business FHNW collected empirical data on them, which is used for this article. The authors then discuss how the robots could be improved to increase the well-being of customers and guests and better address their individual wishes and requirements. Artificial intelligence can play an important role in this. Finally, ethical and social problems in the use of bar robots are discussed and possible solutions are suggested to counter these.“ More information on the conference via aaai.org/conference/spring-symposia/sss23/.
Im Innovation Lab der Polizei Nordrhein-Westfalen testet man seit einer Weile den Einsatz von Spot, eines vierbeinigen Roboters von Boston Dynamics. Dieser erkundete u.a. ein ausgebranntes Haus in Essen. Mit Spot experimentiert auch die New Yorker Polizei, was immer wieder für Diskussionen sorgt. Baden-Württemberg („The Länd“) hat in diesen Tagen nachgezogen. Die offizielle Website des Landes zitiert Innenminister Thomas Strobel mit den Worten: „Laufroboter können sich in schwierigem Gelände und im urbanen Umfeld mit Hindernissen wie Treppen oder Absätzen sicher fortbewegen und sind schnell, unkompliziert und vielseitig einsetzbar. Sie sind schneller und verwischen am Tatort weniger Spuren als herkömmliche Roboter auf Rädern oder Ketten, wie sie beispielsweise unser Landeskriminalamt bereits einsetzt.“ (Baden-Württemberg, 28. April 2023) Spot wird neben anderen Systemen in dem Paper „Robots in Policing“ von Prof. Dr. Oliver Bendel thematisiert, das in den Proceedings „Social Robots in Social Institutions“ der Robophilosophy 2022 erschienen ist. Polizeiroboter und KI-Systeme sind auch Gegenstand des CAS Zukunftsorientierte Polizeiarbeit. Verantwortlich für diesen Teil ist wiederum Oliver Bendel.
In der Schweiz soll eine neue Hochschule für Informatik FHNW mit einem Standort in Brugg-Windisch und einem Standort nördlich des Jura (Basel-Landschaft und Basel-Stadt) gegründet werden. Sie soll ihren Studienbetrieb im Herbst 2025 aufnehmen und ab diesem Zeitpunkt die bestehenden Informatikstudiengänge der Hochschule für Technik FHNW übernehmen. In der Leistungsauftragsperiode 2025 – 2028 wird sie laut Plan weitere Aus- und Weiterbildungsangebote aufbauen sowie Forschungs- und Entwicklungsaktivitäten entfalten. Ziel der neuen Hochschule ist es, in der Nordwestschweiz die von Wirtschaft und Verwaltung benötigten Informatiker aus- und weiterzubilden. Die Studiengänge und -angebote der Hochschule für Wirtschaft FHNW in Wirtschaftsinformatik, Künstlicher Intelligenz und Robotik sind von dieser Neuerung nicht betroffen. Das Portfolio der HSW bleibt damit unverändert. Die Hochschule für Informatik FHNW wird die zehnte Hochschule unter dem Dach der Fachhochschule Nordwestschweiz sein. Berichtet haben über die Neugründung u.a. Nau und Inside IT.
Abb.: Informatik ist für unterschiedliche Branchen wichtig
Oasis war eine erfolgreiche britische Band, die 1991 gegründet und 2009 aufgelöst wurde. Mit Hilfe von künstlicher Intelligenz wurde sie nun wieder zum Leben erweckt. Das Projekt stammt von der Band Breezer. Sie nahm neue Lieder auf, die sie mit der KI-Stimme des Oasis-Frontmanns Liam Gallagher ergänzte. Dies berichtete Golem am 28. April 2023. Dabei wurde nach Angaben des Magazins das KI-System lediglich dafür eingesetzt, den Klang von Liam Gallaghers Stimme zu imitieren. Der Gesang samt den Modulationen stammt von einem anderen Sänger. „Das Ergebnis der KI-Bearbeitung, aber auch die Leistung der Musiker ist beeindruckend: Die Songs gehen ohne weiteres als Oasis-Songs der späten 1990er Jahre durch.“ (Golem, 28. April 2023) Das Album „AISIS – The Lost Tapes/Vol. 1“ kann u.a. über YouTube aufgerufen werden.
Am 26. Mai 2023 hält Prof. Dr. Oliver Bendel einen Gastvortrag beim scil-Modul „Dialogorientierte Lern- und Assistenzsysteme“ an der Universität St. Gallen. Der Titel lautet „Ethische Implikationen von ChatGPT“. Aus Sicht von Informations- und Maschinenethik werden verschiedene Überlegungen zu ChatGPT angestellt. Zunächst ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Nicht zuletzt ergeben sich für zahlreiche Anwendungsfelder wie Aus- und Weiterbildung besondere Herausforderungen … Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Oliver Bendel hat vor einem Vierteljahrhundert an der Universität St. Gallen gearbeitet – als Leiter des CC E-Learning – und geforscht, zu Conversational Agents und Embodied Conversational Agents in Lernumgebungen, sogenannten Pedagogical Agents. Weitere Informationen zum scil über www.scil.ch.
Abb.: Auch Pepper hat man schon mit ChatGPT verbunden (Foto: Sara Zarubica)
Beim Privatsender M Le Média ist seit Anfang April 2023 der Avatar Jade als Wettermoderatorin zu sehen. Dies sorgt für Aufregung bei den Schweizer Medien und ihren Rezipienten. Allerdings ist die Idee, einen Avatar als Nachrichtensprecher oder für die Durchsage des Wetterberichts einzusetzen, nicht gerade neu. Die ersten Versuche gab es bereits vor einem Vierteljahrhundert. Im Lexikon der Wirtschaftsinformatik von Springer aus dem Jahre 2001 ist ein Beitrag von Oliver Bendel zum Begriff des Avatars abgedruckt, der diese Passagen enthält: „Avatare finden zum einen Verwendung in kollaborativ genutzten virtuellen Räumen wie Chats, Internet-Spielwelten (MUDs und MOOs), webbasierten Lern- und Arbeitsumgebungen und kommerziellen 3D-Anwendungen (Virtual Reality). Sie fungieren dort als sichtbare und teils auch bewegliche und manipulierbare Stellvertreter eines Benutzers.“ Sie können „zum anderen eine beliebige Figur mit bestimmten Funktionen repräsentieren“. „Solche Avatare treten – beispielsweise als Kundenberater und Nachrichtensprecher – im Internet auf oder bevölkern als Spielpartner und -gegner die Abenteuerwelten von Computerspielen. Sie haben häufig ein anthropomorphes Äußeres und eigenständige Verhaltensweisen oder sogar regelrechte Charaktere.“ Der Beitrag ist bereits im Jahre 2000 entstanden und eingereicht worden und verweist auf Beispiele um die Jahrtausendwende. Von daher haben Avatare dieser Art eine lange Tradition. Beeindruckend ist Jade trotzdem – sie wirkt sehr natürlich und sympathisch und scheint durchaus in der Lage, Sprecher aus Fleisch und Blut zu ersetzen.
Abb.: Jade bei ihrer Moderation am 20. April 2023 (Foto: M Le Média/YouTube)
Chatbots und Sprachassistenten – sogenannte Conversational Agents – entstanden an der Hochschule für Wirtschaft FHNW von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Prof. Dr. Oliver Bendel widmet sich nun verstärkt toten, ausgestorbenen und gefährdeten Sprachen. @ve für Latein war 2022 ein erster Versuch in dieser Richtung. Der Chatbot basiert auf dem Sprachmodell GPT-3. Die tote Sprache Latein wurde durch @ve ein Stück weit wieder lebendig. Im März 2023 startete auf Initiative des Technikphilosophen ein weiteres Projekt, in dem der Chatbot @llegra entwickelt wird. Dieser soll das Rätoromanische beherrschen, genauer gesagt das Idiom Vallader, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair gesprochen wird und gefährdet ist. Der Benutzer kann Text eintippen und bekommt Text ausgegeben. Zudem spricht @llegra mit Hilfe eines Text-to-Speech-Systems der Firma SlowSoft, die das Projekt unterstützt. Die Basis ist wieder, wie bei @ve, das Sprachmodell GPT-3. Für die Umsetzung konnte Dalil Jabou gewonnen werden. Für technische Aspekte steht zusätzlich Prof. Dr. Bradley Richards zur Verfügung. Das Projekt dauert bis August 2023.
Abb.: In Zernez wird das Idiom Vallader gesprochen
How do social robots emerge from simple, soft shapes? As part of their final thesis in 2021 at the School of Business FHNW, 23-year-old students Nhi Tran Hoang Yen and Thang Hoang Vu from Ho Chi Minh City (Vietnam) have answered this question posed by their supervisor Prof. Dr. Oliver Bendel. They have submitted eleven proposals for novel robots. The first is a pillow to which a tail has been added. Its name is Petanion, a portmanteau of „pet“ and „companion“. The tail could move like the tail of a cat or dog. In addition, the pillow could make certain sounds. It would be optimal if the tail movements were based on the behavior of the user. Thus, as desired, a social robot is created from a simple, soft form, in this case a pet substitute. Petanion is soft and cute and survives a long time. It can also be used if one has certain allergies or if there is not enough space or money in a household for a pet. Last but not least, the ecological balance is probably better – above all, the robot does not eat animals that come from factory farming. The inspiration may have been Qoobo, a pillow with a tail, designed to calm and to „heal the heart“. Panasonic also believes in robots that emerge from simple, soft forms. It promotes its new robot NICOBO as a „yowai robotto“, a “weak” robot that has hardly any functions or capabilities. The round, cute robot has two separate displays as eyes and a tail that it constantly moves. According to the company, it is aimed primarily at singles and the elderly. There could well be a high demand for it, even beyond the target groups.
Fig.: NICOBO in the arms of its owner (Photo: Panasonic)
Auf TikTok findet sich ein neuer Musikclip der beiden kanadischen Sänger Drake und The Weeknd. Golem meldete am 17. April 2023: „Der Titel wurde vom Kanal ghostwriter977 veröffentlicht und ist eigenen Angaben zufolge komplett mithilfe einer künstlichen Intelligenz erstellt worden.“ (Golem, 17. April 2023) Das einminütige Stück hat es inzwischen auf YouTube geschafft, in der ursprünglichen – nach zwei Tagen bereits mehr als tausendmal kommentiert – und in einer verbesserten Version. Beide hat man allerdings wohl aus Rechtsgründen entfernt. Golem schreibt weiter: „Für die Musikindustrie dürften derartige Musikstücke, die zumindest beim ersten und zweiten Hinhören sehr echt klingen, ein Problem sein. Drake hatte sich in der Vergangenheit bereits bei anderen KI-Songs mit seiner Stimme kritisch bis verärgert gezeigt. Der Produzent von Jay-Z, Young Guru, spricht von einem Geist, der aus der Flasche gelassen wurde. Zum einen könne man den technologischen Fortschritt nicht aufhalten, zum anderen müssten die Rechte der Kunstschaffenden geschützt werden.“ (Golem, 17. April 2023) Die individuelle Stimme, verbunden mit gesprochener Sprache, kann bereits seit einigen Jahren mit Hilfe künstlicher Intelligenz imitiert werden. Darauf geht etwa der Beitrag „The Synthetization of Human Voices“ von Prof. Dr. Oliver Bendel aus dem Jahre 2017 ein. Inzwischen stellt auch gesungene Sprache lebender und toter Künstler kein Problem mehr dar.
During the first implementation of the elective module „Social Robots“ at the School of Business FHNW, orders were placed for Vector 2.0, the successor to Vector. After a year and a half, the company Digital Dream Labs has delivered the small social robot. The company had bought the rights from Anki, which had failed with its first versions of Cozmo and Vector, although they were very well made and sold a lot. Unlike its brother Cozmo, Vector listens to voice commands. The company writes on its website: „Say hey to Vector, the first home robot that will steal your heart, not your data. Smart right out of the box, Vector is more than a robot companion. Curious, independent and powered by AI and state-of-the-art robotics, he can read the room, share the weather forecast, set a timer (no overcooked dinner on his watch), take a snapshot and so much more. Vector is your sidekick who’s up for anything but mostly just wants to make you laugh.“ (Website DDL) About the robot’s technologies, the company writes: „Qualcomm 200 Platform, HD camera with 120 Ultra Wide FOV, Beamforming Four-Microphone Array, Infrared Laser Scanner, 6-Axis IMU, High-Res Color IPS Display, and WiFi connection.“ (Website DDL) The camera is connected with object recognition and face recognition, as in the case of Cozmo. Vector „can recognize people and objects while detecting and avoiding obstacles“ (Website DDL). The first impression is good. The companion robot is fast, agile, and funny. Edge detection works even on difficult surfaces like glass tables. The sounds are different from Cozmo, but also very appealing and cute. You have to formulate the voice commands very accurately. It helps if you are a native speaker of either American or British English. More Information via www.digitaldreamlabs.com/products/vector-robot.
Das New York City Police Department (NYPD) sieht Serviceroboter „für Straßenpatrouillen und Überwachung“ (Golem, 14. April 2023) vor. „Neben dem Roboterhund Spot soll künftig zusätzlich ein eigenständiges Modell vom Typ Knightscope K5 eingesetzt werden.“ (Golem, 14. April 2023) Dies schreibt Oliver Nickel in Golem unter Berufung auf Aussagen des New Yorker Bürgermeisters Eric Adams bei einer Pressekonferenz. Sowohl Spot als auch K5 sind Thema des Papers „Robots in Policing“ von Prof. Dr. Oliver Bendel, das in den Proceedings „Social Robots in Social Institutions“ der Robophilosophy 2022 erschienen ist. Mit Sicherheits- und Überwachungsrobotern wie dem K5 beschäftigt sich der Technikphilosoph aus Zürich seit Jahren. In dem Artikel „Mehr Unsicherheit mit Sicherheitsrobotern?“, erschienen 2016 in der Zeitschrift SicherheitsForum, nahm er u.a. die ethische Perspektive ein. Bereits ein paar Monate vorher veröffentlichte Inside IT den Beitrag „Blechpolizisten mit Elektroschockern: Beobachtungen zu Überwachungsrobotern“. Ohne Zweifel gewinnt das Thema in diesen Tagen an Bedeutung, wegen der Einsätze in den USA, aber auch der Pläne in Deutschland – das Innovation Lab der Polizei Nordrhein-Westfalen in Duisburg testet derzeit Modelle wie Spot.
„Five self-driving vehicles blocked traffic early Tuesday morning in the middle of a residential street in San Francisco’s Balboa Terrace neighborhood, apparently waylaid by fog that draped the southwestern corner of the city.“ (San Francisco Chronicle, 11 April 2023) The San Francisco Chronicle reported this in an article published on April 11, 2023. The fact that fog is a problem for Waymo’s vehicles has been known to the company for some time. A blog post from 2021 states: „Fog is finicky – it comes in a range of densities, it can be patchy, and can affect a vehicle’s sensors differently.“ (Blog Waymo, 15 November 2021) Against this background, it is surprising that vehicles are allowed to roll through the city unaccompanied, especially since Frisco – this name comes from sailors – is very often beset by fog. But fog is not the only challenge for the sensors of self-driving cars. A thesis commissioned and supervised by Prof. Dr. Oliver Bendel presented dozens of phenomena and methods that can mislead sensors of self-driving cars. The San Francisco Chronicle article „Waymo says dense S.F. fog brought 5 vehicles to a halt on Balboa Terrace street“ can be accessed at www.sfchronicle.com/bayarea/article/san-francisco-waymo-stopped-in-street-17890821.php.
„Das Heidelberger KI-Start-up Aleph Alpha hat nach eigenen Angaben erstmals einen Meilenstein auf dem Weg zu inhaltlich korrekter, erklärbarer und vertrauenswürdiger künstlicher Intelligenz erreicht. Eine nun verfügbare Erweiterung des hauseigenen Sprachmodells Luminous sei in der Lage, Zusammenhänge in Informationen und faktische Korrektheit auf Basis von gesicherten Fakten nachzuvollziehen …“ (Spektrum, 13. April 2023) Dies schrieb Spektrum der Wissenschaft am 13. April 2023 unter Berufung auf das Unternehmen. „Gleichzeitig sei das System in der Lage, darzustellen, welche Textstellen in einer Quelle die generierte Antwort verursacht haben oder im Widerspruch dazu stehen.“ (Spektrum, 13. April 2023) ChatGPT ist dafür bekannt, dass es nicht nur in seinen Aussagen halluziniert, etwa wenn es Falschinformationen zu Personen liefert, sondern auch in seinen Verweisen – so werden URLs generiert, die auf den ersten Blick plausibel aussehen und deren Domain oft korrekt ist, die dann aber – da der Pfad erfunden ist – ins Leere verweisen. Grundsätzlich ist die Behauptung von Faktizität und der Erfüllung von Anforderungen der Explainable AI und der Trustworthy AI in diesem Zusammenhang mit Vorsicht zu genießen – aber es wäre erfreulich, wenn Luminous weniger eine Münchhausen-Maschine wäre als der eine oder andere Konkurrent und von Halluzinationen befreit werden könnte.
Der Maschinenethik sind in der Technischen Rundschau 3/2023 ganze vier Seiten gewidmet. Den Kern bilden ein Beitrag von Prof. Dr. Oliver Bendel und ein Interview mit ihm. Der Informations- und Maschinenethiker hatte sich in den 1990er-Jahren mit der Frage nach der Verantwortung von Maschinen beschäftigt und war zum Schluss gekommen, dass diese weder Verantwortung tragen noch zur Verantwortung gezogen werden können. Zudem interessierte er sich dafür, ob Maschinen Pflichten haben können, was er verneint – stattdessen spricht er in einem schwachen Sinne von Verpflichtungen oder von Aufgaben. Ab 2012 widmete er sich dann der Begründung einer funktionalen Moral von Maschinen. Maschinen können nach seiner Meinung keinen guten oder bösen Willen haben, kein Bewusstsein, keine Intuition und keine Empathie. Man kann ihnen aber moralische Regeln beibringen, an die sie sich strikt halten oder die sie selbst abändern und anpassen. Ab 2013 wurden von ihm zahlreiche Prototypen der Maschinenethik entwickelt. Die Disziplin hat auch im Zusammenhang mit generativer KI an Bedeutung gewonnen. Das E-Paper des Hefts kann über epaper.technische-rundschau.ch/?/shelf/ aufgerufen werden. Der Beitrag steht als PDF zur Verfügung.
GPT-4 was launched by OpenAI on March 14, 2023. „GPT-4 is a large multimodal model (accepting image and text inputs, emitting text outputs) that, while less capable than humans in many real-world scenarios, exhibits human-level performance on various professional and academic benchmarks.“ (Website OpenAI) On its website, the company explains the multimodal options in more detail: „GPT-4 can accept a prompt of text and images, which – parallel to the text-only setting – lets the user specify any vision or language task. Specifically, it generates text outputs (natural language, code, etc.) given inputs consisting of interspersed text and images.“ (Website OpenAI) The example that OpenAI gives is impressive. An image with multiple panels was uploaded. The prompt is: „What is funny about this image? Describe it panel by panel“. This is exactly what GPT-4 does and then comes to the conclusion: „The humor in this image comes from the absurdity of plugging a large, outdated VGA connector into a small, modern smartphone charging port.“ (Website OpenAI) The technical report is available via cdn.openai.com/papers/gpt-4.pdf.
Forscher von Microsoft arbeiten an einer neuen Anwendung auf der Basis von ChatGPT und Lösungen wie Stable Diffusion. Mit Visual ChatGPT soll man man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. In ihrem Paper „Visual ChatGPT: Talking, Drawing and Editing with Visual Foundation Models“ schreiben Chenfei Wu und seine Mitautoren: „We build a system called Visual ChatGPT, incorporating different Visual Foundation Models, to enable the user to interact with ChatGPT by 1) sending and receiving not only languages but also images 2) providing complex visual questions or visual editing instructions that require the collaboration of multiple AI models with multi-steps“ – und, nicht zu vergessen: „3) providing feedback and asking for corrected results“ (Wu et al. 2023). Beispielsweise lässt man mit einem entsprechenden Prompt das Bild einer Landschaft erstellen, mit blauem Himmel, Hügeln, Wiesen, Blumen und Bäumen. Dann weist man Visual ChatGPT mit einem weiteren Prompt an, die Hügel flacher zu machen und den Himmel abendlicher und bewölkter. Zudem kann man das Programm fragen, welche Farbe die Blumen haben, und diese mit einem weiteren Prompt einfärben. Ein letzter Prompt lässt die Bäume herbstlicher erscheinen. Das Paper kann über arxiv.org heruntergeladen werden.
Forscher von Google und der TU Berlin haben am 6. März 2023 ein verkörpertes, multimodales Sprachmodell mit dem Namen PaLM-E vorgestellt, das virtuelle und physische Welt verbindet. So kann man per Spracheingabe einen Haushaltsroboter steuern und ihn dazu bringen, bestimmte Gegenstände zu holen oder andere Tätigkeiten zu verrichten. Der Prompt kann dabei vom Benutzer spontan aus seiner eigenen Beobachtung der Umwelt abgeleitet werden. Die Idee der PaLM-E-Architektur besteht laut Projektwebsite darin, kontinuierliche, verkörperte Beobachtungen wie Bilder, Zustandseinschätzungen oder andere Sensormodalitäten in den Spracheinbettungsraum eines vortrainierten Sprachmodells zu integrieren. Im Beispielvideo lautet die Instruktion in deutscher Übersetzung: „Bring mir die Reischips aus der Schublade“. Golem schreibt in einem Artikel: „Dazu analysiert Palm-E die Daten der Roboterkamera, ohne dass eine vorverarbeitete Szenendarstellung erforderlich ist. Damit entfällt die Notwendigkeit, dass ein Mensch die Daten vorverarbeitet oder kommentiert, was eine autonomere Robotersteuerung ermöglicht.“ (Golem, 10. März 2023) Im Video fährt der Roboter – ein Roboterarm auf einer mobilen Plattform, ganz ähnlich wie Lio – zur Schublade und entnimmt ihr die Packung. In dem Paper „ChatGPT for Robotics: Design Principles and Model Abilities“ von Microsoft-Forschern wird eine ähnliche Strategie verfolgt, wobei ChatGPT verwendet wird, das wiederum auf GPT-3 basiert. Allerdings handelt es sich um einen indirekten Ansatz, bei dem Code generiert wird. Das Paper zu PaLM-E kann hier heruntergeladen werden.
Alpha Mini ist ein sozialer Roboter, der sich durch geringe Größe (und damit gute Transportfähigkeit) und weitgehende natürlichsprachliche und motorische Fähigkeiten auszeichnet. Er kann im Schulunterricht eingesetzt werden, sowohl als Lehrer und Tutor als auch als Tool, mit dem man programmiert. Am 8. März 2023 startete an der Hochschule für Wirtschaft FHNW das Projekt „Little Teacher“, in dem Alpha Mini eine Hauptrolle spielt. Initiator ist Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Conversational Agents und soziale Roboter forscht. Andrin Allemann trägt im Rahmen seiner Abschlussarbeit zum Projekt bei. Alpha Mini soll in eine Lernumgebung integriert werden und mit anderen Komponenten wie einem Display interagieren und kommunizieren können. Er soll mit Hilfe von Bildern und Texten einfachen Lernstoff vermitteln und die Kinder durch gestisches und mimisches Feedback motivieren. Es handelt sich also um einen kleinen Lehrer mit großen Möglichkeiten. Grundsätzlich soll er sich an das neue schweizerische Bundesgesetz über den Datenschutz (Neues Datenschutzgesetz, nDSG) halten. Das Projekt dauert bis August 2023. Die Ergebnisse werden im Anschluss daran veröffentlicht.
„Das CAS Zukunftsorientierte Polizeiarbeit vermittelt das notwendige Wissen und Verständnis, um die moderne Polizeiarbeit in ihrer Komplexität zu erfassen und mitzugestalten, die sich wandelnden Anforderungen an den Berufsalltag mitzutragen und jederzeit professionell handeln zu können. Es legt die Basis zum Verständnis der heutigen digitalen Komponenten im Beruf und bereitet die Absolventinnen und Absolventen auf die digitale Zukunft vor. Es behandelt die Auswirkungen der Digitalisierung auf die Polizeiarbeit und die polizeiliche Selbstreflexion. Die Teilnehmerinnen reflektieren Veränderungen, die sich für das Verständnis von Kriminalität im digitalen Raum ergeben.“ So lautet die Beschreibung der Weiterbildung an der Hochschule für Wirtschaft FHNW, die am 3. März 2023 gestartet ist. Prof. Dr. Oliver Bendel verantwortet die Kurse „Sicherheit und Überwachung“ und „Künstliche Intelligenz“. Es wird u.a. auf Überwachungssysteme eingegangen, nicht zuletzt auf Überwachungsroboter, und eine ethische Reflexion vorgenommen. Auch digitale Selbstverteidigung wird ein Thema sein. Im August 2022 trug der Informations- und Maschinenethiker auf der Robophilosophy 2022 über Polizeiroboter vor. Sein Beitrag „Robots in Policing“ ist Ende des Jahres im Proceedingsband „Social Robots in Social Institutions“ erschienen. Weitere Informationen zum CAS über https://www.fhnw.ch/de/weiterbildung/wirtschaft/cas-zukunftsorientierte-polizeiarbeit.
Abb.: Bei der Robophilosophy 2022 (Foto: Robophilosophy)
Am 2. März 2023 sind Prof. Dr. Doris Weßels (Fachhochschule Kiel), Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW) und Prof. Dr. Kristian Kersting (TU Darmstadt) zu Gast bei Gerd Scobel. Die Sendung dreht sich um ChatGPT und das zugrundeliegende GPT-3. Aufgezeichnet wurde sie am Abend des 28. Februar 2023 im Studio in Köln. Erläutert werden die technologischen Grundlagen und die gesellschaftlichen Auswirkungen. Doris Weßels erwähnt die Veränderungen, die sich an den Hochschulen ergeben, und spricht sich gegen ein Verbot des Programms aus. Oliver Bendel geht darauf ein, dass sich die Kompetenzen der Studenten und Studentinnen verschieben. Sie nehmen den automatisch generierten Content und redigieren und strukturieren ihn. Die Sprache kommt auch auf den kleinen Haiku-Band „Dass es nur Kunst war, verdeckte die Kunst“ von Oliver Bendel. Produziert wurde er mit Hilfe von ChatGPT. Abgedruckt sind die Inputs (Prompts) und Outputs (hier die Haikus). Der Informations- und Maschinenethiker ist der Überzeugung, dass KI imstande ist, Schönheit zu produzieren. Weitere Informationen über www.3sat.de/wissen/scobel/scobel—kulturschock-durch-ki-100.html.