„Das CAS Zukunftsorientierte Polizeiarbeit vermittelt das notwendige Wissen und Verständnis, um die moderne Polizeiarbeit in ihrer Komplexität zu erfassen und mitzugestalten, die sich wandelnden Anforderungen an den Berufsalltag mitzutragen und jederzeit professionell handeln zu können. Es legt die Basis zum Verständnis der heutigen digitalen Komponenten im Beruf und bereitet die Absolventinnen und Absolventen auf die digitale Zukunft vor. Es behandelt die Auswirkungen der Digitalisierung auf die Polizeiarbeit und die polizeiliche Selbstreflexion. Die Teilnehmerinnen reflektieren Veränderungen, die sich für das Verständnis von Kriminalität im digitalen Raum ergeben.“ So lautet die Beschreibung der Weiterbildung an der Hochschule für Wirtschaft FHNW, die am 3. März 2023 gestartet ist. Prof. Dr. Oliver Bendel verantwortet die Kurse „Sicherheit und Überwachung“ und „Künstliche Intelligenz“. Beim zweiten Kurstag am 2. September 2023 wird ausführlich auf Grundlagen und Anwendungen der Künstlichen Intelligenz sowie auf Roboter in der Polizeiarbeit eingegangen. Zudem findet eine ethische Reflexion statt. Im August 2022 trug der Informations- und Maschinenethiker auf der Robophilosophy 2022 über Polizeiroboter vor. Sein Beitrag „Robots in Policing“ ist Ende des Jahres im Proceedingsband „Social Robots in Social Institutions“ erschienen. Weitere Informationen zum CAS über https://www.fhnw.ch/de/weiterbildung/wirtschaft/cas-zukunftsorientierte-polizeiarbeit.
Abb.: Auch diese Einteilung wird im CAS präsentiert
The idea of a Babel Fish comes from the legendary novel or series of novels „The Hitchhiker’s Guide to the Galaxy“. Douglas Adams alluded to the Tower of Babel. In 1997, Yahoo launched a web service for the automatic translation of texts under this name. Various attempts to implement the Babel Fish in hardware and software followed. Meta’s SeamlessM4T software can handle almost a hundred languages. In a blog post, the American company refers to the work of Douglas Adams. „M4T“ stands for „Massively Multilingual and Multimodal Machine Translation“. Again, it is a language model that makes spectacular things possible. It has been trained on four million hours of raw audio. A demo is available at seamless.metademolab.com/demo. The first step is to record a sentence. The sentence is displayed as text. Then select the language you want to translate into, for example Japanese. The sentence is displayed again in text form and, if desired, in spoken language. A synthetic voice is used. You can also use your own voice, but this is not yet integrated into the application. A paper by Meta AI and UC Berkeley can be downloaded here.
Vom 1. März bis 11. August 2023 erstellte Dali Jabou im Rahmen seiner Bachelorarbeit den Chatbot @llegra, mit dem man im rätoromanischen Idiom Vallader kommunizieren kann. Es handelt sich um ein von Prof. Dr. Oliver Bendel initiiertes und finanziertes Low-Budget-Projekt, für das bisher ca. 300 CHF ausgegeben wurden. Die Ausgangsfrage ist, ob sich Sprachmodelle wie GPT für den Bau von Chatbots eignen, die tote, gefährdete oder ausgestorbene Sprachen beherrschen, und ob sie für die Spracherhaltung taugen (etwa im Rahmen des Unterrichts). Mit @llegra entstand ein Chatbot mit Sprachausgabe, der die Stärken und Schwächen von GPT-4 widerspiegelt. Er verfügt über Weltwissen und gibt mehrheitlich korrekt Auskunft, auch zu Einrichtungen im Unterengadin. Manchmal halluziniert er und erfindet Personen oder Werke – ein bekanntes Problem von Sprachmodellen, an dem die Entwickler bei OpenAI, Microsoft, Google und Co. arbeiten. Ein weiteres Problem ist, dass er manchmal vom Idiom abweicht und sich in Sursilvan und Rumantsch Grischun verirrt. Er wird sich weiter verbessern lassen, sobald man GPT-4 (wie im Falle von GPT-3) direkt mit Sprachmaterial trainieren kann – was noch nicht der Fall ist (eine Wissensdatenbank, angereichert mit Vallader-Kinderbüchern, zur Verfügung gestellt von der Lia Rumantscha, war aber hilfreich). Die Text-to-Speech-Engine für Vallader, die von SlowSoft kostenlos zur Verfügung gestellt wurde, erfüllt ihren Zweck. Man darf sie nicht mit einer professionellen Lösung verwechseln, wie sie heute mit Hilfe von Machine Learning möglich wäre. Der Chatbot stand auf allegra-bot.ch zur Verfügung, damit eingeladene Tester unkompliziert darauf zugreifen und auch Versuche im Feld (etwa direkt im Unterengadin) stattfinden konnten. Nachdem mehrere Medien über den Chatbot berichtet und den Link verbreitet hatten, nahmen die Zugriffe stark zu. Um die Kosten nicht zu stark anwachsen zu lassen und deutlich zu machen, dass es sich um ein wissenschaftliches Projekt und eine unfertige Vorstufe – einen Prototyp – handelt, nicht um einen öffentlichen Dienst und nicht um ein fertiges Produkt, wurde der Chatbot mit einer entsprechenden Information auf der Seite am 11. August vorerst stillgelegt. Er wird intern weiter getestet und verbessert, bis er Ende des Jahres (sofern die Annahme erfolgt) auf einer internationalen Konferenz vorgestellt wird. Im Rahmen der Begutachtung findet eine Freischaltung von September bis Dezember statt. Oliver Bendel wünscht sich, dass weitere Entwickler den Ansatz aufgreifen und irgendwann eine @llegra entsteht, die im Unterricht eingesetzt werden kann. Dafür müssten Unternehmen die Sache in die Hand nehmen, oder es müsste ein finanziertes Forschungs- und Entwicklungsprojekt aufgelegt werden. In letzterer Richtung unternimmt die FH Graubünden, mit der man in Kontakt ist, seit einiger Zeit Anstrengungen. Bei der Abschlusspräsentation der Bachelorarbeit am 11. August waren neben einer Vertreterin dieser Hochschule auch zwei Vertreter der Lia Rumantscha zugegen, die sich beeindruckt zeigten und wohlwollend äußerten. @llegra hat eine Zukunft – wenn man dies im rätoromanischen Sprachraum will.
Abb.: So stellen sich Bildgeneratoren Chatbots vor
Soziale Roboter wie NAO und Pepper werden im Unterricht von Schulen und Universitäten eingesetzt. NAO ist sehr wendig und gelenkig und daher unterhaltsam. Pepper hat den großen Vorteil, dass er ein integriertes Tablet im Brustbereich hat, auf dem Lernsoftware aller Art ausgeführt werden kann. Ein Nachteil bei beiden ist der hohe Preis. Vor allem Schulen können sich solche Roboter kaum leisten. Dieses Problem war der Ausgangspunkt für das hier beschriebene Projekt, das ab Februar 2023 an der Hochschule für Wirtschaft FHNW stattfand. Initiator und Betreuer war Prof. Dr. Oliver Bendel, Entwickler Andrin Allemann. Ziel war es, eine Lernanwendung mit einem kostengünstigen sozialen Roboter zu erstellen, der über die gleichen motorischen Fähigkeiten wie NAO und die gleichen Fähigkeiten zur Wissensvermittlung wie Pepper verfügt. Die Wahl fiel auf den kleinen Alpha Mini. Es war mit einigem technischen Aufwand möglich, ihn mit einem externen Gerät, einem Microsoft Surface, zu koppeln. Auf diesem läuft ein Lernspiel, das für den Unterricht in der Primarschule geeignet ist. Das Projekt wurde am 11. August 2023 abgeschlossen. In einem Video wird gezeigt, wie ein Mädchen die Lernanwendung ausprobiert und der soziale Roboter Feedback und Erklärungen gibt, in sprachlicher Form und mit Hilfe seiner mimischen und gestischen Fähigkeiten. Es kann abschließend gesagt werden: Soziale Roboter wie Alpha Mini sind eine interessante Lösung für die Wissensvermittlung in Schulen, wenn sie mit anderen Geräten gekoppelt werden können.
Abb.: Eine Schülerin mit der Lernanwendung (Foto: Andrin Allemann)
Erneut berichten Schweizer Medien über Trickbetrug mit synthetisierten Stimmen lebender Personen. Die Basler Zeitung interviewte am 7. August 2023 Prof. Dr. Oliver Bendel dazu, wie solche synthetischen Stimmen entstehen. Er forscht seit einem Vierteljahrhundert zu KI-Systemen und Robotern und seit sieben Jahren speziell auch zu synthetischen Stimmen. Grundsätzlich werden in solchen Fällen neuronale Netzwerke benutzt. Man kann sie mit der individuellen Stimme trainieren. Dafür braucht es 15 – 30 Minuten an Material. Die Zeit verkürzt sich auf wenige Sekunden, wenn man vorher ein Sprachmodell mit einigen tausend Stimmen trainiert hat und einige Voraussetzungen erfüllt sind. Zu diesen Voraussetzungen gehört, dass die individuelle Stimme einen Verwandten im Trainingsmaterial hat. Die Resultate können so oder so täuschend echt sein. Oft sind aber nicht die gewohnten Hintergrundgeräusche vorhanden, oder es fehlen typische Verhaltensweisen der Person, etwa das Nasehochziehen oder ein Stühlerücken. Es lohnt sich also, gut hinzuhören und im Zweifel auch einen Rückruf zu verlangen. Mehrere Aussagen aus dem Interview wurden in den Beitrag „Betrüger können mit KI die Stimmen lebender Personen imitieren“ aufgenommen, der am 9. August 2023 in der gedruckten Ausgabe der Basler Zeitung erschien. Bereits am Vortag war er in die Onlineauftritte von Tamedia aufgenommen worden.
Die HMD ist eine traditionsreiche Fachzeitschrift für Wirtschaftsinformatik. Diejenigen Schwerpunkthefte, die besonderes Interesse wecken, werden in der Edition HMD in Buchform nochmals aufgelegt, indem ihre Beiträge modifiziert, aktualisiert und dann gebündelt werden. Anfang August 2023 ist der Band „Robotik in der Wirtschaftsinformatik“ erschienen. Herausgeber sind Sara D’Onofrio und Stefan Meinhardt. Prof. Dr. Oliver Bendel ist mit seinem Beitrag „Serviceroboter als klassische und als soziale Roboter“ vertreten. Aus dem Abstract: „Serviceroboter verbreiten sich stark, vor allem in den Bereichen Sicherheit, Transport und Reinigung, aber auch in Pflege und Therapie. Soziale Roboter sind ebenfalls auf dem Vormarsch, als Companion Robots oder als Unterhaltungs- und Spielzeugroboter. Das vorliegende Kapitel liefert zunächst eine Definition und Einteilung von Servicerobotern. Zudem werden soziale Roboter erklärt, unter Verwendung einer Systematisierung, die als Abbildung umgesetzt wurde, und es wird auf Robot Enhancement verwiesen. Dann geht das Kapitel auf ausgewählte Typen von Servicerobotern ein. Es werden Merkmale behandelt und Beispiele genannt, bis hin zu konkreten Produkten und Einsatzorten. Bei jedem Typ wird die Frage gestellt, ob man manche Beispiele den sozialen Robotern zuordnen kann oder ob künftige Beispiele mit sozialen Fähigkeiten denkbar sind.“ Das Buch kann über link.springer.com/book/10.1007/978-3-658-39621-3 heruntergeladen bzw. bezogen werden.
Abb.: Oliver Bendel mit Alpha Mini (Foto: Pascal Mora)
Der Chatbot @llegra, mit dem man im rätoromanischen Idiom Vallader kommunizieren kann, wurde im Jahre 2023 auf Basis von GPT-4 entwickelt. Er kann Text verarbeiten und ausgeben und verfügt dank einer Text-to-Speech-Engine von SlowSoft über eine Sprachausgabe. Zusätzlich wurde er mit einer manuell erstellten Wissensbasis ausgestattet. Darin finden sich Sätze aus Kinderbüchern, die von der Lia Rumantscha bereitgestellt wurden. Zur Seite stand immer wieder die FH Graubünden, mit der man kollegial verbunden ist. Nach Inside IT und Tages-Anzeiger hat nun SRF über das Projekt berichtet, das von Prof. Dr. Oliver Bendel initiiert wurde. Der Informations- und Maschinenethiker ist Sponsor des Low-Budget-Projekts. Implementiert hat den Prototyp sein Student Dalil Jabou, der zahlreiche technische Schwierigkeiten gemeistert hat. Es werden bis 11. August 2023 noch laufend Verbesserungen durchgeführt. Der Beitrag kann hier aufgerufen werden.
Abb.: Bei der Shift erwähnte Oliver Bendel den Chatbot bereits (Foto: Shift/Louis Rafael)
Ausgestorbene und gefährdete Sprachen werden in erster Linie durch Audiokonservierung und die Sammlung und Digitalisierung von Schriften bewahrt und durch gezielte Maßnahmen zum Spracherwerb gefördert. Eine weitere Möglichkeit wäre die Entwicklung von Conversational Agents, die diese Sprachen beherrschen. Damit hätte man einen interaktiven Gesprächspartner, mit dem man auf eine andere Art und Weise lernt. Der Chatbot @llegra, mit dem man im rätoromanischen Idiom Vallader kommunizieren kann, wurde im Jahre 2023 auf Basis von GPT-4 entwickelt. Er kann Text verarbeiten und ausgeben und verfügt über eine Sprachausgabe. Zusätzlich wurde er mit einer manuell erstellten Wissensbasis ausgestattet. Nach Inside IT hat nun der Tages-Anzeiger, die wichtigste Schweizer Zeitung neben der NZZ, über das Projekt berichtet, das von Prof. Dr. Oliver Bendel initiiert wurde. Der Informations- und Maschinenethiker ist auch Sponsor des Low-Budget-Projekts. Implementiert hat den Prototyp sein Student Dalil Jabou, der zahlreiche technische Schwierigkeiten gemeistert hat. Es werden bis 11. August 2023 noch laufend Verbesserungen durchgeführt. Der Artikel kann hier aufgerufen werden.
Am 14. Juli 2023 war die Abschlusspräsentation des Projekts „Little Teacher“, in dem Alpha Mini eine Hauptrolle spielt. Initiator war Prof. Dr. Oliver Bendel, der seit einem Vierteljahrhundert über Conversational Agents und soziale Roboter forscht. Andrin Allemann trug im Rahmen seiner Abschlussarbeit zum Projekt bei und hat die Implementierung durchgeführt. Alpha Mini ist in dieser Anwendung für die Schule oder das Lernen im Kinderzimmer gedacht. Er wurde mit einem Tablet bzw. Laptop (einem Microsoft Surface) verbunden. Er kann mit Hilfe von Bildern und Texten auf dem Display einfachen Lernstoff zu Geografie und Biologie vermitteln und die Kinder durch verbales, gestisches und mimisches Feedback motivieren. Es handelt sich also um einen kleinen Lehrer mit großen Möglichkeiten. Alpha Mini ist ein sozialer Roboter, der sich durch geringe Größe (und damit gute Transportfähigkeit) und weitgehende natürlichsprachliche und motorische Fähigkeiten auszeichnet. Er ist wesentlich günstiger als andere humanoide Roboter mit vergleichbaren Möglichkeiten. Allerdings hat er anders als Pepper kein integriertes Tablet. Im Projekt konnte gezeigt werden, dass eine Verbindung zwischen verschiedenen Komponenten einer Lernumgebung möglich ist und man damit Lernerfolg und Lernfreude unterstützen kann. Das Projekt war am 8. März 2023 gestartet. Projektabschluss ist am 11. August 2023. Bis dahin werden noch kleinere Fehler behoben und mehrere Tests durchgeführt. Die Ergebnisse werden in einem Paper veröffentlicht.
Seit März 2023 wird im Auftrag von Prof. Dr. Oliver Bendel der Chatbot @llegra für das rätoromanische Idiom Vallader entwickelt, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Entwickler Dalil Jabou hat auf das Sprachmodell GPT-4 gesetzt und alle wesentlichen technischen Probleme gelöst. Der Benutzer kann Text in Englisch, Deutsch oder Rätoromanisch eintippen und bekommt Text in Vallader ausgegeben. Zudem spricht @llegra das Idiom mit Hilfe eines Text-to-Speech-Systems der Firma SlowSoft aus Zürich. Ein kleiner Test mit einem Experten fand bereits statt und führte zu einer ersten Verbesserung. Oliver Bendel war am 9. Juli mit @llegra im Unterengadin unterwegs und suchte nach einer Testperson mit Vallader als Muttersprache. In Tarasp Fontana bei Scuol sprach er mehrere ältere Frauen an. Eine verwies auf eine Dame von vielleicht 78 Jahren, die sich in der Nähe befand und gerade vom Nordic Walking kam. Die Vallader-Sprecherin hörte sich die Antwort des Chatbots auf eine Frage zu Tarasp an und begann ungefragt, das Gesprochene ins Deutsche zu übersetzen. Dann wurde @llegra gefragt, ob sie Scuol kennt. Sie gab wiederum in Vallader eine längere Auskunft. Die ältere Dame bestätigte, dass die Aussprache gut und der Inhalt verständlich ist. Sie begann zu strahlen und fragte, ob es sich um künstliche Intelligenz handle. Oliver Bendel bestätigte dies, strahlte ebenfalls, fuhr weiter und ließ sich von @llegra in Scuol noch Informationen zum dortigen Museum d’Engiadina Bassa geben. Das Projekt wird im August 2023 abgeschlossen. Die Ergebnisse werden danach veröffentlicht.
Abb.: In einem Café beim Museum in Scuol mit @llegra
The Robotics Innovation Center (RIC) at the German Research Centre for Artificial Intelligence (DFKI) in Bremen wants to clear the seabed of discarded ammunition in the North Sea and Baltic Sea. This was reported by the online magazine Golem. The researchers are using the autonomous underwater vehicle Cuttlefish, developed at DFKI, as a test platform. According to Golem, the robot has been equipped with two deep-sea-capable gripper systems. These are designed to enable flexible handling of objects under water, even difficult objects such as explosive devices. The AI-based control system allows the robot to change its buoyancy and centre of gravity during the dive. According to the online magazine, the AUV is equipped with numerous sensors such as cameras, sonars, laser scanners, and magnetometers. This is how it is supposed to approach an object without colliding with it. The system will certainly be effective – whether it is efficient remains to be seen.
Das Schweizer Magazin Bref hat im Juni 2023 ein Interview mit Prof. Dr. Oliver Bendel abgedruckt. Es geht darin u.a. um künstliche Intelligenz, etwa um Sprachmodelle, die ChatGPT und Bildgeneratoren wie DALL-E zugrunde liegen – und eigenen Projekten wie @ve und @llegra. Mit diesen Chatbots sollen tote und gefährdete Sprachen wiederbelebt bzw. gerettet werden. In früheren Projekten pflanzten die Teams um Oliver Bendel den Chatbots im Kontext der Maschinenethik vor allem moralische Regeln ein. Gegen Ende des Interviews heißt es: „Wir sollten immer daran denken: Die KI ist ein Werkzeug. Wir haben es geschaffen und wir haben die Macht, es zu gestalten und zu kontrollieren. Als Maschinenethiker habe ich dafür gesorgt, dass unseren Chatbots moralische Regeln eingepflanzt werden, an die sie sich strikt halten. Sie erkennen Probleme des Benutzers, die wir vorausgesehen haben, verhalten sich ihm gegenüber moralisch adäquat und machen immer wieder deutlich, dass sie nur Maschinen sind. Das alles ist sehr verlässlich.“ Das Interview kann über brefmagazin.ch/artikel/der-digitale-graben-wird-durch-die-ganze-welt-gehen/ aufgerufen werden.
Abb.: Der Maschinenethiker Oliver Bendel (Foto: Shift/Louis Rafael)
For years there has been a trend to add social features to service robots, such as delivery, security and cleaning robots, and also to industrial robots, resulting in cobots. They do not usually become fully social robots, but they benefit from having eyes and mouths or making sounds – or from being able to get very close to people without hurting or hindering them. Amazon is riding this wave with its Proteus transport robot. It can be found in a huge department store in Reading, Massachusetts. A Wired editor writes about his first encounter with two Proteus models: „Their round eyes and satisfied grins are rendered with light emitting diodes. They sport small lidar sensors like tiny hats that scan nearby objects and people in 3D. Suddenly, one of them plays a chipper little tune, its mouth starts flashing, and its eyes morph into heart shapes. This means, I am told, that the robot is happy.“ (Wired, 26 June 2023) „Why would a robot be happy?“, asks the editor Sophie Li, a software engineer at Amazon. She explains that being able to express happiness can help Proteus work more effectively around people. „Proteus carries suitcase-sized plastic bins filled with packages over to trucks in a loading bay that is also staffed by humans. The robot is smart enough to distinguish people from inanimate objects and make its own decisions about how to navigate around a box or person in its path. But sometimes it needs to tell someone to move out of the way – or that it is stuck, which it does by showing different colors with its mouth. Li recently added the heart eyes to let Proteus also signal when it has completed a task as planned.“ (Wired, 26 June 2023) The market for real social robots is still in its infancy. Care and therapy robots, entertainment and toy robots, or sex robots – there is a constant up and down, with companies emerging and disappearing, products appearing and disappearing. It is uncertain whether all social robots will be needed. What is certain is that social features will help to improve modern industrial robots and classic service robots.
Das Buch „Soziale Roboter“ (Hrsg. Oliver Bendel) hat 200.000 Downloads erreicht, nach nur eineinhalb Jahren. Es besteht aus fünf Teilen: „Grundlagen, -begriffe und -fragen“, „Soziale Robotik und andere Disziplinen“, „Gestaltung, Interaktion und Kommunikation“, „Anwendungsbereiche sozialer Roboter“ und „Die Zukunft sozialer Roboter“. Es sind, das Vorwort mitgezählt, 30 Beiträge, mit ca. 35 Abbildungen, bei ca. 570 Seiten. Der Untertitel lautet: „Technikwissenschaftliche, wirtschaftswissenschaftliche, philosophische, psychologische und soziologische Grundlagen“. Mit dabei sind führende Experten und Expertinnen der Sozialen Robotik, der Robotik, der Künstlichen Intelligenz, der Soziologie, der Psychologie und der Philosophie. Sie lehren und forschen an Hochschulen in der Schweiz, in Deutschland, in Österreich, in Dänemark und in Schweden. Auch ein Hersteller ist vertreten, der über den Einsatz seines Produkts berichtet. Das Fachbuch ist Ende 2021 bei Springer Gabler erschienen und kann über link.springer.com/book/10.1007/978-3-658-31114-8 heruntergeladen oder bestellt werden. Zudem ist es in jeder Buchhandlung verfügbar.
Abb.: Oliver Bendel mit Pepper (Foto: Sara Zarubica)
Bar robots are mostly cobots, housed in a kiosk or behind the counter. They prepare coffee, as barista robots, or cocktails, as cocktail robots. Daily Mail Online reported on May 11, 2023: „New York City’s first coffee shop run by robot baristas is coming to Greenpoint, where a two-armed robot called ADAM will serve up potentially hundreds and hundreds of cups of coffee a day at Botbar.“ (Daily Mail Online, 11 May 2023) Two-armed bar robots are the exception so far. One of them is Toni from Makr Shakr. It accesses 158 different bottles hanging from the ceiling of the open bar and shakes and stirs the liquids. ADAM looks like an egg with a head. It has two extra-long arms with many degrees of freedom. „Beyond coffee-making, ADAM will have several other skills, including dancing for and waving at customers. The technological feat can produce up to 50 espresso drinks per hour. The new neighbor-hood haunt will also serve food.“ (Daily Mail Online, 11 May 2023) One of the few researchers investigating bar robots and other robots in the hospitality industry is Oliver Bendel. Together with Lea Peier, he presented the paper „How Can Bar Robots Enhance the Well-being of Guests?“ at the AAAI 2023 Spring Symposia in San Francisco. In it, two models developed and used in Switzerland were presented. A preprint is available here.
Am 20. Juni 2023 hält Prof. Dr. Oliver Bendel einen Onlinevortrag für LeLa, das Lernlabor Hochschuldidaktik für Digital Skills, ein Kooperationsprojekt der fünf Zürcher Hochschulen ETH Zürich, PHZH, UZH, ZHAW und ZHdK. „Ethische Implikationen generativer KI“ sind das Thema. Zunächst klärt der Technikphilosoph den Begriff der generativen KI (engl. „generative AI“). Dann stellt er aus Sicht von Informations- und Maschinenethik verschiedene Überlegungen zu diesem Bereich an, wobei er vor allem auf ChatGPT fokussiert. So ist die Frage, woher die Daten für das zugrunde liegende Sprachmodell kommen und unter welchen Bedingungen das Reinforcement Learning from Human Feedback abläuft. Zudem dürfte relevant sein, welche Daten man beim Prompt preisgibt und welche Prompts auf welche Art und Weise zurückgewiesen werden. Ein weiteres Problemfeld ist das Halluzinieren der Sprachmodelle bzw. der darauf basierenden Anwendungen. Diese verdrehen Fakten und erfinden Referenzen. Mit Visual ChatGPT soll man über Texteingaben Bilder generieren und dann einzelne Elemente editieren können. Solche und andere Bildgeneratoren wie DALL-E, Stable Diffusion und Midjourney werfen wiederum zahlreiche ethische Fragen auf. GPT-3 und GPT-4 bzw. ChatGPT sind nicht nur für bzw. als Chatbots und Contentgeneratoren relevant, sondern auch für Industrie- und Serviceroboter. In diesem Bereich hat indes vor allem das Sprachmodell PaLM-E Aufmerksamkeit erregt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Dabei sind wiederum Herausforderungen vorhanden, etwa mit Blick auf Verlässlichkeit und Haftung. Weitere Informationen zur Reihe „AI or what the ChatGPT“ über dizh.ch/event/was-sind-die-ethische-implikationen-generativer-ki/.
Abb.: Mit Midjourney erstelltes Bild einer Schnorchlerin
Am 26. Mai 2023 ist Heft 4/2023 der Zeitschrift messtec drives Automation erschienen. Darin enthalten ist der Beitrag „Die Mächtigkeit von Sprachmodellen“ von Prof. Dr. Oliver Bendel. Er geht auf Anwendungen ein, die man noch wenig kennt, die aber relevant sein werden für Service- und Industrieroboter und für Brain-Computer-Interfaces. In diesem Bereich hat vor allem das Sprachmodell PaLM-E für Aufmerksamkeit gesorgt. Indem Bilddaten und Daten zu Zuständen und Ereignissen integriert werden, werden Virtualität und Realität miteinander verbunden. Konkret kann der Benutzer mit Hilfe eines Prompts einem Roboter eine Anweisung geben, die dieser dann in seiner Umgebung ausführt, die er vorher beobachtet hat und weiter beobachtet. Aber nicht nur Google und TU Berlin forschen auf diesem Gebiet – in dem Paper „ChatGPT for Robotics“ hat auch Microsoft erste Ergebnisse vorgestellt. Sprachmodelle mit solchen Wahrnehmungs- und Steuerungsmöglichkeiten wären interessant für Lio und Optimus oder für soziale Roboter im Bildungsbereich, die nicht nur kommunizieren, sondern in vielfältiger Weise interagieren. Wichtig ist, dass den Fähigkeiten bei der Wahrnehmung und Steuerung entsprechende Fähigkeiten der Motorik gegenüberstehen. Der Zweiseiter kann über www.wileyindustrynews.com/messtec-drives-automation/messtec-drives-automation-04-23 heruntergeladen werden.
Abb.: Ein Ausschnitt aus der ersten Seite des Artikels
Conversational Agents sind seit einem Vierteljahrhundert ein Forschungsgegenstand von Prof. Dr. Oliver Bendel. Ihnen widmete er seine Doktorarbeit an der Universität St. Gallen. An der Hochschule für Wirtschaft FHNW entstanden sie von 2012 bis 2022 vor allem im Kontext der Maschinenethik und Sozialen Robotik. Der Technikphilosoph widmet sich nun verstärkt toten, ausgestorbenen und gefährdeten Sprachen. Nach @ve (2022), einem auf GPT-3 basierenden Chatbot für Latein, startete im März 2023 ein weiteres Projekt. Entwickelt wird der Chatbot @llegra von Dalil Jabou für das rätoromanische Idiom Vallader, das im Unterengadin zwischen Martina im Nordosten und Zernez im Südwesten sowie im Val Müstair auftritt und gefährdet ist. Der Benutzer kann Text eintippen und bekommt Text ausgegeben. Zudem spricht @llegra mit Hilfe eines Text-to-Speech-Systems der Firma SlowSoft, die das Projekt unterstützt. Das Sprachmodell GPT-3 brachte eher unbefriedigende Ergebnisse. Der Durchbruch kam dann mit der Verwendung von GPT-4. Die Wissensbasis wurde mit Hilfe von vier Kinderbüchern auf Vallader ergänzt. Das Projekt wird im August 2023 abgeschlossen. Die Ergebnisse werden danach veröffentlicht.
„Der Optimus ist wieder da: Tesla hat eine überarbeitete Version des humanoiden Roboters vorgestellt. Sie soll über mehr Fähigkeiten verfügen. Ein von Tesla zum Anleger-Meeting veröffentlichtes Video zeigt fünf der Roboter in Aktion. Die Roboter laufen deutlich sicherer als zuvor und sind auch zu feinfühligen Interaktionen fähig.“ (Golem, 17. Mai 2023) Dies berichtete Golem am 17. Mai 2023. Der Redakteur bezieht sich auf eine frühere Demonstration, wo Optimus sehr unsicher unterwegs war. Die Fortschritte werden mit der Verbesserung der Aktoren und mit der Unterstützung durch Menschen erklärt: „Diese lernen laut dem Video die Roboter mit Hilfe von Datenhandschuhen, Sensoren und Kameras an.“ (Golem, 17. Mai 2023) Das Design dürfte nach wie vor viele Benutzer abschrecken. Insbesondere der Kopf ohne Gesicht ist gewöhnungsbedürftig. Vielleicht werden Augen und Mund samt Mimik aber später digital umgesetzt. Das Video kann hier aufgerufen werden.
Die Maschinenethik kennt ganz unterschiedliche Ansätze. Man kann moralische Regeln und Werte in Systeme und Maschinen einpflanzen. Sie können vom Entwickler stammen oder von einer Ethikkommission. Sie können auch in einem mehrstufigen Verfahren von verschiedenen Interessengruppen entwickelt worden sein. Die Maschinen halten sich strikt an die moralischen Regeln und Werte – dies ist der Normalfall und der Fall bei Maschinen wie GOODBOT, BESTBOT oder HAPPY HEDGEHOG – oder passen sie selbst an. Wenn sie sie selbst anpassen, kann Machine Learning zum Einsatz kommen. Eine Ergänzung der klassischen moralischen Maschinen ist das Moralmenü, das dem Benutzer oder Besitzer die Auswahl verschiedener Optionen erlaubt. Bei Sprachmodellen gibt es ebenfalls mehrere Umsetzungen. Dass sie bestimmte Prompts verweigern, wurde ihnen i.d.R. einprogrammiert. Dass sie in eine bestimmte Richtung tendieren, etwa was Atomkraft angeht, kann am Reinforcement Learning from Human Feedback (RLFH) liegen. Das Unternehmen Anthropic, gegründet von ehemaligen Open-AI-Mitarbeitern, trainiert laut The Verge seinen Chatbot Claude – der auf einem Sprachmodell basiert – mit Hilfe von ethischen Prinzipien. Es greift u.a. auf die Allgemeine Erklärung der Menschenrechte der Vereinten Nationen und die Nutzungsbedingungen von Apple zurück. Es handelt sich laut Mitgründer Jared Kaplan um Constitutional AI – im Grunde nichts anderes als eine spezifische Methode der Maschinenethik. Er gibt zur Auskunft: „The basic idea is that instead of asking a person to decide which response they prefer [with RLHF], you can ask a version of the large language model, ‚which response is more in accord with a given principle?'“ (The Verge, 9 May 2023) Im Paper „Constitutional AI: Harmlessness from AI Feedback“ erklärt eine Forschergruppe um Yuntao Bai: „We experiment with methods for training a harmless AI assistant through self-improvement, without any human labels identifying harmful outputs. The only human oversight is provided through a list of rules or principles, and so we refer to the method as ‚Constitutional AI‘. The process involves both a supervised learning and a reinforcement learning phase.“ Das Paper erwähnt Maschinenethik nicht einmal – aber diese Disziplin wird durch die Anwendung bei Sprachmodellen einen weiteren Aufschwung erleben.
Abb.: Anthropic sitzt in San Francisco (Foto: Stefanie Hauske)
In January 2023, Google announced MusicLM, an experimental AI tool that can turn text descriptions (text prompts) into music. From 10 May 2023, one can sign up to try it out in the so-called AI Test Kitchen. The company gives examples of how to use the programme on its blog: „Just type in a prompt like ’soulful jazz for a dinner party‘ and MusicLM will create two versions of the song for you. You can listen to both and give a trophy to the track you like better, which will help improve the model.“ (Google Blog, 10 May 2023) Not all types of music will be possible. TechCrunch wrote in an article: „The version of MusicLM in AI Test Kitchen won’t generate music with specific artists or vocals.“ (TechCrunch, 10 May 2023) This is certainly to avoid legal problems. An AI-generated song in the style of The Weeknd and Drake recently caused a stir. It is likely that AI-generated music will be heard around the world. Whether this will be to our advantage remains to be seen.
Fig.: AI-generated music will be heard around the world
Hawaiian Host is the largest manufacturer of chocolate-covered macadamias in the world, with millions of boxes of the treats distributed around the globe. According to its website, the company „combines premium ingredients – handcrafted milk chocolate, dark chocolate, Hawaiian honey, Kona coffee, to name a few – with dry-roasted macadamias to create its signature delights“ (Website Hawaiian Host). Hawaiian Host has now taken a big step forward in packaging. Watch a video of Chris Rabago getting his first look at Cama’s new equipment. The robot, which is protected by glass walls in the video, allows the chocolate-covered macadamias to be packaged at high speed in a small space. This is important because rental and construction costs in Honolulu are very high and factory expansions are difficult and expensive. It’s actually several robots working together – it’s very effective and looks fascinating. How many workers this new level of automation will replace is unknown.