„Streaming … ist die Übertragung von Audio- bzw. Videodaten von einem Server auf einen Client, wobei die Wiedergabe umgehend erfolgt. Auf diese Weise kann etwa Musik gehört oder ein Film angesehen werden. Man unterscheidet On-Demand- und Livestreaming. Auf Anbieterseite finden sich Streamingportale und Mediatheken, auf Nachfragerseite ein Browser oder eine App auf Smartphones, Tablets, Notebooks oder Fernsehern.“ Mit diesen Worten beginnt ein Beitrag von Prof. Dr. Oliver Bendel, der am 28. April 2025 im Gabler Wirtschaftslexikon veröffentlicht wurde. Im zweiten Abschnitt wird auf die Geschichte und auf Beispiele eingegangen, im dritten die Perspektive der Ethik eingenommen: „Beim Streaming entsteht wie beim Download eine Kopie beim Client, die aber mehr oder weniger flüchtig ist. Es hat die Musik- und Filmbranche verändert, nicht immer zugunsten der Künstler und Produzenten, zudem den Konsum: Die Benutzer bauen i.d.R. keine Sammlungen mehr auf wie bei Schallplatten, CDs sowie MP3- und MP4-Dateien, sondern allenfalls Listen. Sie müssen sich oft Werbung gefallen lassen oder sich davon freikaufen. Medien- und Informationsethik untersuchen Chancen und Risiken von Streaming, etwa in Bezug auf Urheber- und Nutzungsrecht sowie Datenmissbrauch.“ Der vollständige Beitrag ist über wirtschaftslexikon.gabler.de/definition/streaming-173461 abrufbar.
Mit kAIxo kann man seit einiger Zeit auf Baskisch plaudern. Das Projekt zu dem sympathischen Chatbot fand am 9. Januar 2025 sein Ende. Nicolas Lluis Araya, der Entwickler, stellte kurz darauf ein Video bereit, über das man einen Einblick bekommt. Die Hochschule für Wirtschaft FHNW entwickelt unter der Leitung von Prof. Dr. Oliver Bendel seit mehreren Jahren Chatbots für tote, gefährdete und ausgestorbene Sprachen. Ein bekanntes Beispiel ist @llegra, ein Chatbot für Vallader. Am 12. Mai 2024 wurde eine erste Version von Adelina, einem Chatbot für Baskisch, erstellt. Dieser wurde später in einer zweiten Version verbessert. Im Rahmen des Projekts „kAIxo“ (das baskische „kaixo“ entspricht dem deutschen „Hallo“) wurde der gleichnamige Chatbot gebaut, der Baskisch spricht. Er basiert auf GPT-4o und Gemini 1.5 Flash, und der Benutzer kann sein bevorzugtes großes Sprachmodell (LLM) auswählen. Retrieval-augmented Generation (RAG) spielt eine zentrale Rolle. Es wird der ChatSubs-Datensatz verwendet, der Untertitel von Filmdialogen auf Baskisch enthält. Dank einer Text-to-Speech-Engine kann der Chatbot auch sprechen. Der Prototyp ist über www.kaixo.ch zugänglich.
In ihrer Bachelorarbeit „Imagining Tomorrow: Conceptualizing Switzerland’s Robot Park Experience“ (August 2024) untersucht Susmy Chakkaith die Chancen und Risiken eines Roboterparks in der Schweiz. Sie hat dafür Gespräche mit Experten geführt, technische und wirtschaftliche Betrachtungen angestellt und eine 3D-Simulation erstellt. Die Arbeit ist Teil des von Oliver Bendel initiierten Projekts „A Robot Park for Switzerland“. Seit 2020 werden Ideen für einen solchen Roboterpark gesammelt, u.a. mit dem Ziel, andere Wissenschaftler und mögliche Sponsoren zu interessieren. Die Investitionen für den Bau und Betrieb wären, wie die Bachelorarbeit zeigt, beträchtlich. Dafür kämen nur große Player in Frage, etwa die United Robotics Group, hinter der die RAG-Stiftung steht. In einem Roboterpark könnten Besucher eigene Erfahrungen mit Robotern sammeln und realistische Vorstellungen zu ihren Möglichkeiten entwickeln. Ein Promotionvideo von Susmy Chakkaith zeigt einige der geplanten Installationen und Attraktionen.
Abb.: So stellt sich DALL-E 3 einen Roboterpark vor
Am 30. Januar 2024 wurde ein Video veröffentlicht, das ein dokumentarischer Zusammenschnitt der interdisziplinären Tagung „KI – Text und Geltung. Wie verändern KI-Textgeneratoren wissenschaftliche Diskurse?“ ist. Diese fand am 25. und 26. August desselben Jahres an der TU Darmstadt statt, unter der Leitung von Prof. Dr. Gerhard Schreiber und Apl. Prof. Dr. Lukas Ohly. Sie war Teil des Ad-hoc-Projekts „Diskurse disruptiver digitaler Technologien am Beispiel von KI-Textgeneratoren des Zentrums verantwortungsbewusste Digitalisierung (ZEVEDI)“. Das Video kann über zevedi.de/themen/ki-text/#video-ger aufgerufen werden. Es stehen deutsche und englische Untertitel zur Verfügung. Zu sehen und zu hören sind u.a. Prof. Dr. Doris Weßels (Fachhochschule Kiel), Prof. Dr. Oliver Bendel (Fachhochschule Nordwestschweiz) und Prof. Dr. Christian Stöcker (Hochschule für Angewandte Wissenschaften Hamburg).
Abb.: Oliver Bendel bei seinem Vortrag an der TU Darmstadt
Zum Projekt „ANIFACE: Animal Face Recognition“ liegt nun ein Video vor, das die Grundzüge des Systems erklärt. Erstellt wurde es von Ali Yürekkirmaz. Prof. Dr. Oliver Bendel hatte 2021 an der Hochschule für Wirtschaft FHNW das Thema ausgeschrieben und die Wahl gelassen, ob es um Wölfe oder Bären gehen sollte. Ali Yürekkirmaz nahm den Auftrag an und konzipierte in seiner Abschlussarbeit ein System, mit dem man in den Alpen – ohne elektronische Halsbänder oder implantierte Microchips – einzelne Bären identifizieren und entsprechende Maßnahmen einleiten könnte. Es stehen, so die Idee, in bestimmten Gebieten entsprechende Kamera- und Kommunikationssysteme bereit. Wenn ein Bär identifiziert ist, wird eruiert, ob er als harmlos oder gefährlich gilt. Dann werden die zuständigen Stellen oder direkt die Betroffenen informiert. Spaziergänger können vor den Aufnahmen gewarnt werden – es ist aber auch technisch möglich, ihre Privatsphäre zu schützen. In einem Expertengespräch mit einem Vertreter von KORA konnten wichtige Erkenntnisse zur Wildtierbeobachtung und speziell zur Beobachtung von Bären gewonnen werden, und eine Umfrage hat die Haltung von Teilen der Bevölkerung in Erfahrung gebracht. Aufbauend auf der Arbeit von Ali Yürekkirmaz, die im Januar 2022 abgegeben wurde, könnte ein Algorithmus für Bären entwickelt und ein ANIFACE-System in den Alpen implementiert und evaluiert werden.
„Ein Bild sagt bekanntlich mehr als tausend Worte. Und bewegte Bilder, also Videos, gelten noch immer als untrüglicher Beweis dafür, dass sich etwas genau so abgespielt hat, wie es im Film zu sehen ist. Mit dieser Gewissheit ist es jetzt allerdings vorbei. Leistungsfähige Verfahren der künstlichen Intelligenz (KI) erlauben mittlerweile die Herstellung von so perfekten Fälschungen, dass mit bloßem Auge nicht mehr zu erkennen ist, ob ein Video echt oder manipuliert ist. In sogenannten Deep-Fake-Videos sagen oder tun Personen Dinge, die sie niemals sagen oder tun würden.“ (Die Welt, 1. August 2019) Mit diesen Worten beginnt der Artikel „Künstliche Intelligenz könnte Kriege auslösen“ von Dr. Norbert Lossau in der Welt. Zu Wort kommt der Informations- und Maschinenethiker Prof. Dr. Oliver Bendel, der sich aus technischer und philosophischer Perspektive mit Deepfakes bzw. Deep Fakes beschäftigt hat. Der Artikel ist am 1. August 2019 in der gedruckten Ausgabe erschienen. Er steht in mehreren Ausgaben und in elektronischer Form in deutscher und englischer Sprache zur Verfügung.