Ethikkommissionen bilden sich zu Informations- und Maschinenethik weiter

Die Mitglieder der Ethikkommissionen der Schweiz sind zu der diesjährigen Weiterbildung mit dem Thema „Künstliche Intelligenz in der Humanforschung – Wissenschaftliche, rechtliche und ethische Herausforderungen“ ins Landesmuseum Zürich eingeladen. Die Veranstaltung wird durchgeführt von swissethics, der Dachorganisation der Kantonalen Ethikkommissionen. Sie wird eröffnet von Prof. Dr. Julia Vogt (ETH Zürich). Ihr Vortrag trägt den Titel „Künstliche Intelligenz: eine wissenschaftliche Herausforderung in der Forschung“. Danach spricht Prof. Dr. med. Adrian Egli (Universitätsspital Basel) über „Herausforderungen künstlicher Intelligenz in der Mikrobiologie“. Nach der Pause geht es um „Apps, Algorithmen und Roboter in der Medizin: Haftungsrechtliche Herausforderungen“ – das Gebiet von Prof. Dr. iur. Corinne Widmer Lüchinger (Universität Basel). Den Abschluss bildet der Vortrag von Prof. Dr. oec. HSG Oliver Bendel (Hochschule für Wirtschaft FHNW) mit dem Titel „Therapie- und Pflegeroboter: Ethische Herausforderungen“. Das Programm kann hier aufgerufen werden. Weitere Informationen über www.swissethics.ch/aus-fortbildung/fuer-ek-mitglieder.

Abb.: In einem Labor

Wird die Maschine den Menschen überholen?

„Wer hat Angst vor der KI?“ Dieser Frage geht Carmen Gräf am 16. Juli 2020 von 22 bis 23 Uhr bei RBB Kultur nach. „Erst lernten die Computer rechnen, dann organisieren, analysieren, sprechen und schließlich – denken. Dank Künstlicher Intelligenz. Nun ist die Forschung dabei, den Computern auch das Fühlen beizubringen. Eine neue Stufe Künstlicher Intelligenz entsteht. Das sorgt für jede Menge Hoffnung und Euphorie, aber auch für Angst und Unbehagen. Wird die Maschine den Menschen überholen oder kann der Mensch die digitalen Potentiale sinnvoll nutzen? Ein Einblick in aktuelle Diskussionen, Forschungen und Anwendungen.“ (Website RBB Kultur) Erwähnt werden auch die Entwicklungen des Informations- und Maschinenethikers Oliver Bendel, konkret der LIEBOT, der systematisch die Unwahrheit sagt, und HAPPY HEDGEHOG, der igelfreundliche Rasenmähroboter. Die Sendung ist ein Jahr lang in der ARD-Mediathek abrufbar. Weitere Informationen sind hier erhältlich.

Abb.: Hiroshi Ishiguro und seine Erica

Hi, AI

Kinofenster ist ein Projekt der Bundeszentrale für politische Bildung (bpb). Es wurde 1996 als Printmagazin initiiert. Im Jahre 2000 erfolgte die Umstellung zu einem Onlineangebot. Der aktuelle Schwerpunkt im Juli 2020 widmet sich, ausgehend von dem Film „Hi, AI“, künstlicher Intelligenz und moralischen Maschinen. „Humanoide Roboter sind nicht mehr nur Science Fiction. Im Dokumentarfilm Hi, AI beobachtet Regisseurin Isa Willlinger den Einzug solcher menschenähnlicher Maschinen in unseren Alltag. Begleitend zum Film stellt eine Sequenzanalyse drei Visionen von künstlerischer Intelligenz und ein Hintergrundtext das Motiv des Androiden-Roboters im Kino vor. Zudem sprechen wir mit Kate Darling und Oliver Bendel über Chancen und Gefahren künstlicher Intelligenz.“ (Website Kinofenster) In „Hi, AI“ tritt übrigens Harmony auf, ein bekannter Sexroboter. Er begleitet einen Trucker bei einem Roadtrip durch die USA. Die Interviews und die Materialien sind über www.kinofenster.de abrufbar.

Abb.: Henry, der Bruder von Harmony (Foto: Realbotix)

Onlinebefragung zu Umarmungen durch Roboter und von Robotern

Umarmungen und Berührungen durch soziale Roboter fühlen sich anders an als solche durch Menschen. Wärme und Weichheit helfen dabei, die Akzeptanz zu verbessern. Und dennoch ist der Effekt nicht derselbe. Grundsätzlich ist wichtig, dass uns eine andere Person umarmt, also wir das nicht selbst tun, und diese Person in einem bestimmten Verhältnis zu uns steht. Sie kann uns vertraut oder fremd sein, und es sollte ein Vertrauen, ein Interesse oder eine Begierde vorhanden sein. Wie es sich bei einem Roboter verhält, muss mit Blick auf das Modell und die Situation untersucht werden. An der Hochschule für Wirtschaft FHNW läuft derzeit das mehrstufige HUGGIE-Projekt unter der Leitung von Prof. Dr. Oliver Bendel, inspiriert von Arbeiten von Ishiguro (Hugvie) und Forschung im Zusammenhang mit dem HuggieBot. Den Auftakt macht eine Onlinebefragung im ganzen deutschsprachigen Raum von Ümmühan Korucu und Leonie Brogle, über die Erkenntnisse dazu gewonnen werden sollen, wie Menschen jeden Alters und jeden Geschlechts eine Umarmung durch einen sozialen Roboter beurteilen. Bei Krisen, Katastrophen und Pandemien, die mit längerer Isolation einhergehen, könnten Ersatzhandlungen dieser Art durchaus eine Rolle spielen. Auch Gefängnisse und längere Reisen durch den Weltraum sind mögliche Anwendungsgebiete. Über ww3.unipark.de/uc/HUGGIE/ gelangt man zur Befragung (bis ca. Mitte Mai). In einer späteren Phase des Projekts soll ein sozialer Roboter gebaut werden, dessen Umarmungen als angenehm empfunden werden. Dies bedeutet aber nicht, dass man solche durch Menschen im Alltag verdrängen will.

Abb.: Bäume umarmen einen nicht, aber man kann sie umarmen

Von HTML, SSML und AIML zu MOML

Es existieren mehrere Markup Languages. Die bekannteste ist sicherlich die Hypertext Markup Language (HTML). Im Bereich der KI hat sich AIML etabliert. Für synthetische Stimmen wird SSML eingesetzt. Die Frage ist, ob damit die Möglichkeiten mit Blick auf autonome Systeme ausgeschöpft sind. In dem Beitrag „Das Moralmenü: Moralische Maschinen mit einer Stellvertretermoral“ von Prof. Dr. Oliver Bendel wurde zum ersten Mal eine Morality Markup Language (MOML) vorgeschlagen. Eine Studienarbeit unter der Betreuung des Informations- und Maschinenethikers hat 2019 untersucht, welche Möglichkeiten bestehende Sprachen hinsichtlich moralischer Aspekte haben und ob eine MOML gerechtfertigt ist. Die Ergebnisse wurden im Januar 2020 vorgestellt. Eine Bachelorarbeit an der Hochschule für Wirtschaft FHNW geht ab Ende März 2020 einen Schritt weiter. In ihr sollen Grundzüge einer Morality Markup Language erarbeitet werden. Es sollen die Grundstruktur und spezifische Befehle vorgeschlagen und beschrieben werden. Es sind die Anwendungsbereiche, Vorteile und Nachteile einer solchen Markierungssprache darzustellen. Auftraggeber der Arbeit ist Prof. Dr. Oliver Bendel, Betreuerin Dr. Elzbieta Pustulka.

Abb.: Von HTML, SSML und AIML zu MOML

Wirtschaftliche und technische Implikationen von COVID-19

Im Gabler Wirtschaftslexikon ist am 25. Februar 2020 ein Beitrag von Oliver Bendel zu COVID-19 erschienen. Darin werden auch wirtschaftliche und technische Implikationen gestreift. So heißt es in einem Abschnitt: „COVID-19 führte vor Augen, dass Digitalisierung und Technologisierung hilfreich bei Krisen und Katastrophen sein können. In China lieferten Serviceroboter in Spitälern und auf Quarantänestationen Medikamente und Nahrungsmittel aus, und Drohnen spürten Personen ohne Atemmaske auf. Wer in Krisengebieten zuhause bleiben musste, konnte über einen Computerarbeitsplatz und elektronische Lernanwendungen weiterhin seinen Aufgaben nachkommen und sich weiterbilden. Globalisierung ist ein Motor der Verbreitung des Virus, aber auch ein Faktor bei seiner Bekämpfung: Umgehend wurde weltweit an einem Medikament gegen SARS-CoV-2 geforscht.“ Der Technikphilosoph ist der Meinung, dass sich in Zukunft immer mehr Krisen und Katastrophen ereignen und sich möglichst viele Länder mit Kohorten von Robotern ausstatten sollten, um die Herausforderungen zu meistern. Insbesondere sind Sicherheits-, Transport- und Pflegeroboter sowie Desinfektionsroboter gefragt. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/covid-19-122147 abgerufen werden.

Abb.: In der U- und S-Bahn herrscht Ansteckungsgefahr

Digitalisierung und Ethik in Medizin und Gesundheitswesen

Im Februar oder März 2020 erscheint das Buch „Digitalisierung und Ethik in Medizin und Gesundheitswesen“ (Hrsg. Prof. Dr. Stefan Heinemann und Prof. Dr. David Matusiewicz). Es enthält Beiträge u.a. von Dr. Ulrich Eberl, Dr. Henri Michael von Blanquet, Dr. Julia Schäfer, Dr. Barbara Buchberger, Prof. Dr. med. Klaus Juffernbruch, Prof. Dr. Jochen A. Werner und Prof. Dr. Oliver Bendel. Aus der Verlagsinformation: „Wenn digitale Technologien wie künstliche Intelligenz, Blockchain und Robotik auf die Medizin treffen, entstehen zwangsläufig ethische Fragestellungen. Diese lassen sich nicht ohne Weiteres mit medizinisch-technologischen, rechtlichen oder ökonomischen Argumenten allein beantworten. Dabei kommen stetig neue, drängende Themenfelder hinzu, die eben auch unter ethischen Aspekten beachtlich sind: die sich wandelnde Rolle der Patienten, die neue Verantwortung von Ärzten und Pflegenden, neue digitale Möglichkeiten in der Medizin, die gesellschaftliche Legitimität eines möglichen dritten Datengesundheitsmarktes, eine zukunftsfeste Ausbildungslandschaft für den Gesundheits-/Medizinbereich, Grenzen der digitalen Forschung, Ethik der Smart Hospitals im Klinikalltag und viele mehr.“ (Website MWV) Weitere Informationen über www.mwv-berlin.de/produkte/!/title/digitalisierung-und-ethik-in-medizin-und-gesundheitswesen/id/636.

Abb.: Paro zieht die Menschen an (Bild: Daimler und Benz Stiftung)

Mein Freund, der Neon

Die Firma Neon greift mit ihren Neons ein altes Konzept auf, nämlich das der Avatare. Im Lexikon für Wirtschaftsinformatik unterschied Oliver Bendel vor zwanzig Jahren zwischen zwei verschiedenen Typen. Zum zweiten schrieb er: „Avatare können zum anderen eine beliebige Figur mit bestimmten Funktionen repräsentieren. Solche Avatare treten – beispielsweise als Kundenberater und Nachrichtensprecher – im Internet auf oder bevölkern als Spielpartner und -gegner die Abenteuerwelten von Computerspielen. Sie haben häufig ein anthropomorphes Äußeres und eigenständige Verhaltensweisen oder sogar regelrechte Charaktere …“ (Lexikon der Wirtschaftsinformatik, 2001) Genau diesen Typ greift nun die Firma auf, die zum Samsung-Konzern gehört und von Pranav Mistry gegründet wurde, wobei man freilich die heutigen Möglichkeiten nutzt. „Es handelt sich um virtuelle Figuren, die komplett am Computer erzeugt werden und quasi in Echtzeit autonom reagieren sollen; Mistry sprach von unter 20 Millisekunden Latenz.“ (Heise Online, 8. Januar 2019) Die Neons sollen Emotionen zeigen, wie auch einige soziale Roboter, die den Markt erobern, und damit Bindungen erleichtern und festigen. „Der KI-getriebene Charakter sei weder Sprachassistent a la Bixby noch eine Schnittstelle ins Internet. Es sei stattdessen ein Freund, der mehrere Sprachen spricht, neue Skills lernen und sich mit anderen Services verbinden kann, erklärte Mistry auf der CES.“ (Heise Online, 8. Januar 2019)

Abb.: Neons sollen Gefühle zeigen, die sie nicht haben

Praktische Nutzung von KI in Versicherungen

Die Euroforum-Konferenz „Automatisation & Data Analytics: Praktische Nutzung von KI in Versicherungen“ findet am 12. und 13. März 2020 in München statt. „Robotics und KI gesteuerte Prozessautomatisierung bieten der Assekuranz sowohl im Antrags- als auch Schadenmanagement die Chance zur Erhöhung von Qualität, Effizienz und Kundenzufriedenheit. Am ersten Konferenztag stellen Experten der Versicherer Allianz, VKB, Cosmos, Gothaer und das Start-up Joonko erfolgreiche Automatisierungsprojekte vor, berichten über ihre Umsetzungserfahrungen und geben Tipps und Tricks.“ (Website Konferenz) „Zukünftig wird ein Versicherer, der es schafft, eine gute Datenaufbereitung, -Qualität und -Sicherheit herzustellen, entscheidende Wettbewerbsvorteile haben. Doch bisher hängen die Daten der Versicherer unstrukturiert in Silos fest und können nicht für KI-Systeme genutzt werden. Am zweiten Konferenztag zeigen Experten von Google, Allianz, Markel, Coya und getsafe auf, wie Versicherer ihre Datensilos aufbrechen und aktivieren können.“ (Website Konferenz) Auch Wissenschaftlerinnen und Wissenschaftler geben Input. Dr. Andrea Cornelius spricht über die „Einführung von KI-Projekten“, Prof. Dr. Oliver Bendel über „KI und Big Data in der Versicherung aus ethischer Sicht“. Der Flyer kann hier heruntergeladen werden.

Abb.: Die Veranstaltung findet in München statt

KI in der Ethik

Auf Bayern 2 ging es am 17. Oktober 2019 um „KI in der Ethik“. „Wer ist dafür verantwortlich, wenn ein autonom fahrendes Auto in eine Menschenmenge rast? Wie gehen wir damit um, wenn Algorithmen darüber entscheiden, ob jemand zu einem Bewerbungsgespräch eingeladen wird? Und was bedeutet es, wenn zukünftig Softwareprogramme festlegen, ob ein Kredit vergeben werden soll oder nicht? Wollen wir, dass Maschinen nach messbarer Faktenlage entscheiden, wer eine lebensrettende Operation bekommt und wer nicht? Künstliche Intelligenz wird immer häufiger in Bereichen eingesetzt, die mehr Übersicht erfordern als ein streng regelkonformes Vorgehen. Vor allem, wenn Maschinen mit Menschen kommunizieren, interagieren oder zusammenarbeiten sollen. Nach welchen ethischen Vorgaben sollen sie programmiert werden? Welche moralischen roten Linien sind dabei für uns in welchem Zusammenhang nicht zu überschreiten? Und mit welcher Begründung?“ (Website Bayern 2) Befragt wurde für den Beitrag, der über www.br.de/radio/bayern2/programmkalender/ausstrahlung-1909066.html abgerufen werden kann, u.a. der Informations- und Maschinenethiker Oliver Bendel.

Abb.: KI in der Ethik

Ein Ethikzentrum für die digitale Gesellschaft?

Laut NZZ und anderen Medien soll Genf „ein Ethikzentrum für die digitale Gesellschaft werden“ (NZZ, 15. August 2019). Am 2. September soll beim Swiss Global Digital Summit eine neue „Plattform“ gegründet werden, präsidiert von der ehemaligen Bundesrätin Doris Leuthard (CVP), heute u.a. Verwaltungsrätin der Bell Food Group AG, einer Fleischverarbeiterin. Führungsleute von „namhaften Unternehmen“ hätten sich angemeldet, unter ihnen „die CEO von Adecco, Credit Suisse, UBS, Migros, Roche, SwissRe, Zurich Insurance, Swisscom und SBB“ (NZZ, 15. August 2019). Mit dabei seien auch die Präsidenten der Hochschulen ETHZ und EPFL sowie Vertreter aus den Chefetagen von Google, Huawei, IBM, Microsoft, Uber und Siemens. Die Grundhaltung und Stoßrichtung wird offenbar klar und deutlich vorgegeben. Es geht laut NZZ „darum, im optimistischen Geist des technischen Fortschritts ethische Standards zu formulieren, um die heiklen Aspekte der rasanten Entwicklung zu meistern“. „Stichworte dafür sind künstliche Intelligenz, die Automatisierung sowie die Ansammlung und Verwendung persönlicher Daten. Dafür sollen Lösungen im marktwirtschaftlich-freiheitlichen Sinn gefunden werden, die eine internationale Strahlkraft entwickeln.“ (NZZ, 15. August 2019) Wie auf EU-Ebene besteht die Gefahr der Instrumentalisierung der Ethik und der Vereinnahmung der Wissenschaft durch politische und wirtschaftliche Kräfte. Als Moralphilosoph wird man der Einrichtung eher skeptisch gegenüberstehen.

Abb.: Genf soll ein Ethikzentrum werden

Das Ende der Verlässlichkeit der Videos

„Ein Bild sagt bekanntlich mehr als tausend Worte. Und bewegte Bilder, also Videos, gelten noch immer als untrüglicher Beweis dafür, dass sich etwas genau so abgespielt hat, wie es im Film zu sehen ist. Mit dieser Gewissheit ist es jetzt allerdings vorbei. Leistungsfähige Verfahren der künstlichen Intelligenz (KI) erlauben mittlerweile die Herstellung von so perfekten Fälschungen, dass mit bloßem Auge nicht mehr zu erkennen ist, ob ein Video echt oder manipuliert ist. In sogenannten Deep-Fake-Videos sagen oder tun Personen Dinge, die sie niemals sagen oder tun würden.“ (Die Welt, 1. August 2019) Mit diesen Worten beginnt der Artikel „Künstliche Intelligenz könnte Kriege auslösen“ von Dr. Norbert Lossau in der Welt. Zu Wort kommt der Informations- und Maschinenethiker Prof. Dr. Oliver Bendel, der sich aus technischer und philosophischer Perspektive mit Deepfakes bzw. Deep Fakes beschäftigt hat. Der Artikel ist am 1. August 2019 in der gedruckten Ausgabe erschienen. Er steht in mehreren Ausgaben und in elektronischer Form in deutscher und englischer Sprache zur Verfügung.

Abb.: Das Ende der Verlässlichkeit der Videos

Zur Aufgabe der Ethik

Am 18. Juli 2019 war Oliver Bendel zu Gast beim KIT. Die renommierte Universität in Karlsruhe verfolgte in ihrem Colloquium Fundamentale ein Semester lang „die stille Revolution der KI-Technologien“. Den Schlusspunkt setzte der Informations- und Maschinenethiker aus Zürich. Er stellte zunächst die Frage, ob Ethik eine Wissenschaft ist, und gab die Antwort: Sie ist es, wenn sie wissenschaftliche Methoden benutzt. Wenn sie wiederum eine Wissenschaft sei, sei ihre Aufgabe nicht, das Gute in die Welt zu bringen, sondern das Gute und Böse zu untersuchen. Ihre Aufgabe sei die jeder Wissenschaft, nämlich Erkenntnisgewinn und -vermittlung. Danach präsentierte Oliver Bendel mehrere Serviceroboter, Chatbots und Sprachassistenten und diskutierte sie aus den Perspektiven von Informations- und Maschinenethik. Immer wieder ging er auf eigene Projekte an seiner Hochschule ein. Dort entsteht bis Ende des Jahres das siebte Artefakt der Maschinenethik, die siebte moralische Maschine, um diesen Terminus technicus zu benutzen. Er schloss an seine Gedanken vom Anfang des Vortrags an: Die Maschinenethik dürfe nicht nur moralische, sondern auch unmoralische Maschinen hervorbringen, um diese zu erforschen. Manche von ihnen sollte man aber besser im Labor lassen. Am Ende erörterte er die Möglichkeit einer Supermoral (Supermorality), die die Moral der Menschen hinter sich lässt, wie die Superintelligenz (Superintelligence) unsere Intelligenz. Er anerkannte die Vorteile, die eine solche mit sich brächte, auch angesichts des Leids, das wir weltweit verursacht haben, strich aber vor allem mögliche Nachteile heraus.

Abb.: Oliver Bendel bei seinem Vortrag am KIT (Foto: KIT-ZAK/Felix Grünschloß)

Maschinenethik und KI am KIT

Die Künstliche Intelligenz hat zunächst die menschliche oder tierische Intelligenz als Referenz und versucht, sie in bestimmten Aspekten abzubilden. Sie kann zudem anstreben, von der menschlichen oder tierischen Intelligenz abzuweichen, etwa indem sie mit ihren Systemen die Probleme anders löst. Die Maschinenethik widmet sich der maschinellen Moral, bringt sie hervor und untersucht sie. Ob man die Begriffe und Methoden der Maschinenethik mag oder nicht – man muss anerkennen, dass neuartige autonome Maschinen entstehen, die in einem gewissen Sinne vollständiger als frühere erscheinen. Es verwundert fast, dass sich die künstliche Moral nicht viel früher zur künstlichen Intelligenz gesellt hat. Nun scheinen vor allem Maschinen, die menschliche Intelligenz und menschliche Moral für überschaubare Anwendungsbereiche simulieren, eine gute Idee zu sein. Aber was ist, wenn eine Superintelligenz mit einer Supermoral eine neue Art bildet, die der unseren überlegen ist? Das ist natürlich Science-Fiction. Aber auch etwas, das manche Wissenschaftler erreichen wollen. Prof. Dr. Oliver Bendel aus Zürich stellt in seinem Vortrag am 18. Juli 2019 ab 18:30 Uhr am KIT gegenwärtige Entwicklungen und künftige Möglichkeiten vor und nimmt eine kritische Einordnung vor. Er schließt damit das Colloquium Fundamentale des Sommersemesters ab. Weitere Informationen über www.zak.kit.edu/colloquium_fundamentale.

Abb.: Maschinenethik und KI

Chancen und Risiken des autonomen Fahrens

„Chancen und Risiken: KI & Autonomes Fahren“ – so der Titel eines Beitrags im Spektrum der Wissenschaft. In einem fast zwanzigminütigen Video wird der Vortrag von Oliver Bendel gezeigt, den er bei der Veranstaltung „KI & Autonomes Fahren“ am 13. Mai 2019 im Max-Planck-Institut für intelligente Systeme gehalten hat. Die Reihe „Gehirn der Zukunft“, die den Rahmen bildete, wird von der Gemeinnützigen Hertie-Stiftung getragen. Zunächst sprachen Dr. Emanuela Bernsmann von der Gemeinnützigen Hertie-Stiftung und Dr. Katherine J. Kuchenbecker vom Max-Planck-Institut für intelligente Systeme ein Grußwort. Dann trugen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) vor. Oliver Bendel stellte in seinem Vortrag zehn Thesen auf und führte passende Beispiele an. Sein Fazit lautete: „Die Informationsethik kann Chancen und Risiken des automatisierten und autonomen Fahrens herausarbeiten, und sie kann Konflikte erkennen und angehen, etwa indem sie einen Diskurs zwischen Interessengruppen begleitet. Mit Hilfe der Maschinenethik wäre es möglich, automatisierte und autonome Autos in moralische Maschinen zu verwandeln. Diese könnten bei Tieren qualifizieren und quantifizieren, was sie bei Menschen nicht tun sollten.“

Abb.: Chancen und Risiken des autonomen Fahrens

„Stimmen der Bibliothek“ zur Maschinenethik

„Stimmen der Bibliothek“ widmet sich in einem neuen Podcast dem Thema „Künstliche Intelligenz, Robotik und Maschinenethik“. Auf der Website heißt es: „Künstliche Intelligenz (KI) wird zum Bestandteil unseres Arbeits- und Lebensalltags: Intelligente Objekt- und Mobilitätssteuerung, kooperative Roboter in der Industrie, KI bei der Sprachsteuerung mittels Assistenten … Zu verbreiteten Lösungen in Produktion und Logistik treten vermehrt Szenarien und Anwendungen aus dem Service- und Dienstleistungsbereich hinzu: KI im Personalmanagement, bei der Verbrechensbekämpfung oder in Medizin, Pflege und Therapie, ergo Bereichen mit starken sozialen Interaktionen sowie besonderen Anforderungen an Datenschutz und Privatheit. Wo stehen wir im Bereich der KI und sozialen Robotik, welche Auswirkungen kann dies auf die Gesellschaft bringen und welche Bedeutung spielen hierbei ethische Grundsätze?“ (Website Stabi) Und weiter: „Hören Sie im Interview mit Oliver Bendel, Professor für Wirtschaftsinformatik, Roboterphilosoph und Sachverständiger des Deutschen Bundestages, wie KI-Entwicklungen unser Leben bestimmen (werden) und wie sie Gegenstand in Forschung und Lehre sind … Das Gespräch wurde am 21. Mai 2019 von Heinz-Jürgen Bove, Fachreferent für Sozialwissenschaften an der Staatsbibliothek zu Berlin, durchgeführt.“ (Website Stabi)

Abb.: In der Staatsbibliothek (Foto: SBB-PK/C. Kösser)

Oxford-Institut für Ethik und KI

„Die britische Elite-Universität Oxford hat eine Spende in Höhe von 150 Millionen Pfund (rund 168 Millionen Euro) von US-Milliardär Stephen A. Schwarzman erhalten.“ (SPON, 19. Juni 2019)  Mit der höchsten Einzelspende in der Geschichte der Hochschule solle das „Stephen A. Schwarzman Centre“ für Geisteswissenschaften entstehen. Dies meldete der Spiegel am 19. Juni 2019. Weiter heißt es: „In dem Gebäude sollen unter anderem die Fakultäten für … Geschichts- und Sprachwissenschaften, Philosophie, Musik und Theologie zusammengelegt werden. Rund ein Viertel aller Oxford-Studenten sind in diesen Fächern eingeschrieben. Zusätzlich soll dort ein neues Institut für Ethik im Umgang mit Künstlicher Intelligenz entstehen, wie die Universität mitteilte.“ (SPON, 19. Juni 2019) Der Schwerpunkt scheint auf Informations- und Roboterethik zu liegen. Schwarzman selbst sagte laut Spiegel, Universitäten müssten dabei helfen, ethische Grundsätze für den schnellen technologischen Wandel zu entwickeln. Über die Herkunft der Mittel wird debattiert. Weitere Informationen über www.spiegel.de/lebenundlernen/uni/oxford-elite-uni-erhaelt-150-millionen-pfund-spende-a-1273161.html.

Abb.: An der University of Oxford

Müssen Porsche-Fahrer künftig ins Reservat?

Vier Experten für Künstliche Intelligenz, Robotik, Neurowissenschaft bzw. Moralphilosophie referierten und diskutierten am 13. Mai 2019 im Max-Planck-Institut für intelligente Systeme. Die Reihe „Gehirn der Zukunft“, die den Rahmen bildete, wird von der Gemeinnützigen Hertie-Stiftung getragen. Bei der Veranstaltung „KI & Autonomes Fahren“ war der Hörsaal mit seinen 400 Plätzen gut gefüllt. Zunächst sprachen Dr. Emanuela Bernsmann von der Gemeinnützigen Hertie-Stiftung und Dr. Katherine J. Kuchenbecker vom Max-Planck-Institut für intelligente Systeme ein Grußwort. Dann trugen Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW), Dr. Corinna Bernarding (Universität des Saarlandes), Prof. Dr. Andreas Geiger (Max-Planck-Institut für intelligente Systeme) und Dr. Sebastian Söhner (Porsche AG) vor. Die Podiumsdiskussion moderierte Dr. Marco Dettweiler von der Frankfurter Allgemeinen Zeitung. Über die Veranstaltung berichteten mehrere Zeitungen, etwa die Stuttgarter Zeitung („Müssen Porsche-Fahrer künftig ins Reservat?“) und der General-Anzeiger Reutlingen („Autonomes Fahren: Im Stau Zeit für sich gewinnen“). Weitere Informationen über www.ghst.de/ki-autonomesfahren/.

Abb.: Abgesperrte Strecken für Porsche-Fahrer?

Disziplin zwischen Ingenieurskunst und Kunst

„Der zunehmende Einsatz von Künstlicher Intelligenz (KI) ist ein wesentliches Merkmal der digitalen Transformation von Gesellschaft und Wirtschaft und hat Folgen für unser Privat- und Arbeitsleben. Die Schweiz spielt auf diesem Gebiet heute in Forschung und Entwicklung weltweit eine bedeutende Rolle.“ (Website BAKOM, 9. Mai 2019) Der Bundesrat hat laut BAKOM eine interne Arbeitsgruppe eingesetzt, die bis zum Herbst 2019 eine Übersicht über bestehende Maßnahmen, eine Einschätzung zu neuen Handlungsfeldern sowie Überlegungen zu einem transparenten und verantwortungsvollen Einsatz von künstlicher Intelligenz erarbeitet. Dazu gehört auch, Experten zu konsultieren und ihre Positionen öffentlich zu machen. „Wir fragen bei Prof. Dr. Oliver Bendel nach, was Ethik und künstliche Intelligenz miteinander zu tun haben.“ Das Interview mit ihm ist am 9. Mai 2019 auf der Plattform Dialog Digitale Schweiz erschienen. Es kann über www.digitaldialog.swiss/de/dialog/kuenstliche-intelligenz-als-disziplin-zwischen-ingenieurskunst-und-kunst abgerufen werden.

Abb.: Kunst in der Schweiz

Eine neue moralische Maschine

Am 8. April 2019 startete an der Hochschule für Wirtschaft FHNW das E-MOMA-Projekt. „E“ steht für „Enhancing“, „MOMA“ für „Moral Machine“. Wenig verfolgt wird in der Maschinenethik bisher der Ansatz, dass die Maschine selbst die Moral weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert, mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO-Roboter mit Methoden des Machine Learning moralisch erweitert. Ein Beitrag dazu erschien vor einiger Zeit in den Proceedings of the IEEE. Im E-MOMA-Projekt soll eine eigene Implementierung entstehen, die diese Ansätze fortführt. Dabei können z.B. neuronale Netzwerke verwendet werden. Es bietet sich die Implementierung eines Chatbots an, aber auch die Modifizierung von Hardwarerobotern ist möglich. Letztlich geht es darum, eine moralische Maschine in die Welt zu bringen, die ihre Moral anpasst und weiterentwickelt, je nach Situation bzw. je nach eingegebenen Daten. Es ist das fünfte Artefakt der Maschinenethik, das nach Ideen, Skizzen und Vorgaben von Prof. Dr. Oliver Bendel entsteht. Das erste war der GOODBOT von 2013.

Abb.: Viele Maschinen kann man moralisieren

Die Neue Seidenstraße

Karl Strittmatter schreibt in seinem Artikel „Die Schweiz ist schier atemberaubend naiv“ im Tages-Anzeiger vom 27. April 2019, Ueli Maurer und der Bund ließen sich von China in das Projekt der Neuen Seidenstraße einbinden und fielen damit „auf die Tricks einer Diktatur herein“ (Tages-Anzeiger, 27. April 2019). Der Chinaexperte war für die Süddeutsche Zeitung zunächst ab 1997 (acht Jahre lang) und dann wieder von 2012 bis 2018 Korrespondent in Peking. Sein aktuelles Buch ist „Die Neuerfindung der Diktatur – Wie China den digitalen Überwachungsstaat aufbaut und uns damit herausfordert“. Darin beschreibt er u.a. das Sozialkreditsystem, das sich der Möglichkeiten künstlicher Intelligenz bedient. Auch auf die Neue Seidenstraße geht er ein. In seinem Artikel bemerkt er: „Die KP möchte Einfluss nehmen, setzt dafür viel Geld und eine immer aggressivere Diplomatie ein – im Menschenrechtsrat in Genf ebenso wie an unseren Universitäten, in unseren Medien, gegenüber unseren Politikern.“ (Tages-Anzeiger, 27. April 2019) Auch Befürworter des Projekts gibt es, die die wirtschaftlichen Vorteile herausstreichen. Der Beitrag „Neue Seidenstraße“ im Gabler Wirtschaftslexikon wurde von Oliver Bendel verfasst und ist am 30. April 2019 erschienen. Er kann über wirtschaftslexikon.gabler.de/definition/neue-seidenstrasse-100610 abgerufen werden.

Abb.: Die Marco-Polo-Brücke in Peking

Künstliche Intelligenz – Wer steuert wen?

Am 21. und 22. Mai 2019 findet in Berlin der Digitalisierungskongress „Künstliche Intelligenz – Wer steuert wen?“ statt. Getragen wird er von der Hans-Böckler-Stiftung (HBS) in Kooperation mit der Vereinten Dienstleistungsgewerkschaft ver.di und mit Unterstützung des vom BMBF geförderten Projekts TransWork. Auf der Website von ver.di ist zu lesen: „Die wirtschaftlichen Potenziale von KI stehen den Fragen, wie wir miteinander leben und arbeiten wollen, keineswegs spannungsfrei gegenüber. Wie, wo und in welchem Umfang KI eingesetzt wird, muss gesellschaftlich ausgehandelt werden.“ (Website ver.di) Am ersten Tag hält Prof. Dr. Oliver Bendel einen Kurzvortrag zu „Grundfragen der Ethik beim Einsatz von KI“. Danach diskutieren Rena Tangens, Digitalcourage e.V., Prof. Dr. Svenja Falk, Managing Director, Accenture Research, Norman Nieß, Betriebsratsvorsitzender und Mitglied im Konzernbetriebsausschuss, Callcenter-Branche, und Prof. Dr. Oliver Bendel, Maschinenethiker und Wirtschaftsinformatiker, Institut für Wirtschaftsinformatik, Hochschule für Wirtschaft FHNW auf dem Podium miteinander. Weitere Informationen und Programm über www.verdi.de/themen/digitalisierungskongresse/kongress-2019.

Abb.: Die Konferenz wird sich auch Fragen der Ethik widmen