An der Hochschule für Wirtschaft FHNW entsteht zwischen Juni 2019 und Januar 2020 das sechste Artefakt der Maschinenethik. Ideengeber und Auftraggeber ist Prof. Dr. Oliver Bendel. In der Tier-Maschine-Interaktion geht es um Design, Evaluierung und Implementierung von (in der Regel höherentwickelten bzw. komplexeren) Maschinen und Computersystemen, mit denen Tiere interagieren und kommunizieren und die mit Tieren interagieren und kommunizieren. Die Maschinenethik bezieht sich bisher vor allem auf Menschen, kann aber auch bei Tieren dienlich sein. Sie versucht moralische Maschinen zu konzipieren und mit Hilfe weiterer Disziplinen wie Informatik und KI bzw. Robotik zu implementieren. Ziel des Projekts ist die detaillierte Beschreibung und prototypische Umsetzung eines tierfreundlichen Serviceroboters, genauer gesagt eines Mähroboters, genannt HAPPY HEDGEHOG (HHH). Dieser soll mit Hilfe von Sensoren und moralischen Regeln vor allem Igel (auch und insbesondere Jungtiere) erkennen und geeignete Maßnahmen einleiten (Unterbruch der Arbeit, Vertreiben des Igels, Information des Besitzers). Das Projekt hat Ähnlichkeiten mit einem anderen Projekt, das früher durchgeführt wurde, nämlich LADYBIRD. Dieses Mal soll aber mehr auf vorhandene Geräte, Plattformen und Software gesetzt werden. Als erstes Artefakt entstand an der Hochschule der GOODBOT – im Jahre 2013.
Für die Broschüre der Daimler und Benz Stiftung zum 23. Berliner Kolloquium fand ein Shooting statt. Im Mittelpunkt stand ein Pflegeroboter der neuesten Generation, P-Care von F&P Robotics und ZRFN Robotics, der in China in einer Kleinserie vorliegt. Er ist menschen- oder tierähnlich, hat Kopf, Augen und zwei Arme. Er unterstützt Pflegekräfte und -bedürftige mit Handreichungen und sozialen Eigenschaften, kann das Gegenüber anschauen und verfügt über gestische und natürlichsprachliche Fähigkeiten. Mittels Rollen ist eine freie Bewegung im Raum möglich. Lautsprecher, Richtmikrofon und Kameras gehören zur Ausstattung. Mit Hilfe von Gesichtserkennung können Patienten identifiziert werden. P-Care und Lio sind im Grunde umgebaute, erweiterte und mit einer mobilen Plattform versehene Co-Robots. Diese finden sich hauptsächlich in Produktion und Logistik. Sie kooperieren bzw. kollaborieren mit Menschen, wobei sie ihnen ausgesprochen nahekommen und die Tätigkeiten ineinandergreifen können. Es spricht einiges dafür, dass Pflegeroboter in dieser Tradition den Markteintritt schaffen werden.
„Als erste Stadt in den USA hat San Francisco den Einsatz von Gesichtserkennung durch Behörden verboten.“ (SPON, 15. Mai 2019) Dies meldet SPIEGEL ONLINE am 15. Mai 2019. „Die Gefahr, dass solche Technologien die Bürgerrechte verletzen können, überwiege die behaupteten Vorteile bei Weitem, entschied der Stadtrat der kalifornischen Metropole …“ (SPON, 15. Mai 2019) Der Einsatz von Gesichtserkennung drohe rassistische Ungerechtigkeit zu verschärfen und bedrohe „unsere Möglichkeit, frei von ständiger Beobachtung durch die Regierung zu leben“, heißt es laut SPON in dem Beschluss. „Die städtische Polizei und andere städtische Behörden dürfen gemäß der Entscheidung keinerlei Gesichtserkennungstechnologie erwerben, besitzen oder nutzen. Flughäfen oder andere von den Bundesbehörden betriebene Einrichtungen sind von dem Verbot ausgenommen. Kritiker argumentieren, Systeme zur Gesichtserkennung bedeuteten einen starken Eingriff in die Privatsphäre. Zudem drohe die Gefahr, dass Unschuldige fälschlich als Straftäter identifiziert werden könnten. Die US-Bürgerrechtsorganisation ACLU warnt, mit der Technologie könne die Öffentlichkeit wahllos und ohne konkreten Verdacht oder Anhaltspunkt flächendeckend überwacht werden.“ (SPON, 15. Mai 2019) Bei den AAAI Spring Symposia an der Stanford University war Gesichtserkennung immer wieder ein Thema gewesen.
Using an interdisciplinary approach, the book „AI love you“ explores the emerging topics and rapid technological developments of robotics and artificial intelligence through the lens of the evolving role of sex robots, and how they should best be designed to serve human needs. „An international panel of authors provides the most up-to-date, evidence-based empirical research on the potential sexual applications of artificial intelligence. Early chapters discuss the objections to sexual activity with robots while also providing a counterargument to each objection. Subsequent chapters present the implications of robot sex as well as the security and data privacy issues associated with sexual interactions with artificial intelligence.“ (Information by Springer) Topics featured in this book include: the Sexual Interaction Illusion Model, the personal companion system, Harmony, designed by Realbotix, an exposition of the challenges of personal data control and protection when dealing with artificial intelligence, and the current and future technological possibilities of projecting three-dimensional holograms. Oliver Bendel is the author of the contribution to the latter topic, entitled „Hologram Girl“. The book is edited by Yuefang Zhou and Martin H. Fischer and will be published in summer 2019. More information via www.springer.com/gp/book/9783030197339.
Fig.: A talk by Oliver Bendel (photo: Meret Buser)
„Chatbots unterhalten sich mit Menschen und unterhalten sie, sie beraten Kunden und Interessenten auf Websites und in Instant-Messaging-Systemen, sie rufen hilfreiche Ressourcen auf und geben dazu Erläuterungen. Ihr Erfolg erklärt sich vor allem durch ihre natürlichsprachlichen Fähigkeiten und ihre Konstruktion als hilfreiches, sachkundiges oder lustiges Gegenüber. Der Beitrag erklärt, was Chatbots und Sprachassistenten sind, nennt Vor- und Nachteile ihres Einsatzes und stellt Produkte für die Kundenkommunikation und den Unterhaltungsbereich vor. Zudem geht er auf Projekte der Maschinenethik ein. Die meisten Chatbots verhalten sich nicht adäquat, wenn der Benutzer ihnen gegenüber Sorgen äußert. Moralische Maschinen als Dialogsysteme können eine Lösung sein.“ So der Abstract des Beitrags „Von Cor@ bis Mitsuku: Chatbots in der Kundenkommunikation und im Unterhaltungsbereich“ von Oliver Bendel, erschienen im Mai 2019 im „Handbuch Digitale Wirtschaft“ (Herausgeber: Tobias Kollmann). Er ist verfügbar auf SpringerLink.
Am 8. April 2019 startete an der Hochschule für Wirtschaft FHNW das E-MOMA-Projekt. „E“ steht für „Enhancing“, „MOMA“ für „Moral Machine“. Wenig verfolgt wird in der Maschinenethik bisher der Ansatz, dass die Maschine selbst die Moral weiterentwickelt, etwa indem sie die Regeln adaptiert oder priorisiert, mit Hilfe von Machine Learning, speziell auch Deep Learning. Michael Anderson, Susan Leigh Anderson und Vincent Berenz haben einen NAO-Roboter mit Methoden des Machine Learning moralisch erweitert. Ein Beitrag dazu erschien vor einiger Zeit in den Proceedings of the IEEE. Im E-MOMA-Projekt soll eine eigene Implementierung entstehen, die diese Ansätze fortführt. Dabei können z.B. neuronale Netzwerke verwendet werden. Es bietet sich die Implementierung eines Chatbots an, aber auch die Modifizierung von Hardwarerobotern ist möglich. Letztlich geht es darum, eine moralische Maschine in die Welt zu bringen, die ihre Moral anpasst und weiterentwickelt, je nach Situation bzw. je nach eingegebenen Daten. Es ist das fünfte Artefakt der Maschinenethik, das nach Ideen, Skizzen und Vorgaben von Prof. Dr. Oliver Bendel entsteht. Das erste war der GOODBOT von 2013.
„Persönliche Kaufempfehlungen, medizinische Diagnosen, selbstfahrende Autos, Börsenhandel oder Online-Marketing: Ohne Data Science wäre das nicht möglich. Daten sind der neue Rohstoff der Wirtschaft. Als Data Scientist können Sie aus der wachsenden Datenmenge relevantes Wissen destillieren, Muster erkennen und Anomalien identifizieren. Data Scientists schaffen die Grundlage dafür, dass aus den vorhandenen Daten die richtigen Schlüsse gezogen werden.“ So heißt es auf der Website des neuen Studiengangs Data Science an der Hochschule für Technik FHNW. Das Ausbildungskonzept ist innovativ und experimentell. Es fokussiert auf Kompetenzen. Die Studierenden werden mit Challenges konfrontiert, die sie selbst ausgestalten müssen, etwa indem sie Forschungsfragen stellen und Entwicklungsziele stecken. Auch Informationsethik und Maschinenethik – verantwortet von Prof. Dr. Oliver Bendel – werden eine Rolle spielen. Weitere Informationen über www.fhnw.ch/de/studium/technik/data-science/ausbildungskonzept-data-science.
Abb.: Der Campus Brugg-Windisch (Foto: WEISSWERT C. Morin & M. Indermaur)
Machine ethics produces moral and immoral machines. The morality is usually fixed, e.g. by programmed meta-rules and rules. The machine is thus capable of certain actions, not others. However, another approach is the morality menu (MOME for short). With this, the owner or user transfers his or her own morality onto the machine. The machine behaves in the same way as he or she would behave, in detail. Together with his teams, Prof. Dr. Oliver Bendel developed several artifacts of machine ethics at his university from 2013 to 2018. For one of them, he designed a morality menu that has not yet been implemented. Another concept exists for a virtual assistant that can make reservations and orders for its owner more or less independently. In the article „The Morality Menu“ the author introduces the idea of the morality menu in the context of two concrete machines. Then he discusses advantages and disadvantages and presents possibilities for improvement. A morality menu can be a valuable extension for certain moral machines. You can download the article here.
„Maschinelles Bewusstsein (engl. ‚machine consciousness‘) ist ein Arbeitsgebiet, das zwischen Künstlicher Intelligenz und Kognitiver Robotik angesiedelt ist. Ziel ist die Schaffung eines maschinellen Bewusstseins oder Selbstbewusstseins. Dieses simuliert das menschliche Bewusstsein oder Selbstbewusstsein, nähert sich diesem ein Stück weit an oder bildet es in Teilen ab. Oder es erreicht das Original, ist mit diesem in wesentlichen Teilen identisch, was bis auf weiteres fernab der Realität ist. Man spricht auch von Maschinenbewusstsein, künstlichem Bewusstsein (engl. ‚artificial consciousness‘) oder synthetischem Bewusstsein (’synthetic consciousness‘). Zum maschinellen Bewusstsein bzw. Selbstbewusstsein mag man (Selbst-)Wahrnehmung, Erinnerung, Voraussicht, (Selbst-)Lernen sowie subjektive Erfahrung zählen.“ So beginnt ein neuer Beitrag im Gabler Wirtschaftslexikon, verfasst von Oliver Bendel, aufrufbar über wirtschaftslexikon.gabler.de/definition/maschinelles-bewusstsein-120206. Auch auf den Zusammenhang mit Informationsethik und Maschinenethik wird eingegangen. Maschinelles Bewusstsein ist ein Thema bei den AAAI Spring Symposia 2019 an der Stanford University.
Am 28. Juni 2018 wurde an dieser Stelle auf Transportdrohnen der Schweizerischen Post eingegangen. Das Projekt – es werden Laborproben befördert – wurde mit Interesse aufgenommen. Eine kleine Warnung war auch enthalten: „Es kann allerdings Kollisionen mit anderen Drohnen und mit Vögeln geben, und ein Absturz kann für Fußgänger, Fahrradfahrer und Autofahrer gefährlich sein.“ Die Strecke über den Zürichsee thematisierte Oliver Bendel beim BMAS-Workshop „Leitlinien einer künftigen Finanzierung des Sozialstaats“ am 11. Januar 2019 in Berlin, und er wies auf Chancen und Risiken hin. Der Tages-Anzeiger schrieb am 25. Januar 2019: „Kurz nach 10.20 Uhr stürzte im unteren Seebecken eine Postdrohne ab. Das meldete die Stadtpolizei … Fest steht inzwischen, dass das Fluggerät rund 200 Meter vom Ufer entfernt im Bereich des Bads Mythenquai ins Wasser gefallen und vermutlich versunken ist.“ (Tages-Anzeiger, 25. Januar 2019) Man muss sich der Gefahr von Kollisionen und Abstürzen intensiv widmen und sowohl den Streckenverlauf als auch die technischen Mittel überprüfen. Grundsätzlich ist der Drohneneinsatz in diesem Kontext zu begrüßen, und die Schweizerische Post fällt hier wie andernorts – beim SmartShuttle – durch Innovationen auf.
Im Henn-na-Hotel in Sasebo in der Präfektur Nagasaki auf der japanischen Insel Kyushu „haben die Roboter mehr Arbeit gemacht, als sie selbst erledigt haben“. „Deshalb mussten viele von ihnen gehen.“ Dies meldete Golem am 16. Januar 2019. „In der Praxis zeigten sich die Roboter … oft nicht so nützlich. Wie Churi: Die etwas merkwürdig aussehende Puppe soll den Gast bei der Steuerung des Zimmers unterstützen: Auf Sprachbefehl reguliert sie etwa die Temperatur oder schaltet das Licht ein und aus. Das funktionierte allerdings oft nicht sehr gut … Ein Gast wurde nachts mehrfach von Churi geweckt – der Roboter interpretierte dessen Schnarchen als Ansprache und antwortete. Ein anderer wollte nach einer fruchtlosen Konversation mit dem Roboter entnervt die Rezeption anrufen – und stellte fest, dass es kein Telefon auf dem Zimmer gab. Denn für Fragen und Wünsche des Gastes ist der Churi da. Der Gast erreichte die Rezeption schließlich über sein Mobiltelefon.“ (Golem, 16. Januar 2019) Am Ende des Artikels von Werner Pluta wird das Ausmaß der Tragödie nochmals offenbar: „Inzwischen hat das Henn-na-Hotel mehr als die Hälfte seiner rund 250 Roboter stillgelegt.“ (Golem, 16. Januar 2019) Wie wir alle hoffen sie auf bessere Zeiten.
„Industrie 4.0“ ist ein Marketingbegriff, der auch in der Wissenschaftskommunikation verwendet wird, und steht für ein „Zukunftsprojekt“ (so die Selbstauskunft) der deutschen Bundesregierung. Die sogenannte vierte industrielle Revolution, auf welche die Nummer verweist, zeichnet sich durch Individualisierung (selbst in der Serienfertigung) bzw. Hybridisierung der Produkte (Kopplung von Produktion und Dienstleistung) und die Integration von Kunden und Geschäftspartnern in Geschäfts- und Wertschöpfungsprozesse aus. Wesentliche Bestandteile sind eingebettete Systeme sowie (teil-)autonome Maschinen, die sich ohne menschliche Steuerung in und durch Umgebungen bewegen und selbstständig Entscheidungen treffen, und Entwicklungen wie 3D-Drucker. Die Vernetzung der Technologien und mit Chips versehenen Gegenstände resultiert in hochkomplexen Strukturen und cyber-physischen Systemen (CPS) bzw. im Internet der Dinge. Der Artikel „Chancen und Risiken 4.0“ ist im Dezember 2018 in der GS1 network 4/2018 erschienen. Er kann auch über die Website der Zeitschrift abgerufen werden. Es handelt sich um einen Nachdruck des gleichnamigen Beitrags aus der UnternehmerZeitung 2/2015.
Abb.: Welche Chancen und Risiken hat die Industrie 4.0?
Robots in the health sector are important, valuable innovations and supplements. As therapy and nursing robots, they take care of us and come close to us. In addition, other service robots are widespread in nursing and retirement homes and hospitals. With the help of their sensors, all of them are able to recognize us, to examine and classify us, and to evaluate our behavior and appearance. Some of these robots will pass on our personal data to humans and machines. They invade our privacy and challenge the informational autonomy. This is a problem for the institutions and the people that needs to be solved. The article “The Spy who Loved and Nursed Me: Robots and AI Systems in Healthcare from the Perspective of Information Ethics” by Oliver Bendel presents robot types in the health sector, along with their technical possibilities, including their sensors and their artificial intelligence capabilities. Against this background, moral problems are discussed, especially from the perspective of information ethics and with respect to privacy and informational autonomy. One of the results shows that such robots can improve the personal autonomy, but the informational autonomy is endangered in an area where privacy has a special importance. At the end, solutions are proposed from various disciplines and perspectives. The article was published in Telepolis on December 17, 2018 and can be accessed via www.heise.de/tp/features/The-Spy-who-Loved-and-Nursed-Me-4251919.html.
Üblicherweise wird zwischen Ethik als Disziplin und Moral als Gegenstand dieser Disziplin unterschieden. Die Maschinenethik ist eine Disziplin, die nach der Möglichkeit maschineller Moral fragt. Dabei ist „maschinelle Moral“ ein Terminus technicus wie „künstliche Intelligenz“ (dieser Begriff steht für den Gegenstand, der wiederum von der Künstlichen Intelligenz als Disziplin hervorgebracht und erforscht wird). Man spielt auf ein Setting an, das Menschen haben, und man will Komponenten dieses Settings imitieren bzw. simulieren. Moralische und unmoralische Maschinen sind nicht gut oder böse, sie haben keinen freien Willen und kein Bewusstsein, sie haben keine Intuition und keine Empathie. Darum geht es in der „schwachen Maschinenethik“ auch nicht. Sie sollen moralische Regeln befolgen, die ihnen vorgegeben wurden, oder solche Regeln selbst anpassen bzw. entwickeln. Zu den führenden Maschinenethikern gehören Michael Anderson und Susan Leigh Anderson. Zusammen mit Vincent Berenz (Max-Planck-Institut für Intelligente Systeme) haben sie einen Nao-Roboter mit einer Reihe von Werten programmiert, die sein Verhalten bestimmen und gleichzeitig einer Person in einer simulierten Einrichtung der Altenpflege helfen. In einem Video zeigen sie, wie der wertegetriebene Nao je nach Anforderung agiert und reagiert. Dieser ist ein weiteres überzeugendes Artefakt der Maschinenethik. Das Paper zu diesem Forschungsprojekt wird 2019 in den Proceedings of the IEEE publiziert und beim Berliner Kolloquium „Roboter in der Pflege“ präsentiert.
Abb.: Ausschnitt aus dem Video (Video: Anderson/Berenz)
Microsoft gehört zu den führenden Unternehmen im Bereich der Gesichtserkennung. Man hat in den letzten Jahren mächtige Systeme geschaffen, die man in Displays mit Kameras integrieren oder an Chatbots ankoppeln kann – der BESTBOT ist ein Beispiel dafür. Nun hat das Unternehmen vor Gesichtserkennung gewarnt und nach dem Gesetz gerufen. Das ist nicht merkwürdig, sondern folgerichtig. Man hat eine Technologie entwickelt und ihre Chancen und Risiken untersucht. Man hat erkannt, dass Diskriminierung, Zerstörung der Privatsphäre und staatliche Totalüberwachung drohen. Es ist wichtig, zwischen Forschung und Entwicklung auf der einen und Anwendung auf der anderen Seite zu unterscheiden. Manchmal muss man eine Technologie auf die Welt bringen und dann im Einsatz beschränken, bis hin zum Verbot auf bestimmten Gebieten. Der Einschätzung des Konzerns mag eine ethische Reflexion vorausgegangen sein, vielleicht auch nur eine moralische Diskussion (der Spiegel wirft dem Konzern gar vor, sich zum Moralwächter aufzuschwingen). Wichtig ist aber, dass man dabei nicht stehenbleibt (und Microsoft ruft gerade nicht nach der Moral). Denn die Ethik vermag selten Probleme zu lösen. In diesem Fall braucht es weniger Ethik, mehr Recht.
„Der Solid POD (‚POD‘ als Abkürzung für „Personal Online Data“) ist ein Speicher für persönliche und soziale Daten. Er wird vom Besitzer kontrolliert und von diesem für bestimmte Anwendungen geöffnet. Er kann auf dem eigenen oder einem fremden Rechner (etwa eines Hosts) liegen. Solid (das Akronym steht für „Social Linked Data“) ist das übergeordnete Projekt, das wiederum bestimmte Anwendungen kontrolliert und authentifiziert. Tim Berners-Lee, der Initiator von Solid und des Solid POD, will die informationelle Autonomie stärken und letztlich die Privatsphäre schützen.“ So beginnt ein neuer Beitrag von Oliver Bendel für das Wirtschaftslexikon von Springer Gabler über ein interessantes und sinnvolles Projekt bzw. eines der Kernelemente. Auch das mögliche Scheitern wird am Ende angesprochen; bereits bei früheren Versuchen, den Internetkonzernen etwas entgegenzusetzen, habe das Interesse der Benutzer gefehlt. „Die Informationsethik beschäftigt sich mit diesem Phänomen und auch mit dem Verlust der Privatsphäre in Zeiten der Digitalisierung. Sie widmet sich zusammen mit der Wirtschaftsethik der Verantwortung der Internet- und IT-Firmen bei der Zentralisierung der Daten und der Monopolisierung der Dienste.“ Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/solid-pod-100536 aufgerufen werden.
„Das Sozialkreditsystem (engl. „social credit system“) ist ein elektronisches Überwachungs-, Erfassungs- und Bewertungssystem zur Harmonisierung des Verhaltens der Bürger, Behörden und Firmen von China mit den moralischen, sozialen, rechtlichen, wirtschaftlichen und politischen Ansprüchen der dortigen Kommunistischen Partei (KP). Es findet ein permanentes Rating und Scoring („citizen score“ bzw. „social scoring“) mit Blick auf die Lebenssituation, das Sozialverhalten oder Verwaltungs- und Wirtschaftsaktivitäten statt. Dabei werden vernetzte Datenbanken sowie Bild- und Tonsysteme in Verbindung mit Big-Data-Analysen und Methoden der Künstlichen Intelligenz eingesetzt.“ So beginnt ein Beitrag von Oliver Bendel, erschienen am 19. November 2018 im Wirtschaftslexikon von Springer Gabler. Gegen Ende kommt der Roboterphilosoph zu folgendem Befund: „Das Sozialkreditsystem kann als Automatisierung des Totalitarismus gelten. Es führt zu einer völligen Unterwerfung unter die Vorstellungen und Vorgaben von Staat und Gesellschaft.“ Ganz am Schluss wird die Perspektive der Ethik eingenommen. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/sozialkreditsystem-100567 aufgerufen werden.
Wie verschiedene Medien melden, hat die chinesische Nachrichtenagentur Xinhua ein System vorgestellt, das im Fernsehen Nachrichten verlesen kann. Die verfügbaren Avatare sind realen Sprechern nachgebildet, nämlich Qiu Hao und Zhang Zhao. Die digitale Kopie von Qiu spricht chinesisch, die von Zhang englisch. „Das System nutzt Künstliche Intelligenz (KI) und maschinelles Lernen, um die Stimme, Lippenbewegungen, Mimik und Gestik der Vorbilder möglichst realistisch zu imitieren. Dadurch solle ein möglichst lebensnahes Abbild entstehen und kein kalter Roboter, erklärte Xinhua. Das System ist zudem lernfähig. Das bedeutet, die Avatare lernen von Videos menschlicher Sprecher und werden dadurch mit der Zeit besser.“ (Golem, 9. November 2018) Im Moment klingt die Stimme von Zhang erstaunlich künstlich. Die Stimmen üblicher Text-to-Speech-Engines erreichen eine bessere Qualität. Mit Hilfe von SSML kann man sie noch menschenähnlicher gestalten. Virtuelle Nachrichtensprecher sind insgesamt ein alter Hut. Ananova, eine virtuelle Nachrichtensprecherin, hatte vor 20 Jahren eine gewisse Popularität erlangt. Sie wechselte 2000 für eine Ablösesumme von 95 Millionen Pfund zum Telefonanbieter Orange.
The University of Potsdam dedicates its current research to voices. The scientists – among them Dr. Yuefang Zhou and Katharina Kühne – are studying the first impression during communication. The survey website says: „The current study will last approximately 20 minutes. You will be asked some questions about the voice you hear. Please answer them honestly and spontaneously. There are no right or wrong answers; we are interested in your subjective perception. Just choose one out of the suggested alternatives.“ Prof. Dr. Oliver Bendel, FHNW School of Business, produced three samples and donated them to the project. „Your responses will be treated confidentially and your anonymity will be ensured. Your responses cannot be identified and related to you as an individual, if you choose to leave your e-mail address at the end of the study this cannot be linked back to your responses. All responses will be compiled together and analysed as a group.“ The questionnaire can be accessed via www.soscisurvey.de/impress/ (link no longer valid).
Fig.: What is the first impression during communication?
Synthetische Stimmen kann man in vielfältiger Weise gestalten und anpassen. Man kann das Geschlecht vorgeben und das Alter, die Tonhöhe, die Klangfarbe und die Lautstärke variieren. Dafür steht zum Beispiel die Speech Synthesis Markup Language (SSML) zur Verfügung. Einige Befehle sind dafür geeignet, die Stimmen lebensechter zu machen. Selbst ein Flüstern kann man mit SSML inzwischen definieren, das ja nicht nur ein leises, sondern ein stimmloses Sprechen ist. Alexa wirkt damit noch menschlicher. Wie Google Duplex eindrucksvoll gezeigt hat, sind auch Pausen wichtig sowie Verzögerungslaute wie „Mmh“ und „Ähh“, also spezifische Sprechweisen. Die Einbindung von Kopf- und Körpergeräuschen könnte den Echtheitsgrad und die Überzeugungskraft weiter steigern. Wenn sich der virtuelle Assistent räuspert, wenn er die Nase hochzieht, die gar nicht vorhanden ist, dürfte kaum noch jemand denken, dass es sich um kein menschliches Gegenüber handelt. Ferner ist es möglich, Neben- und Hintergrundgeräusche zu integrieren. Übertreiben darf man es freilich nicht, und alle Geräusche müssen letztlich zusammenpassen.
At the conference „Robophilosophy“ in Vienna in February 2018, Hiroshi Ishiguro spoke about his geminoid, which he adjusts every few years according to his own statement. Looking at him one could assume he was adjusted too, considering how much younger he seems than on older photos showing him with his artificial twin. After his speech, the audience fired questions at him. One question was why did he build robots at all when there was virtual reality? He answered because of the presence in space. Only holograms could come close to such a presence in future. Some universities are now planning to have lecturers appear as holograms in front of the students. This would actually be an alternative to the use of teaching robots and video-conferencing. Even interactions would be possible if the holograms or projections were connected to speech systems. Dr. David Lefevre, director of Imperial’s Edtech Lab, told the BBC: „The alternative is to use video-conferencing software but we believe these holograms have a much greater sense of presence“. The Gatebox, which was recently launched on the market, and a publication by Oliver Bendel („Hologram Girl“), which will be available at the beginning of 2019, show that love relationships with holograms or projections are also possible.
„Beim Bodyhacking greift man invasiv oder nichtinvasiv in den tierischen oder menschlichen Körper ein, oft im Sinne des Animal bzw. Human Enhancement und zuweilen mit der Ideologie des Transhumanismus. Es geht um die physische und psychische Umwandlung, und es kann daraus der tierische oder menschliche Cyborg resultieren.“ Mit diesen Worten beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler von Prof. Dr. Oliver Bendel. Am Ende heißt es: „Das Bodyhacking kann man aus der Perspektive von Bio-, Medizin-, Technik- und Informationsethik als Versuch sehen, das eigene oder fremde Leben und Erleben zu gestalten und zu verbessern. Problematisch wird es, sobald gesellschaftlicher, politischer oder wirtschaftlicher Druck entsteht, etwa wenn das Tragen eines Chips zur Speicherung von Daten und zur Identifizierung zur Norm wird, der sich kaum jemand entziehen kann (was von Informations-, Politik- und Wirtschaftsethik thematisiert werden kann). Auch gesundheitliche Folgen können auftreten. Insofern birgt Bodyhacking bei aller Faszination gewisse Risiken.“ Der Beitrag ist Ende Oktober 2018 erschienen und kann über wirtschaftslexikon.gabler.de/definition/bodyhacking-100401 abgerufen werden.