Kategorie: Innovationen

Ein wertegetriebener Nao-Roboter

Üblicherweise wird zwischen Ethik als Disziplin und Moral als Gegenstand dieser Disziplin unterschieden. Die Maschinenethik ist eine Disziplin, die nach der Möglichkeit maschineller Moral fragt. Dabei ist “maschinelle Moral” ein Terminus technicus wie “künstliche Intelligenz” (dieser Begriff steht für den Gegenstand, der wiederum von der Künstlichen Intelligenz als Disziplin hervorgebracht und erforscht wird). Man spielt auf ein Setting an, das Menschen haben, und man will Komponenten dieses Settings imitieren bzw. simulieren. Moralische und unmoralische Maschinen sind nicht gut oder böse, sie haben keinen freien Willen und kein Bewusstsein, sie haben keine Intuition und keine Empathie. Darum geht es in der “schwachen Maschinenethik” auch nicht. Sie sollen moralische Regeln befolgen, die ihnen vorgegeben wurden, oder solche Regeln selbst anpassen bzw. entwickeln. Zu den führenden Maschinenethikern gehören Michael Anderson und Susan Leigh Anderson. Zusammen mit Vincent Berenz (Max-Planck-Institut für Intelligente Systeme) haben sie einen Nao-Roboter mit einer Reihe von Werten programmiert, die sein Verhalten bestimmen und gleichzeitig einer Person in einer simulierten Einrichtung der Altenpflege helfen. In einem Video zeigen sie, wie der wertegetriebene Nao je nach Anforderung agiert und reagiert. Dieser ist ein weiteres überzeugendes Artefakt der Maschinenethik. Das Paper zu diesem Forschungsprojekt wird 2019 in den Proceedings of the IEEE publiziert und beim Berliner Kolloquium “Roboter in der Pflege” präsentiert.

Abb.: Ausschnitt aus dem Video (Video: Anderson/Berenz)

Weniger Ethik, mehr Recht

Microsoft gehört zu den führenden Unternehmen im Bereich der Gesichtserkennung. Man hat in den letzten Jahren mächtige Systeme geschaffen, die man in Displays mit Kameras integrieren oder an Chatbots ankoppeln kann – der BESTBOT ist ein Beispiel dafür. Nun hat das Unternehmen vor Gesichtserkennung gewarnt und nach dem Gesetz gerufen. Das ist nicht merkwürdig, sondern folgerichtig. Man hat eine Technologie entwickelt und ihre Chancen und Risiken untersucht. Man hat erkannt, dass Diskriminierung, Zerstörung der Privatsphäre und staatliche Totalüberwachung drohen. Es ist wichtig, zwischen Forschung und Entwicklung auf der einen und Anwendung auf der anderen Seite zu unterscheiden. Manchmal muss man eine Technologie auf die Welt bringen und dann im Einsatz beschränken, bis hin zum Verbot auf bestimmten Gebieten. Der Einschätzung des Konzerns mag eine ethische Reflexion vorausgegangen sein, vielleicht auch nur eine moralische Diskussion (der Spiegel wirft dem Konzern gar vor, sich zum Moralwächter aufzuschwingen). Wichtig ist aber, dass man dabei nicht stehenbleibt (und Microsoft ruft gerade nicht nach der Moral). Denn die Ethik vermag selten Probleme zu lösen. In diesem Fall braucht es weniger Ethik, mehr Recht.

Abb.: Bei Microsoft im Silicon Valley

Wird der Solid POD die Lösung sein?

“Der Solid POD (‘POD’ als Abkürzung für “Personal Online Data”) ist ein Speicher für persönliche und soziale Daten. Er wird vom Besitzer kontrolliert und von diesem für bestimmte Anwendungen geöffnet. Er kann auf dem eigenen oder einem fremden Rechner (etwa eines Hosts) liegen. Solid (das Akronym steht für “Social Linked Data”) ist das übergeordnete Projekt, das wiederum bestimmte Anwendungen kontrolliert und authentifiziert. Tim Berners-Lee, der Initiator von Solid und des Solid POD, will die informationelle Autonomie stärken und letztlich die Privatsphäre schützen.” So beginnt ein neuer Beitrag von Oliver Bendel für das Wirtschaftslexikon von Springer Gabler über ein interessantes und sinnvolles Projekt bzw. eines der Kernelemente. Auch das mögliche Scheitern wird am Ende angesprochen; bereits bei früheren Versuchen, den Internetkonzernen etwas entgegenzusetzen, habe das Interesse der Benutzer gefehlt. “Die Informationsethik beschäftigt sich mit diesem Phänomen und auch mit dem Verlust der Privatsphäre in Zeiten der Digitalisierung. Sie widmet sich zusammen mit der Wirtschaftsethik der Verantwortung der Internet- und IT-Firmen bei der Zentralisierung der Daten und der Monopolisierung der Dienste.” Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/solid-pod-100536 aufgerufen werden.

Abb.: Am CERN wurde das WWW erfunden

Das chinesische Sozialkreditsystem

“Das Sozialkreditsystem (engl. “social credit system”) ist ein elektronisches Überwachungs-, Erfassungs- und Bewertungssystem zur Harmonisierung des Verhaltens der Bürger, Behörden und Firmen von China mit den moralischen, sozialen, rechtlichen, wirtschaftlichen und politischen Ansprüchen der dortigen Kommunistischen Partei (KP). Es findet ein permanentes Rating und Scoring (“citizen score” bzw. “social scoring”) mit Blick auf die Lebenssituation, das Sozialverhalten oder Verwaltungs- und Wirtschaftsaktivitäten statt. Dabei werden vernetzte Datenbanken sowie Bild- und Tonsysteme in Verbindung mit Big-Data-Analysen und Methoden der Künstlichen Intelligenz eingesetzt.” So beginnt ein Beitrag von Oliver Bendel, erschienen am 19. November 2018 im Wirtschaftslexikon von Springer Gabler. Gegen Ende kommt der Roboterphilosoph zu folgendem Befund: “Das Sozialkreditsystem kann als Automatisierung des Totalitarismus gelten. Es führt zu einer völligen Unterwerfung unter die Vorstellungen und Vorgaben von Staat und Gesellschaft.” Ganz am Schluss wird die Perspektive der Ethik eingenommen. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/sozialkreditsystem-100567 aufgerufen werden.

Abb.: Menschenmenge in China

Künstliche Nachrichtensprecher

Wie verschiedene Medien melden, hat die chinesische Nachrichtenagentur Xinhua ein System vorgestellt, das im Fernsehen Nachrichten verlesen kann. Die verfügbaren Avatare sind realen Sprechern nachgebildet, nämlich Qiu Hao und Zhang Zhao. Die digitale Kopie von Qiu spricht chinesisch, die von Zhang englisch. “Das System nutzt Künstliche Intelligenz (KI) und maschinelles Lernen, um die Stimme, Lippenbewegungen, Mimik und Gestik der Vorbilder möglichst realistisch zu imitieren. Dadurch solle ein möglichst lebensnahes Abbild entstehen und kein kalter Roboter, erklärte Xinhua. Das System ist zudem lernfähig. Das bedeutet, die Avatare lernen von Videos menschlicher Sprecher und werden dadurch mit der Zeit besser.” (Golem, 9. November 2018) Im Moment klingt die Stimme von Zhang erstaunlich künstlich. Die Stimmen üblicher Text-to-Speech-Engines erreichen eine bessere Qualität. Mit Hilfe von SSML kann man sie noch menschenähnlicher gestalten. Virtuelle Nachrichtensprecher sind insgesamt ein alter Hut. Ananova, eine virtuelle Nachrichtensprecherin, hatte vor 20 Jahren eine gewisse Popularität erlangt. Sie wechselte 2000 für eine Ablösesumme von 95 Millionen Pfund zum Telefonanbie­ter Orange.

Abb.: In Shanghai

First Impression During Communication

The University of Potsdam dedicates its current research to voices. The scientists – among them Dr. Yuefang Zhou and Katharina Kühne – are studying the first impression during communication. The survey website says: “The current study will last approximately 20 minutes. You will be asked some questions about the voice you hear. Please answer them honestly and spontaneously. There are no right or wrong answers; we are interested in your subjective perception. Just choose one out of the suggested alternatives.” Prof. Dr. Oliver Bendel, FHNW School of Business, has produced three of the samples and participates in the project. “Your responses will be treated confidentially and your anonymity will be ensured. Your responses cannot be identified and related to you as an individual, if you choose to leave your e-mail address at the end of the study this cannot be linked back to your responses. All responses will be compiled together and analysed as a group.” The questionnaire can be accessed via www.soscisurvey.de/impress/.

Fig.: What is the first impression during communication?

Künstliches, aber lebensechtes Sprechen

Synthetische Stimmen kann man in vielfältiger Weise gestalten und anpassen. Man kann das Geschlecht vorgeben und das Alter, die Tonhöhe, die Klangfarbe und die Lautstärke variieren. Dafür steht zum Beispiel die Speech Synthesis Markup Language (SSML) zur Verfügung. Einige Befehle sind dafür geeignet, die Stimmen lebensechter zu machen. Selbst ein Flüstern kann man mit SSML inzwischen definieren, das ja nicht nur ein leises, sondern ein stimmloses Sprechen ist. Alexa wirkt damit noch menschlicher. Wie Google Duplex eindrucksvoll gezeigt hat, sind auch Pausen wichtig sowie Verzögerungslaute wie “Mmh” und “Ähh”, also spezifische Sprechweisen. Die Einbindung von Kopf- und Körpergeräuschen könnte den Echtheitsgrad und die Überzeugungskraft weiter steigern. Wenn sich der virtuelle Assistent räuspert, wenn er die Nase hochzieht, die gar nicht vorhanden ist, dürfte kaum noch jemand denken, dass es sich um kein menschliches Gegenüber handelt. Ferner ist es möglich, Neben- und Hintergrundgeräusche zu integrieren. Übertreiben darf man es freilich nicht, und alle Geräusche müssen letztlich zusammenpassen.

Abb.: Die Sprechpyramide

Lecturers as Holograms

At the conference “Robophilosophy” in Vienna in February 2018, Hiroshi Ishiguro spoke about his geminoid, which he adjusts every few years according to his own statement. Looking at him one could assume he was adjusted too, considering how much younger he seems than on older photos showing him with his artificial twin. After his speech, the audience fired questions at him. One question was why did he build robots at all when there was virtual reality? He answered because of the presence in space. Only holograms could come close to such a presence in future. Some universities are now planning to have lecturers appear as holograms in front of the students. This would actually be an alternative to the use of teaching robots and video-conferencing. Even interactions would be possible if the holograms or projections were connected to speech systems. Dr. David Lefevre, director of Imperial’s Edtech Lab, told the BBC: “The alternative is to use video-conferencing software but we believe these holograms have a much greater sense of presence”. The Gatebox, which was recently launched on the market, and a publication by Oliver Bendel (“Hologram Girl”), which will be available at the beginning of 2019, show that love relationships with holograms or projections are also possible.

Fig.: The professor on her way to work

Bodyhacking aus ethischer Sicht

“Beim Bodyhacking greift man invasiv oder nichtinvasiv in den tierischen oder menschlichen Körper ein, oft im Sinne des Animal bzw. Human Enhancement und zuweilen mit der Ideologie des Transhumanismus. Es geht um die physische und psychische Umwandlung, und es kann daraus der tierische oder menschliche Cyborg resultieren.” Mit diesen Worten beginnt ein neuer Beitrag im Wirtschaftslexikon von Springer Gabler von Prof. Dr. Oliver Bendel. Am Ende heißt es: “Das Bodyhacking kann man aus der Perspektive von Bio-, Medizin-, Technik- und Informationsethik als Versuch sehen, das eigene oder fremde Leben und Erleben zu gestalten und zu verbessern. Problematisch wird es, sobald gesellschaftlicher, politischer oder wirtschaftlicher Druck entsteht, etwa wenn das Tragen eines Chips zur Speicherung von Daten und zur Identifizierung zur Norm wird, der sich kaum jemand entziehen kann (was von Informations-, Politik- und Wirtschaftsethik thematisiert werden kann). Auch gesundheitliche Folgen können auftreten. Insofern birgt Bodyhacking bei aller Faszination gewisse Risiken.” Der Beitrag ist Ende Oktober 2018 erschienen und kann über wirtschaftslexikon.gabler.de/definition/bodyhacking-100401 abgerufen werden.

Abb.: Schon der Beginn von Bodyhacking?

Was ist Biohacking?

“Biohacking ist der biologische, chemische oder technische Eingriff in Organismen mit dem Ziel der Veränderung und Verbesserung. Es ist von den Wurzeln her eine Do-it-yourself-Bewegung. Letztlich geht es darum, neuartige Systeme zu erzeugen, die sich in ihrer belebten und unbelebten Umwelt behaupten. Ein Teilbereich ist das Bodyhacking, bei dem man in den tierischen oder menschlichen Körper eindringt, oft im Sinne des Animal bzw. Human Enhancement und zuweilen mit der Ideologie des Transhumanismus. In vielen Fällen resultiert der pflanzliche, tierische oder menschliche Cyborg.” Mit diesen Worten beginnt ein Beitrag von Oliver Bendel im Wirtschaftslexikon von Springer Gabler. Am Ende wird mit Blick auf das Bodyhacking die ethische Perspektive eingenommen: “Das Bodyhacking kann man aus Sicht der Ethik als Versuch sehen, das eigene Leben und Erleben zu gestalten und zu verbessern. Problematisch wird es, sobald gesellschaftlicher, politischer oder wirtschaftlicher Druck entsteht, etwa wenn das Tragen eines Chips zur Norm wird, der sich kaum jemand entziehen kann, und Privatsphäre und informationelle Autonomie beeinträchtigt sind, was ein Thema der Informationsethik ist.” Der Beitrag vom 22. Oktober 2018 kann über wirtschaftslexikon.gabler.de/definition/biohacking-100400 abgerufen werden.

Abb.: Schneller, länger, besser?

Will Smart Machines be Kind to Animals?

“With a few decades, autonomous and semi-autonomous machines will be found throughout Earth’s environments, from homes and gardens to parks and farms and so-called working landscapes – everywhere, really, that humans are found, and perhaps even places we’re not. And while much attention is given to how those machines will interact with people, far less is paid to their impacts on animals.” (Anthropocene, Oct 10, 2018) “Machines can disturb, frighten, injure, and kill animals,” says Oliver Bendel, an information systems professor at the University of Applied Sciences and Arts Northwestern Switzerland, according to the magazine. “Animal-friendly machines are needed.” (Anthropocene, Oct 10, 2018) In the article “Will smart machines be kind to animals?” the magazine Anthropocene deals with animal-friendly machines and introduces the work of the scientist. It is based on his paper “Towards animal-friendly machines” (Paladyn) and an interview conducted by journalist Brandon Keim with Oliver Bendel. More via http://www.anthropocenemagazine.org/2018/10/animal-friendly-ai/.

Fig.: Geese in London

Was tun gegen Plastik im Wasser?

Das Projekt mit dem Titel “Wie kann der Kampf gegen Plastikvermüllung und -verschmutzung von Gewässern gewonnen werden?” beginnt Ende September 2018 an der FHNW. Die Gewässer auf der ganzen Welt sind hochgradig mit Kunststoff belastet. Fische, Wasservögel und andere Lebewesen nehmen die Partikel auf und scheiden sie verändert aus. Auch der Mensch hat immer öfter Petflaschen auf seinem Speiseplan, durchaus unfreiwillig und mit nicht absehbaren gesundheitlichen Folgen. Es gibt unterschiedliche Strategien, Konzepte und Technologien gegen die Plastikverschmutzung und -vermüllung von Gewässern. In dem genannten Projekt, betreut von Oliver Bendel von der Hochschule für Wirtschaft, soll erfasst werden, welche Verfahren in der Schweiz und auf der ganzen Welt üblich und möglich sind, um Gewässer von Kunststoff und anderen Schadstoffen zu befreien, von künstlichen Inseln, Schiffen mit Netzen bis hin zu Robotern. Bereits 2015 wurde das CLEANINGFISH-Projekt durchgeführt. Schwärme von Robotern könnten, so die Idee, rund um die Uhr Flüsse und Seen durchstreifen, die Plastikteilchen schlucken und an Stationen deponieren. Sie könnten auch Gegenstände am Grund des Bodens, wohin man mit üblichen Verfahren meist nicht vorzudringen vermag, einsammeln und abschleppen. Die Studie hatte festgehalten, dass der CLEANINGFISH einige Probleme lösen, andere aber schaffen könnte.

Abb.: Der Strand von Elephanta in Indien

Die Herausforderungen in der Pflege

Am 10. September 2018 wurde die Sendung “Pflege – Was kann sie leisten, was muss sich ändern?” in Bayern 2 ausgestrahlt. Zu Wort kommt Oliver Bendel, Informations- und Maschinenethiker aus Zürich. Er beschäftigt sich seit mehreren Jahren mit Robotern in der Pflege. Er ist nicht der Meinung, dass diese den Pflegenotstand beheben können. Dafür braucht es andere Maßnahmen. Sie können aber die Pflegekraft unterstützen. Oliver Bendel hält es für wichtig, diese Perspektive einzunehmen und nicht ausschließlich auf den Patienten zu schauen. Natürlich ist dieser ebenso wichtig, und er ist sozusagen der Ausgangspunkt aller einschlägigen Strukturen und Prozesse. Für ihn bedeuten Pflegeroboter sowohl Vor- als auch Nachteile. Einerseits stärken sie seine persönliche Autonomie, machen ihn unabhängiger und beweglicher. Andererseits schwächen sie seine informationelle Autonomie. Manche der Roboter, die sich in Pflegeheimen und Krankenhäusern finden, verfügen über Kameras und Mikrofone und damit zusammenhängend über Gesichts- und Stimmerkennung. Das ist ebenso nützlich wie gefährlich. Der Podcast kann hier angehört werden.

Abb.: Menschen wird es in der Pflege immer brauchen

Sprechende Maschinen

Schon vor tausenden Jahren träumte der Mensch davon, künstliche Kreaturen zu schaffen. Diese sollten seine Gehilfen sein, seine Begleiter, Geliebten und Krieger. Bei Homer und Ovid lernen wir sie kennen, schätzen und fürchten. Die meisten dieser Kreaturen, auch in Mittelalter, Renaissance und Barock, waren stumm. Damit wurde die Kluft zwischen ihnen und uns angedeutet. Eine Ausnahme bildeten die sprechenden Köpfe, die in die Zukunft blicken konnten. Heute tragen uns Text-to-Speech-Systeme die Inhalte von Websites vor, plaudern Sprachassistenten wie Siri und Alexa mit uns und melden sich Fahrzeuge laut und vernehmlich zu Wort. Ein weites Feld aus technischer, psychologischer und ethischer Perspektive. Der Artikel “Sprechende Maschinen” von Oliver Bendel, der im September 2018 in der UnternehmerZeitung erschienen ist, schlägt einen Bogen von der Antike bis zur Gegenwart und zeigt heutige Möglichkeiten und Herausforderungen bei synthetischen Stimmen auf. Der Beitrag kann hier heruntergeladen werden.

Abb.: Sprechende Menschen (mit Maschine)

Lio in Aktion

Auf der Sindex 2018 in Bern vom 28. bis 30. August wurden Co-Robots u.a. von Panasonic, Kuka und F&P Robotics vorgestellt. Am Stand von Kuka konnte man den LBR iiwa einlernen. Man konnte den Arm des Leichtbauroboters führen, die Bewegung abspeichern und wieder aufrufen. Am Stand von F&P Robotics fand eine Show mit Lio statt. Es handelt sich um einen Roboterarm, der auf eine mobile Plattform montiert wurde. Ein Mitarbeiter lag im Bett, augenscheinlich alt und gebrechlich. Der Pflegeroboter reichte ihm einen Becher mit einem Getränk, half ihm beim Aufstehen und unterstützte ihn beim Gehen. Lio kann sprechen, wirkt in keiner Weise befremdlich oder unheimlich und ist eine Ergänzung, kein Ersatz der Pflegekraft. Ebenfalls am Stand der Firma aus Glattbrugg konnte man sich von einem Co-Robot massieren lassen. Laut eigenen Angaben ist die SINDEX die maßgebende Schweizer Messe für industrielle Automatisierung, zeigt Trends und Innovationen der Branche von morgen und fungiert als Schaufenster für Dienstleistungen und Produkte aus Automation, Fluidtechnik, Elektrotechnik und verwandten Bereichen.

Abb.: Lio von oben

Successful Completion of the BESTBOT Project

The BESTBOT was developed at the School of Business FHNW from March to August 2018. Predecessor projects were GOODBOT (2013) and LIEBOT (2016). Prof. Dr. Oliver Bendel has been doing research in the young discipline of machine ethics for several years. In cooperation with robotics and artificial intelligence (AI), it designs and produces moral machines. At the beginning of 2018 Bendel presented his paper “From GOODBOT to BESTBOT” at Stanford University, which laid the foundation for the BESTBOT project. David Studer programmed the chatbot in Java. Prof. Dr. Bradley Richards assisted him in technical matters. Like LIEBOT, BESTBOT is a networked system that exploits search engines and dictionaries. It analyzes the user’s text input with text-based emotion recognition software. At the same time, face recognition is used, again with emotion recognition. For example, if the user states that he is doing well but reveals something else on his face, the chatbot addresses this contradiction. It recognizes both small and big worries. Like the GOODBOT, the BESTBOT can escalate over several levels and provide a suitable emergency number. Like its predecessor, it makes it clear that it is only a machine. It is also special that it cites the source of factual allegations. The BESTBOT will be presented at conferences in 2019.

Fig.: The chatbot uses face recognition

Raumfahrt und Ethik

“Zur Raumfahrt (Weltraumfahrt) gehören Reisen und Transporte in den, durch den und aus dem Weltraum zu zivilen oder militärischen Zwecken. Der Start auf der Erde erfolgt i.d.R. mit einer Trägerrakete. Das Raumschiff (Raumfahrzeug) ist, wie die Landefähre, bemannt oder unbemannt. Das Ziel kann die Umlaufbahn eines Himmelskörpers sein, ein Trabant, Planet oder Komet, der durch einen Astronauten respektive Kosmonauten oder Roboter (etwa einen Rover) erkundet, oder eine Gegend, die fotografiert und analysiert wird.” (Gabler Wirtschaftslexikon) Mit diesen Worten beginnt ein Beitrag von Oliver Bendel im Wirtschaftslexikon von Springer Gabler, veröffentlicht am 16. August 2018. Auch die Perspektive der Ethik wird eingenommen: “Die Umweltethik, die sich für gewöhnlich auf die Umwelt der Erde richtet, muss verstärkt Weltraum, Trabanten und Planeten einbeziehen. Die Informationsethik kann sich mit ihr zusammen mit den Folgen des Einsatzes von Informations- und Kommunikationstechnologien in einer unberührten, nichttechnisierten Welt befassen.” Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/raumfahrt-99958 abgerufen werden.

Abb.: Auf zu fremden Galaxien!

Trinkt Holly Golightly einen Coffee to go?

Kaffee ist für viele Philosophen und auch Ethiker ein Betriebsstoff und ein Lebenselixier. Vor über einem halben Jahrhundert entstand die mobile Variante, die das Straßenbild amerikanischer wie europäischer Städte prägt. In seinem Beitrag für das Wirtschaftslexikon von Springer Gabler vom 16. August 2018 erklärt Oliver Bendel: “Coffee to go ist Kaffee zum Mitnehmen, abgefüllt in einem Karton- oder Kunststoffbecher, auf dem ein Deckel sitzt, der mit einer Trinköffnung versehen sein kann.” (Gabler Wirtschaftslexikon) Der Informations- und Maschinenethiker wirft die Frage auf, ob der mobile Kaffee wirklich 1964 von 7-Eleven erfunden oder schon vorher verkauft wurde, und verweist auf den Film “Frühstück bei Tiffany” (1961). “In der berühmten Eingangsszene holt Holly Golightly (gespielt von Audrey Hepburn) vor dem Juweliergeschäft in Manhattan nebst einem süßen Teilchen einen Becher aus einer Papiertüte, macht den Deckel ab und nimmt einen Schluck.” Wasser, Tee, Kaffee? Gekauft oder selbst gemacht? Man weiß es nicht, nicht mit Sicherheit. Auch die Ethik wird am Ende gestreift: “Wirtschafts- und Umweltethik beschäftigen sich mit den moralischen Implikationen von Einwegprodukten und der Konsum- und Wegwerfgesellschaft. Die Konsumentenethik fragt nach der Verantwortung des Verbrauchers beim Kaffeekonsum in nicht durchweg selbstverschuldeten Prozessen und Strukturen.” Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/coffee-go-99952 aufgerufen werden.

Abb.: Snapshot aus “Frühstück bei Tiffany”

Der kleine große Bruder

iPal ist der kleine große Bruder, im Aussehen zwischen Mensch und Affe. Es gibt ihn blau sowie pinkfarben mit spitzen Ohren, also auch als kleine große Schwester. Der Roboter wird vom Hersteller AvatarMind als Familienmitglied, Spielkamerad, Babysitter und vor allem als Erziehungsperson und Lehrkraft gesehen. Er hat natürlichsprachliche Fähigkeiten und ein Tablet in seiner Brust, auf dem Lernprogramme laufen. Er soll die soziale Entwicklung unterstützen und das Interesse an Wissenschaft und Technologie wecken. Laut Website macht iPal Bildung für Kinder lustig und attraktiv. Er kann tanzen, Geschichten erzählen, Spiele spielen und die Bewegung fördern. Über ihn kann man mit Freunden chatten, Videos teilen und sich mit dem Internet und sozialen Medien verbinden. Eltern sind in der Lage, iPal fernzusteuern und den Fortschritt, die Sicherheit und die Aktivitäten ihres Sprösslings auf ihrem Smartphone oder auf dem Desktop von jedem Ort aus und zu jeder Zeit zu überwachen. In seinem Nebenberuf ist iPal für Alte und Kranke da und kontrolliert z.B. die Medikamenteneinnahme. iPal verstößt gegen die UN-Kinderrechtskonvention. Konkret wird durch den beschriebenen Gebrauch der Eltern das Recht auf Privatsphäre missachtet. Es ist ferner nicht auszuschließen, dass sich das Unternehmen oder dessen Partner und der Staat bestimmte persönliche Daten der Familie beschaffen.

Cybersecurity und Ethik

“Cybersecurity oder IT-Sicherheit ist der Schutz von Netzwerken, Computersystemen, cyber-physischen Systemen und Robotern vor Diebstahl oder Beschädigung ihrer Hard- und Software oder der von ihnen verarbeiteten Daten sowie vor Unterbrechung oder Missbrauch der angebotenen Dienste und Funktionen. Bei den Daten handelt es sich sowohl um persönliche als auch um betriebliche (die wiederum persönliche sein können).” (Gabler Wirtschaftslexikon) In seinem Beitrag zu Cybersecurity, der Anfang August 2018 im Wirtschaftslexikon von Springer Gabler veröffentlicht wurde, erklärt der Wirtschaftsinformatiker und Informations- und Maschinenethiker Oliver Bendel, was Cybersecurity ist, was die einzelnen Merkmale sind und wie es mit dem gut- und böswilligen Hacken zusammenhängt. Auch auf ethische Fragen wird am Rande eingegangen. Der Beitrag kann über wirtschaftslexikon.gabler.de/definition/cybersecurity-99856.

Abb.: Hacken kann zur Sicherheit beitragen