Space travel includes travel and transport to, through and from space for civil or military purposes. The take-off on earth is usually done with a launch vehicle. The spaceship, like the lander, is manned or unmanned. The target can be the orbit of a celestial body, a satellite, planet or comet. Man has been to the moon several times, now man wants to go to Mars. The astronaut will not greet the robots that are already there as if he or she had been lonely for months. For on the spaceship he or she had been in the best of company. SPACE THEA spoke to him or her every day. When she noticed that he or she had problems, she changed her tone of voice, the voice became softer and happier, and what she said gave the astronaut hope again. How SPACE THEA really sounds and what she should say is the subject of a research project that will start in spring 2020 at the School of Business FHNW. Under the supervision of Prof. Dr. Oliver Bendel, students will design a voicebot that shows empathy towards an astronaut. The scenario is a proposal that can also be rejected. Maybe in these times it is more important to have a virtual assistant for crises and catastrophes in case one is in isolation or quarantine. However, the project in the fields of social robotics and machine ethics is entitled THE EMPATHIC ASSISTANT IN SPACE (SPACE THEA). First results will be available by the end of 2021.
Die Daimler und Benz Stiftung hat im März 2020 den Jahresbericht für das Jahr 2019 vorgelegt. Sie operiert inhaltlich unabhängig vom Konzern und gewährt Forschern völlige Freiheit. Sie ist – im Vergleich etwa zur Bertelsmann-Stiftung – klein, aber enorm umtriebig und eine Säule der Wissenschafts- und Innovationsförderung im deutschsprachigen Raum. Seit mehreren Jahren begleitet sie die Arbeit des Informations- und Maschinenethikers Oliver Bendel. Sie hat ihn, wie auch im Jahresbericht thematisiert wird, zum wissenschaftlichen Direktor des Ladenburger Diskurses 2017 und des Berliner Kolloquiums 2019 gemacht. Beide Veranstaltungen widmeten sich Robotern in der Pflege und speziell Pflegerobotern, also solchen Robotern, die in Betreuung und Pflege eingesetzt werden oder eingesetzt werden sollen, sei es durch die Ergänzung von Pflegekräften, sei es durch die Unterhaltung, die Informierung, die Versorgung oder das „Einsammeln“ von Patienten bei anstehenden Terminen. Aus dem Ladenburger Diskurs ging das Buch „Pflegeroboter“ (2018) hervor, das zum Standardwerk in diesem Bereich geworden ist. Der Bericht kann über www.daimler-benz-stiftung.de heruntergeladen werden.
Abb.: Teilnehmerinnen und Teilnehmer beim Ladenburger Diskurs (Foto: Daimler und Benz Stiftung/Peter Dorn)
The first phase of the HUGGIE project will start at the School of Business FHNW in March 2020. Oliver Bendel was able to recruit two students from the International Management program. The project idea is to create a social robot that contributes directly to a good life and economic success by touching and hugging people and especially customers. HUGGIE should be able to warm up in some places, and it should be possible to change the materials it is covered with. A research question will be: What are the possibilities besides warmth and softness? Are optical stimuli (also on displays), vibrations, noises, voices etc. important for a successful hug? HUGGIE could also play a role in crises and disasters, in epidemics and pandemics and in cases of permanent social distancing. Of course it would be bad if only a robot would hug us, and of course it would be good if humans could hug us every day if we wanted them to do so – but maybe in extreme situations a hug by a robot is better than nothing. The HUGGIE project is located in the heart of social robotics and on the periphery of machine ethics. By summer 2020, the students will conduct an online survey to find out the attitudes and expectations of the users.
„Sicherheitsroboter verbreiten sich in den Stadtteilen, in den Einkaufszentren und auf den Firmengeländen, als rollende und fliegende Maschinen. Sie sollen für die Sicherheit der Unternehmen, Besucher und Kunden sorgen. Sie sind autonom bzw. teilautonom oder werden von Menschen oder weiteren Systemen zu Einsatzorten und Problemfällen navigiert. Je nach Zusammenhang werden sie auch als Überwachungsroboter oder Polizeiroboter bezeichnet.“ So beginnt ein neuer Beitrag von Oliver Bendel im Gabler Wirtschaftslexikon. Manche von ihnen können, so wird erklärt, mit Hilfe von Kameras und Mikrofonen „sehen“ und „hören“, einige zudem „riechen“, d.h. Gefahrenstoffe und Rauchentwicklung wahrnehmen. Sicherheitsroboter dieser Art stellt Knightscope im Silicon Valley her. Dort werden auch einige von ihnen eingesetzt. Der K5 beispielsweise ist in der Stanford Shopping Mall unterwegs. Dubai dagegen setzt auf REEM von PAL Robotics, in der rollenden Variante und mit der Mütze eines Polizisten. Der Beitrag ist am 5. März 2020 erschienen und kann über wirtschaftslexikon.gabler.de/definition/sicherheitsroboter-122267 heruntergeladen werden.
Living, working, and sleeping in small spaces next to the same people for months or years would be stressful for even the fittest and toughest astronauts. Neel V. Patel underlines this fact in a current article for MIT Technology Review. If they are near Earth, they can talk to psychologists. But if they are far away, it will be difficult. Moreover, in the future there could be astronauts in space whose clients cannot afford human psychological support. „An AI assistant that’s able to intuit human emotion and respond with empathy could be exactly what’s needed, particularly on future missions to Mars and beyond. The idea is that it could anticipate the needs of the crew and intervene if their mental health seems at risk.“ (MIT Technology Review, 14 January 2020) NASA wants to develop such an assistant together with the Australian tech firm Akin. They could build on research by Oliver Bendel. Together with his teams, he has developed the GOODBOT in 2013 and the BESTBOT in 2018. Both can detect users’ problems and react adequately to these problems. The more recent chatbot even has face recognition in combination with emotion recognition. If it detects discrepancies with what the user has said or written, it will make this a subject of discussion. The BESTBOT on Mars – it would like that.
An der FHNW wurden LADYBIRD und HAPPY HEDGEHOG gebaut, zwei Prototypen tierfreundlicher Maschinen. LADYBIRD hat inzwischen einige Bekanntheit erlangt und gilt als Vorzeigebeispiel der Maschinenethik. Aber was findet weltweit auf diesem Gebiet statt? Es ist bekannt, dass es Mähdrescher gibt, denen Drohnen voranfliegen, die Rehkitze im Feld zurückmelden. Auch Windkraftanlagen, die sich für nahende Vogelschwärme ausstellen, wurden ausprobiert. Aber was gibt es sonst, und was ist geplant? Die Studie, die im Februar 2020 im Studiengang Energie, Umwelt, Technik (EUT) begonnen wird, soll eine Bestandsaufnahme machen und eine Systematisierungsleistung vornehmen: In welchen Gebieten treffen Tiere mit Maschinen zusammen, auf dem Boden, im Wasser, in der Luft? Um welche Tiere handelt es sich, um Haus-, Nutz-, Versuchs- oder Wildtiere? Um welche Maschinen, um von Menschen gesteuerte, teilautonome oder autonome? Wie treffen Maschine und Tier aufeinander, wie ist das Tierwohl gefährdet und wie kann es gesichert werden? Welche Disziplinen nehmen sich dieses Themas an, Tier-Computer-Interaktion, Tier-Maschine-Interaktion, Tierethik, Umweltethik, Maschinenethik? Welche Projekte sind für die Zukunft geplant? Was sind die Gründe für die Projekte, ökonomische, ökologische, ethische? Der Betreuer ist der Informations- und Maschinenethiker Oliver Bendel. Als Auftraggeber hat er Animal Rights Switzerland gewonnen.
Abb.: Diese Maschine sieht selbst aus wie ein Tier
Since 2012, Oliver Bendel has invented 13 artifacts of machine ethics. Nine of them have actually been implemented, including LADYBIRD, the animal-friendly vacuum cleaning robot, and LIEBOT, the chatbot that can systematically lie. Both of them have achieved a certain popularity. The information and machine ethicist is convinced that ethics does not necessarily have to produce the good. It should explore the good and the evil and, like any science, serve to gain knowledge. Accordingly, he builds both moral and immoral machines. But the immoral ones he keeps in his laboratory. In 2020, if the project is accepted, HUGGIE will see the light of day. The project idea is to create a social robot that contributes directly to a good life and economic success by touching and hugging people and especially customers. HUGGIE should be able to warm up in some places, and it should be possible to change the materials it is covered with. A research question will be: What are the possibilities besides warmth and softness? Are optical stimuli (also on displays), vibrations, noises, voices etc. important for a successful hug? All moral and immoral machines that have been created between 2012 and 2020 are compiled in a new illustration, which is shown here for the first time.
From June 2019 to January 2020 the Morality Menu (MOME) was developed under the supervision of Prof. Dr. Oliver Bendel. With it you can transfer your own morality to the chatbot called MOBO. First of all, the user must provide various personal details. He or she opens the „User Personality“ panel in the „Menu“ and can then enter his or her name, age, nationality, gender, sexual orientation, and hair color. These details are important for communication and interaction with the chatbot. In a further step, the user can call up the actual morality menu („Rules of conduct“) via „Menu“. It consists of 9 rules, which a user (or an operator) can activate (1) or deactivate (0). The behaviors 1 – 8, depending on how they are activated, result in the proxy morality of the machine (the proxy machine). It usually represents the morality of the user (or the operator). But you can also give the system the freedom to generate its morality randomly. This is exactly what happens with this option. After the morality menu has been completely set, the dialogue can begin. To do this, the user calls up „Chatbot“ in the „Menu“. The Chatbot MOBO is started. The adventure can begin! A video of the MOBO-MOME is available here.
„TA-SWISS schreibt ein Projekt aus, um die Chancen und Risiken von Stimm-, Sprach- und Gesichtserkennung abzuschätzen.“ (Website TA-SWISS) So lautet die Aussage auf der Website der Schweizer Einrichtung für Technologiefolgenabschätzung. Im Vorfeld hatte ein Expertengremium (u.a. mit Prof. Dr. Oliver Bendel) getagt, um die Inhalte und Schwerpunkte einzukreisen. In der Ausschreibung heißt es: „Stimm-, Sprach- und Gesichtserkennung können unseren Alltag erleichtern und sicherer machen. Durch diese Technologien können wir unsere Geräte einfach entsperren (und damit vor Missbrauch schützen), Grenzübertritte reibungsloser gestalten und smarten Helfern Befehle erteilen. Gleichzeitig dringen diese Technologien in den öffentlichen und privaten Raum ein und erheben biometrische Daten, die uns nicht nur identifizieren, sondern möglicherweise auch Auskunft über unsere Emotionen, Persönlichkeit oder Krankheiten geben könnten.“ (Website TA-SWISS) Die Projektskizzen sind bis zum 9. Februar 2020 einzureichen. Weitere Informationen über www.ta-swiss.ch/en/projects/call-for-tenders/.
At the request of Prof. Dr. Oliver Bendel, a student at the School of Business FHNW, Alessandro Spadola, investigated in the context of machine ethics whether markup languages such as HTML, SSML and AIML can be used to transfer moral aspects to machines or websites and whether there is room for a new language that could be called Morality Markup Language (MOML). He presented his results in January 2020. From the management summary: „However, the idea that owners should be able to transmit their own personal morality has been explored by Bendel, who has proposed an open way of transferring morality to machines using a markup language. This research paper analyses whether a new markup language could be used to imbue machines with their owners‘ sense of morality. This work begins with an analysis how a markup language is structured, describes the current well-known markup languages and analyses their differences. In doing so, it reveals that the main difference between the well-known markup languages lies in the different goals they pursue which at the same time forms the subject, which is marked up. This thesis then examines the possibility of transferring personal morality with the current languages available and discusses whether there is a need for a further language for this purpose. As is shown, morality can only be transmitted with increased effort and the knowledge of human perception because it is only possible to transmit them by interacting with the senses of the people. The answer to the question of whether there is room for another markup language is ‚yes‘, since none of the languages analysed offer a simple way to transmit morality, and simplicity is a key factor in markup languages. Markup languages all have clear goals, but none have the goal of transferring and displaying morality. The language that could assume this task is ‚Morality Markup‘, and the present work describes how such a language might look.“ (Management Summary) The promising results are to be continued in the course of the year by another student in a bachelor thesis.
In a paper published on 13 January 2020, researchers from the University of Vermont and Tufts University discuss computer-designed, novel organisms called Xenobots. Xenobots consist of skin and muscle cells. The skin cells stabilize the organisms, the muscle cells enable them to perform different activities. A nervous system is not present. An AI system calculates the optimal structure and ratio of the cells in relation to a specific function. The Xenobots are assembled according to the resulting construction plan. In fact, the cells appear to work together. They receive their energy from their embryonic resources – for this one must know that they were developed from stem cells from frog embryos. The researchers see different areas of application. One could build Xenobots that clean blood vessels, for example by removing plaque. However, this could also lead to dangers, because it will be easy to insert the biorobots into the bloodstream, but not so easy to remove them. However, there will also be ways to break down the cells.
Die Idee eines Moralmenüs (MOME) entstand 2018 im Kontext der Maschinenethik. Damit sollte es möglich sein, die Moral einer Person auf eine Maschine zu übertragen. Auf einem Display bekommt man verschiedene Verhaltensregeln angezeigt und kann diese über Schieberegler aktivieren oder deaktivieren. Oliver Bendel entwickelte zwei Designstudien, eine für einen tierfreundlichen Staubsaugroboter namens LADYBIRD, eine andere für einen Sprachassistenten wie Google Duplex. Ende 2018 schrieb er an der Hochschule für Wirtschaft FHNW ein Projekt aus. Drei Studenten – Ozan Firat, Levin Padayatty and Yusuf Or – implementierten von Juni 2019 bis Januar 2020 das MOME für einen Chatbot mit dem Namen MOBO. Der Benutzer macht Angaben zu seiner Person und aktiviert oder deaktiviert dann neun verschiedene Verhaltensregeln. MOBO gibt Komplimente oder gibt keine Komplimente, antwortet voller Vorurteile oder ohne Vorurteile, bedroht den Gesprächspartner oder bedroht ihn nicht. Dabei geht er auf jeden Benutzer individuell ein, nennt dessen Namen – und spricht ihn je nach Einstellung formell oder informell an. Ein Video zum MOBO-MOME ist hier abrufbar.
Die Firma Neon greift mit ihren Neons ein altes Konzept auf, nämlich das der Avatare. Im Lexikon für Wirtschaftsinformatik unterschied Oliver Bendel vor zwanzig Jahren zwischen zwei verschiedenen Typen. Zum zweiten schrieb er: „Avatare können zum anderen eine beliebige Figur mit bestimmten Funktionen repräsentieren. Solche Avatare treten – beispielsweise als Kundenberater und Nachrichtensprecher – im Internet auf oder bevölkern als Spielpartner und -gegner die Abenteuerwelten von Computerspielen. Sie haben häufig ein anthropomorphes Äußeres und eigenständige Verhaltensweisen oder sogar regelrechte Charaktere …“ (Lexikon der Wirtschaftsinformatik, 2001) Genau diesen Typ greift nun die Firma auf, die zum Samsung-Konzern gehört und von Pranav Mistry gegründet wurde, wobei man freilich die heutigen Möglichkeiten nutzt. „Es handelt sich um virtuelle Figuren, die komplett am Computer erzeugt werden und quasi in Echtzeit autonom reagieren sollen; Mistry sprach von unter 20 Millisekunden Latenz.“ (Heise Online, 8. Januar 2019) Die Neons sollen Emotionen zeigen, wie auch einige soziale Roboter, die den Markt erobern, und damit Bindungen erleichtern und festigen. „Der KI-getriebene Charakter sei weder Sprachassistent a la Bixby noch eine Schnittstelle ins Internet. Es sei stattdessen ein Freund, der mehrere Sprachen spricht, neue Skills lernen und sich mit anderen Services verbinden kann, erklärte Mistry auf der CES.“ (Heise Online, 8. Januar 2019)
Abb.: Neons sollen Gefühle zeigen, die sie nicht haben
Zwischen Juni 2019 und Januar 2020 wurde an der Hochschule für Wirtschaft FHNW unter der Leitung von Oliver Bendel das Projekt HAPPY HEDGEHOG (HHH) durchgeführt. Die Studierenden Emanuel Graf, Kevin Bollier, Michel Beugger und Vay Lien Chang entwickelten im Kontext der Maschinenethik den Prototyp eines Mähroboters, der seine Arbeit einstellt, sobald er einen Igel entdeckt hat. HHH verfügt über eine Wärmebildkamera. Wenn er auf ein warmes Objekt stößt, wird dieses mittels Bilderkennung weiter untersucht. Nachts hilft eine oben angebrachte Lampe dabei. Nach dem Training mit hunderten Fotos kann HHH ziemlich treffsicher einen Igel identifizieren. Es ist nicht nur eine weitere moralische Maschine im Labor entstanden. Das Team liefert mit ihr auch einen Lösungsvorschlag für ein Problem, das in der Praxis häufig auftritt. Handelsübliche Mähroboter töten nämlich immer wieder Igelbabys in der Dunkelheit. HAPPY HEDGEHOG könnte dabei helfen, sie zu retten. Das Bild unterhalb des Beitrags zeigt ihn mit, das Video auf youtu.be/ijIQ8lBygME ohne Verkleidung. Der Roboter steht in der Tradition von LADYBIRD.
The book chapter „The BESTBOT Project“ by Oliver Bendel, David Studer and Bradley Richards was published on 31 December 2019. It is part of the 2nd edition of the „Handbuch Maschinenethik“, edited by Oliver Bendel. From the abstract: „The young discipline of machine ethics both studies and creates moral (or immoral) machines. The BESTBOT is a chatbot that recognizes problems and conditions of the user with the help of text analysis and facial recognition and reacts morally to them. It can be seen as a moral machine with some immoral implications. The BESTBOT has two direct predecessor projects, the GOODBOT and the LIEBOT. Both had room for improvement and advancement; thus, the BESTBOT project used their findings as a basis for its development and realization. Text analysis and facial recognition in combination with emotion recognition have proven to be powerful tools for problem identification and are part of the new prototype. The BESTBOT enriches machine ethics as a discipline and can solve problems in practice. At the same time, with new solutions of this kind come new problems, especially with regard to privacy and informational autonomy, which information ethics must deal with.“ (Abstract) The BESTBOT is an immoral machine in a moral one – or a moral machine in an immoral one, depending on the perspective. The book chapter can be downloaded from link.springer.com/referenceworkentry/10.1007/978-3-658-17484-2_32-1.
According to The Robot Report, Anki’s little robots might be making a comeback. Digital Dream Labs in Pittsburgh acquired the patents, trademarks, and domain. The start-up company „is planning to revive and manufacture more units of each product in the following order: Overdrive, Cozmo, Vector“ (The Robot Report, 26 December 2019). Digital Dream Labs founder H. Jacob Hanchar told The Robot Report „the goal is to have all three products available for purchase for Christmas 2020“ (The Robot Report, 26 December 2019). The small robots belong to the best that the industry has produced. What is special about Cozmo is the many emotions it can show (but of course doesn’t have). It also has face recognition and a night vision device. The future of it and its siblings is not yet clear, as Digital Dream Labs has not purchased „physical assets and inventory“ (The Robot Report, 26 December 2019). Fans are waiting and hoping.
„Living with Harmony“ by Kino Coursey, Susan Pirzchalski, Matt McMullen, Guile Lindroth, and Yuri Furuushi is a book chapter of „AI Love You“ by Yuefang Zhou and Martin H. Fischer. From the abstract: „Existing personal assistants and agents are by design limited in their ability to form or encourage close personal bonds. The Harmony system is designed to be a customizable personal companion agent capable of close personal interaction via the user’s phone, virtual reality headset, as well as through a physical interactive android body. In this chapter, we will describe the history that led to Harmony’s creation, the unique challenges and the overall system design. We will also look at user reactions to the system and anticipated future developments.“ (Abstract) Other authors in the book are Jessica M. Szczuka, Melinda A. Mende, John Danaher, Giuseppe Lugano, Yuefang Zhou, Martin H. Fischer, and Oliver Bendel. Some of them met at the international workshop „Learning from Humanoid AI: Motivational, Social & Cognitive Perspectives“ at the University of Potsdam on 30 November and 1 December 2019.
The international workshop „Learning from Humanoid AI: Motivational, Social & Cognitive Perspectives“ took place from 30 November – 1 December 2019 at the University of Potsdam. Dr. Jessica Szczuka raised the question: „What do men and women see in sex robots?“ … Some sentences from the abstract: „What do we see when we look at a sexualized robot? The presentation will focus on first empirical results on the visual perception of sexualized robots but will also share some insights on whether women do perceive sexualized robots as a potential threat to an existing romantic relationship and their own self-concept. Both aspects, the visual perception but also the social perception are crucial in order to understand the role sexualized robots may have in our society. Moreover, the role of the human-likeness of sex robots will be discussed.“ (Website Workshop) In her talk, Szczuka demonstrated „empirical evidences on the visual perception of sexualized robots and their potential to evoke jealousy in women“. She confronted 848 heterosexual women with the statement „Imagine you found out that your partner had sex with a human-like or a machine-like sex robot.“ … The results „revealed dimensions in which the jealousy-related discomfort was higher for female competitors compared to the robotic ones (e.g., discomfort caused by the idea of sexual intercourse), whereas in others the robots evoked the same or higher levels of jealousy-related discomfort (e.g., discomfort caused by feelings of inadequacy, discomfort caused by shared emotional and time resources)“ (Szczuka and Krämer 2018).
Nach drei Jahren ist ein ambitioniertes Projekt an sein vorläufiges Ende gekommen: Das „Handbuch Maschinenethik“ (Hrsg. Oliver Bendel) ist Mitte Oktober 2019 bei Springer erschienen. Es versammelt Beiträge der führenden Expertinnen und Experten in den Bereichen Maschinenethik, Roboterethik, Technikethik, Technikphilosophie sowie Roboterrecht. Im Moment kann es hier heruntergeladen werden: link.springer.com/book/10.1007/978-3-658-17483-5 … Es ist ein umfangreiches, ein vorzeigenswertes, ein einzigartiges Buch geworden. In gewisser Weise bildet es ein Gegenstück zur amerikanischen Forschung, die die Disziplin dominiert: Die meisten Autorinnen und Autoren stammen aus Europa und Asien. Der Herausgeber, der sich seit 20 Jahren mit Informations-, Roboter- und Maschinenethik beschäftigt und seit acht Jahren intensiv zur Maschinenethik forscht, ist voller Hoffnung, dass das Buch seinen Platz in der Standardliteratur zur Maschinenethik finden wird, wie „Moral Machines“ (2009) von Wendell Wallach und Colin Allen und „Machine Ethics“ (2011) von Michael und Susan Leigh Anderson, und wie „Programming Machine Ethics“ (2016) von Luís Moniz Pereira (mit Ari Saptawijaya) und „Grundfragen der Maschinenethik“ (2018) von Catrin Misselhorn – die beiden haben wesentlich zum „Handbuch Maschinenethik“ beigetragen. In den nächsten Tagen wird das Buch mit seinen 23 Kapiteln und 469 Seiten zum Verkauf über die Springer-Website bereitgestellt und auch als Printversion angeboten.
Kevin Liggieri und Oliver Müller sind die Herausgeber von „Mensch-Maschine-Interaktion“, einem „Handbuch zu Geschichte – Kultur – Ethik“, wie der Untertitel verrät. Aus der Verlagsinfo: „Das Handbuch bietet einen Überblick über die technischen, historischen, sozialen, medialen, kulturwissenschaftlichen und technikphilosophischen Dimensionen verschiedener Typen von Mensch-Maschine-Interaktion sowie über deren ethische Implikationen. Dabei werden zum einen wissenshistorische Analysen der Diskurse in Philosophie, Literatur und Technik sowie ihrer medialen, apparativen und literalen Praktiken von ca. 1870 bis in die Gegenwart verfolgt (Historischer Teil). Zum anderen wird das komplexe Verhältnis von Menschen und Maschinen anhand von zentralen Begriffs- und Problemfeldern dargestellt und kritisch befragt (Systematischer Teil).“ Der Beitrag von Oliver Bendel trägt den Titel „Die Maschinenethik als neues interdisziplinäres Forschungsfeld“. Das Buch ist bei Metzler erschienen und kann über www.springer.com/de/book/9783476026804 bestellt werden.
Die Verschmutzung der Gewässer durch Plastik ist ein Thema, das seit ein paar Jahren ständig in den Medien zu finden ist. Bereits 2015 wurde an der Hochschule für Technik FHNW und der Hochschule für Wirtschaft FHNW untersucht, ob ein Roboterfisch – in der Art des CLEANINGFISH (2014) von Oliver Bendel – eine Lösung sein könnte. 2018 wurde von dem Informations- und Maschinenethiker eine weitere Arbeit vergeben, mit dem Auftrag, mehrere bestehende oder geplante Projekte zu untersuchen, die sich der Meeresverschmutzung annehmen. Als Grundlage der Abschlussarbeit im Studiengang EUT von Rolf Stucki diente „eine Literaturrecherche zum aktuellen Stand der Plastikproblematik weltweit und deren Auswirkungen, aber auch zu den Eigenschaften und Vorzügen von Kunststoffen“ (Management Summary). „Zusätzlich wurden Interviews mit Vertreterinnen und Vertretern der Projekte geführt. Um die internen Unternehmensfaktoren (Stärken, Schwächen) und externen Umweltfaktoren (Chancen, Risiken) zu beurteilen, wurden anhand der Antworten und der Recherche SWOT-Analysen erstellt.“ (Management Summary) Die Resultate zeigen laut Stucki, dass die meisten Projekte finanziell abhängig sind von Sponsoren und Geldgebern. Zwei von ihnen seien außerdem in der Konzeptphase; sie sollten mittelfristig die technische und finanzielle Machbarkeit nachweisen. Mit Blick auf das soziale Engagement lasse sich sagen, dass alle sechs Projekte sehr aktiv sind. Ein Plakat zeigt einen Vergleich (die Fotos wurden für die Publikation in diesem Blog verfremdet). Als Roboter sticht WasteShark aus den Ansätzen heraus. Er ist sozusagen der CLEANINGFISH, der Realität geworden ist.
Robophilosophy or robot philosophy is a field of philosophy that deals with robots (hardware and software robots) as well as with enhancement options such as artificial intelligence. It is not only about the practice and history of development, but also the history of ideas, starting with the works of Homer and Ovid up to science fiction books and movies. Disciplines such as epistemology, ontology, aesthetics and ethics, including information and machine ethics, are involved. The new platform robophilosophy.com was founded in July 2019 by Oliver Bendel. He invited several authors to write with him about robophilosophy, robot law, information ethics, machine ethics, robotics, and artificial intelligence. All of them have a relevant background. Oliver Bendel studied philosophy as well as information science and made his doctoral thesis about anthropomorphic software agents. He has been researching in the fields of information ethics and machine ethics for years.