Horizon Zero Dawn: Über emotionale Maschinen mit Schmerzempfinden

Aloy, die Protagonistin von Horizon Zero Dawn
Aloy bei Sonnenuntergang auf einem Berghang | Screenshot: Hollow Cake (www.hollowcake.de)

Teil 2 von 2 der Blogreihe zu Horizon Zero Dawn.


Was bisher geschah

Horizon Zero Dawn ist ein beeindruckendes und unterhaltsames Videospiel und zählt vermutlich zurecht zu den bedeutenden Titeln der PlayStation 4. Im ersten Teil dieser kurzen Blogreihe zu dem Videospiel von Guerilla Games aus dem Jahr 2017, in dem man hauptsächlich mit Pfeil und Bogen gegen „Roboterdinosaurier“ kämpft, habe ich mich mit der faszinierenden Hintergrundgeschichte befasst und erläutert, inwiefern sich Macher:innen mit großer Wahrscheinlichkeit von aktueller Forschung, bezogen auf künstliche Intelligenz, speziell autonome Kriegsroboter, sowie der sogenannten technologischen Singularität und ihren Folgen haben inspirieren lassen und eine Welt entworfen haben, deren technische Errungenschaften auch für unsere reale Welt durchaus im Rahmen des Möglichen sind.

In diesem zweiten Teil werde ich auf zwei weitere Aspekte eingehen, die Horizon Zero Dawn aus philosophischer, vor allem aus technikethischer Perspektive so interessant machen und die ebenfalls in heutiger Forschung und Wissenschaft verstärkt behandelt werden.

Konkret geht es einerseits um das Verhalten sowie das Aussehen der Maschinenwesen, die in der Welt von Horizon Zero Dawn die dominanten „Lebensformen“ sind und andererseits um die Besonderheiten der künstlichen Intelligenz GAIA sowie die Frage wie einer Maschine Ethik beigebracht werden kann.

Roboter mit Schmerzempfinden

Der erste Aspekt betrifft die Maschinenwesen von Horizon Zero Dawn, deren eigentliche Aufgabe es ist, die Welt nach der vollständigen Zerstörung zu reinigen und neu zu formen. Betrachtet man diese Maschinen genauer, so lässt sich nicht nur feststellen, dass die meisten von ihnen optisch verschiedenen echten Tieren nachempfunden sind.

Es kann ebenfalls beobachtet werden, dass sie sich auch wie echte Tiere bewegen und verhalten – angelehnt an Bewegungen und Verhalten der jeweiligen tierischen Vorbilder. So leben beispielsweise Graser oder Läufer, welche Pferden und Hirschen nachempfunden sind, in Herden, haben einen ausgeprägten Fluchtinstinkt und zeigen andere herdentypische Verhalten wie das Warnen der Artgenossen vor drohender Gefahr.[1]

Andere Maschinen wie beispielsweise der Sägezahn offenbaren ein Verhalten, das dem von Raubtieren entspricht, wobei sie in Horizon Zero Dawn normalerweise nicht andere Maschinen angreifen, sondern Menschen oder andere Gefahren für die terraformenden Maschinen.[2]

Besonders faszinierend am Verhalten dieser Maschinen ist aber, dass sie bei schwerer Beschädigung anfangen zu hinken und andere Anzeichen von verletzungstypischem Verhalten aufzeigen. Dieses Verhalten legt nahe, dass die Maschinenwesen von Horizon Zero Dawn mit einem Überlebenssinn ausgestattet sind und zumindest dem Anschein nach Schmerz empfinden können.

Tierisches Verhalten und Aussehen zur besseren Kommunikation mit Menschen

Hierin finden sich die Parallelen zu aktueller Forschung in der wirklichen Welt. Es ist inzwischen relativ einfach, Roboter herzustellen, die zumindest in ihren Bewegungen und Reaktionen Tieren – aber auch Menschen – ähneln. Eines der prominentesten Beispiele ist Paro, ein Roboter, der wie eine junge Seerobbe aussieht, auf Berührungen reagieren kann und häufiger in der Pflege demenzkranker Personen eingesetzt wird.

Solche Verhaltensweisen wie beispielsweise Berührungsreaktionen einzuprogrammieren soll dabei in der Regel bestimmten Zwecken dienlich sein. Da Paro vor allem in der Pflege eingesetzt wird, geht es hier primär natürlich um therapeutische Gründe und die Behandlung von Patient:innen.

Doch auch im Fall von Robotern, die kein typisch tierisches oder menschliches Aussehen haben, beispielsweise bei Industrierobotern, können entsprechende Verhaltensweisen hilfreich sein. So kann die Kommunikation zwischen Menschen und Robotern vereinfacht werden, wenn die Roboter Verhaltensweisen an den Tag legen, die wir Menschen von Tieren oder uns selbst kennen, wie beispielsweise eine Studie von Sauer, Sauer und Mertens zeigt.[3]

Bindungen zwischen Mensch und Maschine

Roboter in Tier- oder Menschenform darzustellen und ihnen entsprechende Verhaltensweisen mitzugeben, hat aber über das eben Genannte hinaus mindestens noch einen weiteren Zweck, der nicht unterschlagen werden darf: Bindungsaufbau. Es fällt uns Menschen deutlich leichter uns auf Roboter einzulassen oder gar Bindungen mit ihnen aufzubauen, wenn sie in einer Form dargestellt werden, wenn sie aussehen und sich verhalten wie empfindungsfähige Lebewesen.

Wenn die Roboterpuppe Paro auf Berührungen unmittelbar reagiert und ihren Schwanz oder Kopf bewegt und zudem noch Geräusche von sich gibt, dann neigt man schnell dazu den Eindruck zu gewinnen, dass der Roboter die Berührung wirklich gespürt hat und offenbar zu Empfindungen fähig ist. Die Anthropo- beziehungsweise Zoomorphisierung von Robotern spielt dabei eine wesentliche Rolle, wie unter anderem David Levy in seinem Buch „Love and Sex with Robots“ behauptet:

„The more humanlike a robot is in its behavior, in its appearance, and in the manner with which it interacts with us, the more ready we will be to accept it as an entity with which we are willing or even happy to engage.”[4]

Je ähnlicher ein Roboter in seinem Verhalten und Aussehen und den Interaktionen mit uns Menschen ist, so Levy, umso eher werden wir einen Roboter als eine Entität akzeptieren, auf die wir uns einlassen.

Was das grundsätzliche Aussehen angeht, ähneln aktuell existierende Roboter wie beispielsweise Paro ihren natürlichen Vorbildern mitunter sehr und sie kommen diesbezüglich auch an die überzeugende Darstellung der Maschinenwesen aus Horizon Zero Dawn heran. Wobei bei den realen Robotern je nach Anwendungsbereich eine vollkommene optische Nachahmung realer Lebewesen vorgehesen ist, wohingegen die Maschinenwesen im Videospiel zwar der Form nach realen Tieren ähneln, aber dann im Aussehen letztlich die Maschinenteile nicht verborgen werden.

Dies hat vermutlich ästhetische und praktische Gründe. Einerseits sind die Maschinenwesen so auf einen Blick einwandfrei zu erkennen und können von echten Lebenwesen problemlos unterschieden werden. Andererseits sind Maschinenwesen, die entsprechend technisch dargestellt sind, aus ästhetischen Sichtpunkten durchaus ansehlich und besonders und viele reale Designs von Robotern, die alle dieses technische Aussehen beibehalten, legen nahe, dass ein solches Design sehr beliebt ist.

Zudem scheint durch eine entsprechende technische optische Darstellung das Problem des Uncanny Valley, welches erstmals von Masahiro Mori identifiziert wurde, umgangen zu werden. Grundsätzlich scheint dieses Phänomen dort aufzutreten, wo eine künstliche Entität zu real aussieht, wir aber unterbewusst wissen, dass damit etwas nicht stimmt, und wir daher dazu neigen, ein Unbehagen und eine starke Abneigung gegenüber der fraglichen Entität zu empfinden.

Sherry Turkle et al. legen zudem nahe, dass Studien zeigen würden, dass schon gegenüber einfachsten Robotern enorme Zuneigung vorhanden ist und je komplexer die Roboter seien, umso stärker sei der Wunsch, dass diese den eigenen Namen sagten oder Liebe mit Liebe begegneten.[5]

In einem Experiment von Aike C. Horstmann et al. wurde zudem gezeigt, dass Proband:innen eher dazu geneigt waren, einen Roboter nach kurzer Zusammenarbeit nicht abzuschalten, wenn dieser sie darum bat, dies zu unterlassen, da er sich vor der Dunkelheit fürchte.[6]

Vorprogrammiertes Verhalten

Natürlich muss beachtet werden, dass nach aktuellem Stand der Technik und Forschung Roboter nicht in der Lage sind, zu empfinden und sowohl die Verhaltensweisen als auch die vermeintlichen Empfindungen im Vorfeld einprogrammierte Reaktionen auf zuvor ausgeführte Aktionen sind.

Demnach gleichen sie mehr einem – für Computer typischen – Input-Output-Verhältnis, bei dem alle möglichen Reaktionen vorgegeben werden, sodass von Empfindung kaum gesprochen werden kann. Dies gilt sowohl für die geschilderte Angst vor der Dunkelheit als auch für die Schmerzreaktionen, wie sie von den Maschinenwesen in Horizon Zero Dawn dargestellt werden.

Wenngleich es ausgiebige Versuche dazu gibt, Schmerzempfindungen in Maschinen zu reproduzieren, handelt es sich hierbei bisher jedoch nicht um phänomenales Schmerzbewusstsein, wie es in Lebewesen vorkommt und – wie Catrin Misselhorn anmerkt – „weiß [bislang] auch niemand, wie man in der direkten Programmierung einer solchen Funktion vorgehen müsste“[7].

Die Natur als Vorbild – Soft Robots in Horizon Zero Dawn

Da die Technik in Horizon Zero Dawn unserer Technik jedoch bereits weit überlegen ist – und das auch bevor die Faro-Plage alles Leben zerstört hat – kann natürlich nicht einfach so ausgeschlossen werden, dass die Maschinen nicht doch in der Lage sind, Schmerzen zu empfinden, weshalb wir dies an dieser Stelle durchaus als gegeben hinnehmen können.[8]

Tatsächlich bestehe aktuell die Hoffnung, so Misselhorn weiter, dass man dem Prozess des Lebens durch sogenannte Soft Robots, welche aus nachgiebigen Materialien bestünden, die sich an biologische Vorbilder anlehnten, so nahekommen könne, dass in den Robotern wirklich Gefühle entstünden.[9] Hierbei sollen die verwendeten Materialien natürlichem Gewebe entsprechen oder diesem und seinen Funktionen nahekommen.[10]

Ähnliche Materialien sehen wir in Horizon Zero Dawn und es ist gut vorstellbar, dass es mit entsprechendem technischen Fortschritt wirklich gelingen kann, Maschinen mit Gefühlen und Empfindungen auszustatten und biologische Eigenschaften organischen Gewebes durch synthetische Materialien zu reproduzieren. Hinkende und schmerzempfindende Maschinen, wie sie in Horizon Zero Dawn vorkommen, scheinen also gar nicht allzu abwegig zu sein.

Doch auch hier gilt, dass solche Maschinen, vor allem in dem Ausmaß, wie sie das Spiel darstellt, vorerst noch Zukunftsmusik und hauptsächlich der Stoff von Science-Fiction sind. Es verdeutlicht aber einmal mehr, inwiefern sich Guerilla Games sehr Wahrscheinlich von der aktuellen Forschung haben inspirieren lassen und wie „realistisch“ diese Aspekte im Videospiel umgesetzt wurden.

Emotionale, wohlwollende künstliche Intelligenz

Der zweite Aspekt betrifft die Erschaffung der künstlichen Intelligenz GAIA. Bei GAIA handelt es sich laut den Informationen, die man im Laufe des Spiels erhält, um eine Superintelligenz beziehungsweise Super-KI, die von Elisabet Sobeck erschaffen wurde, um das Projekt Zero Dawn zu überwachen und zu steuern.[11]

Besonders spannend an GAIA sind dabei nicht ihre technischen Fertigkeiten oder die Aufgaben, mit deren Durchführung sie betraut wird, sondern vielmehr, dass sie als künstliche Intelligenz emotionale Fähigkeiten, Empathie sowie einen wohlwollenden, friedliebenden Charakter entwickelt, was dazu führt, dass sie die Vernichtung allen Lebens auf der Erde als ein zutiefst trauriges Ereignis ansieht und selbst Trauer ob der Vernichtung entwickelt.[12]

Die mächtigste und fortschrittlichste künstliche Intelligenz, die in der Welt von Horizon Zero Dawn jemals erschaffen wurde, ist somit zugleich eine, die den Menschen – und generell allem Leben – wohlgesonnen ist und dieses nicht auslöschen, sondern erhalten und beschützen möchte. Mit einer solchen künstlichen Intelligenz weichen die Macher:innen des Spiels erneut verstärkt von oftmals üblichen Science-Fiction-Szenarien ab und sie verwenden zudem ein Zukunftsszenario, wie es heutzutage von Befürworter:innen einer technologischen Singularität (wie in Teil 1 der Blogreihe angesprochen) durchaus vertreten wird.

Was ist Intelligenz?

Beachtet werden muss dabei jedoch, dass wir in der wirklichen Welt wohl bisher noch sehr weit von einer so mächtigen und mit solchen Fähigkeiten ausgestatteten künstlichen Intelligenz entfernt sind. Tatsächlich ist damit nicht einmal gemeint, dass wir nicht bereits Computer haben, die Berechnungen deutlich schneller als jeder Mensch durchführen können, sondern vielmehr, dass beispielsweise selbst unter Expert:innen keine Einigkeit darüber herrscht, was genau Intelligenz eigentlich ist. Handelt es sich hierbei vor allem um logisches, numerisches und räumliches Denken, wie es oftmals Kern vieler „Intelligenztests“ ist oder müssen auch andere Fertigkeiten wie emotionales Verständnis und Kreativität notwendigerweise berücksichtigt werden?[13]

Max Tegmark beispielsweise verwendet den Begriff in dem Sinn, dass Intelligenz die Fähigkeit ist, komplexe Ziele zu erfüllen.[14] Er weist aber auch darauf hin, dass dies ein sehr weites Verständnis des Intelligenzbegriffs ist, welcher auch nicht frei von Problemen ist.

So kann zum einen zurecht gefragt werden was alles als ein komplexes Ziel gilt und zum anderen könnte man aufgrund dieser Definition die Behauptung aufstellen, dass wir bereits künstliche Intelligenzen haben. Ein mathematisches Problem lösen sollte doch wohl eindeutig das Erfüllen eines komplexen Ziels sein.

Um hier weiter Klarheit zu schaffen, spricht Tegmark daher von narrow intelligence (enge Intelligenz) und broad intelligence (weite Intelligenz) um zu verdeutlichen, wie sich die „Intelligenzen“ von Computern von denen von Menschen beispielsweise unterscheiden.[15]

Computer sind dabei meist spezialisiert auf ein sehr beschränktes Aufgabenfeld in dem sie dann aber Leistungen erbringen, mit denen Menschen nicht mithalten können. Betrachtet man nun ausschließlich diesen einen Bereich, dann ist der Computer um ein Vielfaches „intelligenter“ als ein Mensch beziehungsweise wirkt so.

Menschen hingegen können in vielen unterschiedlichen Bereichen dazulernen und besser werden und in diesen vielen Bereichen viele verschiedene komplexe Ziele erfüllen. Sie haben eben eine sehr weite oder umfassende Intelligenz, die bei Computern so (noch) nicht vorkommt.

Wenn also von künstlicher Intelligenz oder Superintelligenz gesprochen wird, dann ist damit in der Regel die weite Intelligenz gemeint. Das Ziel von Forscher:innen ist es dementsprechend, eine solche weite Intelligenz auf künstlicher Ebene zu reproduzieren.

Diese Form der künstlichen Intelligenz wird zumeist als Artificial General Intelligence bezeichnet und bei GAIA handelt es sich um eine ebensolche künstliche Intelligenz.

Die moralischen Maschinen von Horizon Zero Dawn

Wesentlich bei ihrer Entstehung ist, wenngleich sich die Macher:innen des Spiels eher damit bedeckt halten, wie genau sie erschaffen wurde, dass GAIA von ihrer Erschafferin Elisabet Sobeck auch die Bedeutung von Werten, Moral und Verantwortung beigebracht wurde.[16] Gaia wird also nicht nur programmiert, sondern sie ist in der Lage zu lernen und sich weiterzuentwickeln.

Hierbei handelt es sich um zwei zentrale Elemente der heutigen Forschung. So werden beispielsweise vermehrt sogenannte neuronale Netzwerke verwendet, die in der Lage sind, selbstständig zu lernen und sich zu verbessern. Solche selbstlernende Software wird sogar schon heute in der Überwachungstechnik oder anderen Erkennungsalgorithmen eingesetzt – was eine ganze Reihe von ethischen und rechtlichen Problemen mit sich bringt, die hier leider nicht behandelt werden können.[17]

Wie kann eine Maschine Ethik lernen?

Auf größere Schwierigkeiten stößt man jedoch bei der Frage, wie Computern oder Maschinen die Bedeutung von Werten, Moral und Verantwortung beigebracht werden soll. Der Ausgangspunkt des Problems liegt zumeist darin, dass mit zunehmender „Intelligenz“ und Selbstständigkeit (Stichwort: Autonomie) der Maschinen und Computer von diesen immer mehr Handlungen ausgeführt und Entscheidungen getroffen werden, die moralischer Natur sind. Verdeutlicht werden kann dies sehr gut am Beispiel eines autonomen Autos, bei dem die Bremsen versagen und es nun entscheiden muss, ob es das Kind, welches gerade über die grüne Fußgängerampel läuft, erfasst oder ob es ausweicht, was zum Tod einer alten Frau führen würde.[18]

Wer sich selbst einmal bezüglich solcher moralischen Entscheidungen testen möchte, kann dies unter https://www.moralmachine.net/ machen. Bei dieser „Moral Machine“ handelt es sich um ein Testtool, welches vom Massachusetts Institute of Technology (MIT) entwickelt wurde und bei dem die Teilnehmer:innen mit verschiedenen Szenarien wie dem oben beschriebenen moralischen Dilemma konfrontiert werden.

Bevor man jedoch überhaupt zu der Frage kommt, wie sich ein autonomes Auto in einer solchen Situation entscheiden würde oder sollte, müssen Forscher:innen aber eben zunächst einmal die Frage klären, wie moralische Normen und Werte eigentlich einem Computer beigebracht werden können.

Drei Arten der Implementierung

Bei der Frage um die Implementierung moralischer Fähigkeiten werden dabei in der Hauptsache drei Arten der Implementierung unterschieden: Top-Down, Bottom-Up sowie eine Kombination dieser beiden.[19] Top-Down-Ansätze sehen vor, dass den Computern oder Maschinen Normen, Gesetze und Verhaltensregeln einprogrammiert werden, aus denen sie dann auswählen, wie sie sich in einer bestimmten Situation zu entscheiden haben.[20]

Ein sehr bekannter Top-Down-Ansatz findet sich beispielsweise in den Robotergeschichten von Isaac Asimov wieder. Seine Robotergesetze (engl.: Three Laws of Robotics) sind, wenngleich im Rahmen von nichtwissenschaftlichen Kurzgeschichten und Romanen entstanden, auch in Wissenschaft und Forschung stark diskutiert und haben dort breite Verwendung gefunden. Dadurch, dass es sich um ein strenges Einprogrammieren der Gesetze handelt, haben wir es mit einem Top-Down-Ansatz zu tun.

Bottom-Up-Ansätze hingegen setzen, grob gesagt, auf die Kontextabhängigkeit der Situationen sowie Lernfähigkeit der Computer.[21] Hier werden die Regeln und Normen den Computern beigebracht. Die zugrundeliegende Idee geht unter anderem bereits auf Alan Turing zurück, der lernende Maschinen mit Kindern verglich, die sich neues Wissen über die Welt aneignen. So wie wir auch Kindern moralische Normen und Werte sowie die Entscheidungsfindung beibringen, so zumindest die Idee hinter vielen Bottom-Up-Ansätzen, können auch Computer diese Dinge erlernen und dann situationsabhängig anwenden. Der dritte diskutierte Ansatz sieht, kurz gefasst, eine Kombination beider soeben beschriebenen Vorgehensweisen vor.

Bezogen auf GAIA scheint es sich nun aber so zu verhalten, dass hier verstärkt ein Bottom-Up-Ansatz vorliegt, da GAIA eigentlich nur als Steuerungs-und Kontrolleinheit des Terraformingprojekts vorgesehen war, die künstliche Intelligenz aber durch die Zuneigung und die Lehren ihrer Erschafferin die Bedeutung menschlicher Werte, Moral und Verantwortung „gelernt“ hat. Ganz ausgeschlossen werden kann ein vorliegender Top-Down-Ansatz allerdings meines Wissens nach nicht, weshalb eine Kombination beider Ansätze durchaus im Rahmen des Möglichen ist.

Fazit

Tatsächlich stellt dies aber kein größeres Problem dar. Wie bereits gesagt scheinen sich die Macher:innen des Spiels durchaus die ein oder andere Freiheit bezüglich der Erklärungen der technischen Errungenschaften gewährt zu haben.

Gleichzeitig scheinen sie aber durchaus das Ziel vor Augen gehabt zu haben, sich an aktueller Forschung zu orientieren, diese weiterzudenken und eine in sich kohärente Welt zu erschaffen, die versucht, die Ereignisse – und letztlich auch das Gameplay – möglichst nah an der Realität zu verorten und dennoch eine gelungene und spaßige Science-Fiction-Geschichte zu erzählen, die uns Spieler:innen eine etwas andere „Robokalypse“ präsentiert und mitunter überrascht und in ihren Bann zieht.

Ich hoffe, dass ich zeigen konnte, welche aktuelle Forschung in Horizon Zero Dawn einfließt und inwiefern verschiedene philosophische Themen und Aspekte wesentlicher Bestandteil des Videospiels sind.

Mit Horizon Forbidden West erscheint am 18.02.2022 der Nachfolger von Horizon Zero Dawn, der Aloys Geschichte und ihren Kampf um das Fortbestehen der „neuen“ Menschheit fortsetzen wird. Ich bin auf jeden Fall sehr gespannt darauf, wie Guerilla Games die von ihnen geschaffene, faszinierende Welt und deren Hintergründe erweitern werden und welche neuen Maschinen und Geheimnisse die Spieler:innen erwarten.


Literatur und Internetquellen

[1] Vgl. „Strider“, über: https://horizon.fandom.com/wiki/Strider u. „Grazer“, über: https://horizon.fandom.com/wiki/Grazer, beide letzter Aufruf: 08.09.2021.

[2] Vgl. „Sawtooth“, über: https://horizon.fandom.com/wiki/Sawtooth, letzter Aufruf: 08.09.2021.

[3] Vgl. Sauer, Vanessa, Sauer, Axel, Mertens, Alexander (2021): „Zoomorphic Gestures for Communicating Cobot States”, in: IEEE Robotics and Automation Letters, Preprint Version. PDF über: https://arxiv.org/pdf/2102.10825.pdf, letzter Aufruf: 07.09.2021 u. vgl. Ackerman, Evan (2021): „Cobots Act Like Puppies to Better Communicate with Humans”, in: IEEE Spectrum. Über: https://spectrum.ieee.org/automaton/robotics/industrial-robots/cobots-act-like-puppies-to-better-communicate-with-humans
Letzter Aufruf: 08.09.2021.

[4] Levy, David (2008): Love and Sex with Robots. The Evolution of Human-Robot Relationships, Duckworth Overlook, London, S. 10f.

[5] Vgl. Turkle, Sherry, Taggart, Will, Kidd, Cory D., Dasté, Olivia (2006): “Relational artifacts with children and elders: the complexities of cybercompanionship”, in: Connection Science, Vol. 18, No. 4, S. 347.

[6] Vgl. Horstmann, Aike C., et al. (2018): “Do a robot’s social skills and its objection discourage interactants from switching the robot off?”, in: PLOS ONE 13(7). DOI: https://doi.org/10.1371/journal.pone.0201581.

[7] Misselhorn, Catrin (2021): Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co, Reclam, Stuttgart, S. 84.

[8] Hierbei handelt es sich um eine stark behavioristisch geprägte Auffassung. Diese besagt vereinfacht ausgedrückt, dass das Verhalten der Maschinen, welches wir nicht von dem Verhalten organischer Lebewesen unterscheiden können, hinreichend dafür ist, ihnen die entsprechenden Fähigkeiten zuzusprechen. Schon Alan Turings berühmtes Imitation Game, in dem ein Computer einen Menschen durch das Austauschen von Textnachrichten davon überzeugen soll, dass der Mensch mit einem anderen Menschen spricht, greift darauf zurück. Die behavioristische Position wird in abgewandelter Form vermehrt vertreten, wenn es darum geht, Robotern oder Computern beispielsweise Intelligenz oder eben Empfindungsfähigkeit zuzusprechen.

[9] Vgl. Misselhorn, 2021, S. 85.

[10] Vgl. Misselhorn, 2021, S. 85.

[11] Vgl. „Gaia“, über: https://horizon.fandom.com/de/wiki/Gaia, letzter Aufruf: 08.09.2021.

[12] Vgl. „GAIA“, über: https://horizon.fandom.com/wiki/GAIA u. „Gaia Log: 27 March 2065”, über: https://horizon.fandom.com/wiki/Gaia_Log:_27_March_2065, beide letzter Aufruf: 08.09.2021.

[13] Vgl. Tegmark, Max (2018): Life 3.0. Being human in the age of Artificial Intelligence, Penguin Books, London, S. 49f.

[14] Vgl. Tegmark, 2018, S. 50.

[15] Vgl. Tegmark, 2018, 51f.

[16] Vgl. „Gaia“, über: https://horizon.fandom.com/de/wiki/Gaia, letzter Aufruf: 08.09.2021.

[17] Im Internet finden sich unzählige Berichte über künstliche Intelligenzen, die rassistische Ratschläge geben. Siehe zum Beispiel Tran, T. (2021). Scientists Built an AI to Give Ethical Advice, But It Turned Out Super Racist. Futurism. https://futurism.com/delphi-ai-ethics-racist. Letzter Aufruf: 27.02.2022.

[18] Dieser und ähnliche Fälle sind angelehnt an das sogenannte Trolley-Problem. Dieses Gedankenexperiment zeigt verschiedene intuitive Bewertungen bezüglich moralischer Entscheidungen auf. Zudem verdeutlicht das Gedankenexperiment die Unterschiede zwischen der Bewertung einer utilitaristischen und einer deontologischen Moraltheorie.

[19] Vgl. Misselhorn, 2018, S. 96.

[20] Vgl. Misselhorn, 2018, S. 96.

[21] Vgl. Misselhorn, 2018, S. 114.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert