Vermenschlichung
Bezeichnet einen Denkfehler, bei dem unbelebten Objekten, Pflanzen oder Tieren menschliche Eigenschaften oder Attribute zugeschrieben werden, oder bei dem sie in einem Kontext beschrieben werden, der eher für menschliche Aktoren geeignet wäre.
Beispiele:
- Mutter Natur kümmert sich um ihre Kinder.
- Dem Universum sind wir egal.
Hinweis: Es gibt zahlreiche Situationen, in denen die Abgrenzung zur Reifikation schwierig sein kann. Dies gilt insbesondere, wenn es um abstrakte Konzepte geht, denen menschliche Eigenschaften zugeschrieben werden.
Andere Namen
- Anthropomorphisierung
- Pathetic Fallacy (siehe Anmerkungen unten)
- Animismus
Erklärung
Die Vermenschlichung von Dingen, Phänomenen und abstrakten Konzepten ist ein Effekt der Anthropomorphismus genannten kognitiven Verzerrung, die jeder Mensch (wenn auch in unterschiedlichem Maße) begeht.
Problematisch wird ein anthropomorphischer Transfer dann, wenn versucht wird, das Verhalten von nicht-menschlichen Aktoren als Äquivalente menschlichen Handelns zu verstehen.
Eine Vermenschlichung von Pflanzen und unbelebten Gegenständen (z.B. Steinen) ist zwar auch möglich, hier ist der zugrunde liegende Irrtum jedoch leicht ersichtlich und macht höchstens im Kontext von Mythologie oder Religion einen Sinn.
Der Vollständigkeit halber sei auch der Glücksspieler erwähnt, der nach einer längeren Folge für ihn unvorteilhafter Ergebnisse davon ausgeht, dass der Würfel oder der Roulette-Tisch ihm „böses“ wollte…
Anders verhält es sich aber bei Tieren oder Maschinen, die durchaus zumindest äußerlich den Anschein menschlichen oder Menschen-ähnlichen Verhaltens erwecken können.
Beispiele
Vermenschlichung von Tieren
Es fällt besonders leicht, Tiere und ihr Verhalten nach menschlichen Kriterien zu beurteilen, da deren Verhaltensweisen und die Fähigkeit zumindest äußerlich oft deutliche Ähnlichkeiten zu menschlichem Verhalten aufweist.
Sicher werden die meisten Haustierbesitzer zumindest gelegentlich das Verhalten ihrer Hunde oder Katzen nach menschlichen Maßstäben interpretieren und ihnen menschenähnliche Gedanken oder Absichten unterstellen – und es gibt auch wenig, was dagegen spricht, solange man nicht folgenreiche Entscheidungen trifft, die auf einer solchen Vermenschlichung basieren.
Zum Beispiel:
Dieser Delphin zeigt ein Lächeln, das dem von Menschen, die glücklich sind, ähnelt.
Folglich ist dieser Delfin glücklich.
Tatsächlich können Delphine gar nicht anders als zu „lächeln“, da dies eben der Physiognomie des Delphinkopfes entspricht. Ob sie wirklich glücklich (oder wenigstens zufrieden) sind, dürfte sich für uns Menschen kaum erkennen lassen.
Ob die „glücklich“ lächelnden Delphine in Delphinshows wirklich mit ihrem Los zufrieden sind, ist kaum einzuschätzen und sollte auf keinem Fall anhand von äußerlichen Ähnlichkeiten mit menschlichem Verhalten entschieden werden.
Das Gleiche gilt auch für negative Gefühle. Mit Sicherheit würden sich die meisten Menschen nicht wohlfühlen, würden sie, wie die genannten Delphine, vor Publikum zu Kunststückchen gezwungen. Andererseits wäre für Menschen die Alternative auch nicht, in freier Wildbahn täglich selbst nach Nahrung jagen zu müssen und dauernd mit dem Risiko zu leben, in einem Fischernetz qualvoll zu verenden.
Ein anderes Beispiel, aus einem Artikel zu den Pioniertagen der Weltraumforschung:
Am 19. August 1960 flogen zwei mutige Hündinnen, Strelka und Belka an Bord der Sputnik 5 in den Weltraum.
Um den Hunden „Mut“ zuzusprechen, müsste man davon ausgehen, dass diese die Gefahren ihrer Mission wirklich verstehen konnten. Davon ist aber eher nicht auszugehen. Wahrscheinlich hatten die Hündinnen noch nicht einmal eine Wahl, an dem Experiment teilzunehmen oder nicht.
Vermenschlichung von Maschinen
Auch Maschinen werden oft menschenähnliche Eigenschaften zugeschrieben.
Grundsätzlich scheint das Phänomen umso häufiger aufzutreten, je komplexer (und damit schwieriger zu verstehen) das Verhalten bzw. das Funktionieren der Maschine ist, und je größer der Einfluss des Apparates auf unser Leben ist. Während kaum jemand auf die Idee kommen würde, etwa mit seiner Knoblauchpresse zu reden, kann genau dieses Verhalten beim Umgang, z.B. mit dem Auto oder mit Musikinstrumenten häufig beobachtet werden.
Beispiel:
Der Motor meines Autos springt nicht an.
Ich rufe dem Auto zu: „das schaffst du!“
Der Motor springt an.
Folglich ist der Motor angesprungen, weil ich ihm gut zugesprochen habe.
Springt der Motor an, nachdem man ihm zugesprochen hat, kann diese zu einer Kausalillusion führen, bei der man die beiden Ereignisse (unbewusst) miteinander verbindet (selbst wenn man sich bewusst darüber im Klaren ist, dass beides nichts miteinander zu tun hat).
Allerdings gilt, dass auch wenn gutes Zureden den Motor offensichtlich nicht wirklich schneller starten lässt, damit wahrscheinlich auch kein Schaden angerichtet wird.
Problematischer wird dies, wenn durch eine solche Denkweise vom eigentlichen Probleme abgelenkt wird, wie in den folgenden Ausdrucksweisen, die sicher jeder schon gehört hat:
Das Auto parkt auf dem Radweg.
Der Fußgänger wurde vom Auto angefahren.
Tatsächlich ist das Auto zwar in der Lage, sich „selbst zu bewegen“ (daher der Name „Automobil“), aber eben nicht, selbst zu entscheiden, wo es abgestellt oder wird, oder mit welcher Geschwindigkeit es fährt: Es ist selbstverständlich der Fahrer oder die Fahrerin, welche diese Entscheidungen treffen. Richtigerweise müsste man daher sagen:
Das Auto wurde [vom Fahrer / von der Fahrerin] auf dem Radweg geparkt.
Der Fußgänger wurde [vom Fahrer / von der Fahrerin] mit dem Auto angefahren.
Das Problem verschiebt sich übrigens nur wenig, wenn wir in naher Zukunft vielleicht autonom fahrende Autos haben werden: Verantwortlich für eventuelles Fehlverhalten ist dann vielleicht nicht mehr der Fahrer – oder zumindest nicht mehr im gleichen Maße wie bisher, dafür aber eben der Hersteller, der für die Programmierung verantwortlich ist – das Auto selbst ist nach wie vor reiner „Befehlsempfänger“, der den programmierten Algorithmen folgt.
Überhaupt ist der ganze Bereich der sog. „künstlichen Intelligenz“ gespickt mit potentiell problematischen Fällen von Vermenschlichung, weshalb diesem ein eigener Abschnitt gewidmet ist:
„Künstliche Intelligenz“ / Autonome Fahrzeuge
Als „künstliche Intelligenz“ (KI) bzw. „artificial intelligence“ (AI) bezeichnet man heute verschiedene Arten von Computersystemen, die „intelligentes“ Verhalten mit den Mitteln der Informatik nachzubilden versuchen.
Aufgrund der zum Teil wirklich beeindruckenden Leistungen, die in diesem Bereich in den vergangenen Jahren gemacht wurden – aber auch aufgrund der oft dramaturgisch überhöhten „Intelligenzleistungen“ von vermeintlichen „KIs“ in Filmen und Videospielen – gibt es eine Neigung dazu, diesen auch menschliche Attribute wie „Empfindsamkeit“, „Vernunft“ oder gar „Gefühle“ zuzusprechen.
Tatsächlich sind, zumindest nach dem heutigen Stand der Technik, „künstliche Intelligenzen“ immer noch schlicht und einfach Computerprogramme, die einen Algorithmus ausführen. Von traditioneller Software unterscheiden sie sich vor allem durch die Art der Programmierung – etwa anhand von Beispieldaten und durch Feedback-Mechanismen. Diese Vorgehensweise hat völlig neue Anwendungsmöglichkeiten erschlossen, die mit anderen Programmiermethoden nicht oder nur sehr schwierig zu erreichen gewesen wären – aber es wurde eben auch kein „intelligentes Wesen“ erschaffen, wie manche zu glauben scheinen.
Man könnte sogar argumentieren, dass bereits der Begriff „Intelligenz“ ein Konzept beschreibt, welches spezifisch auf einen menschlichen Kontext zugeschnitten ist. Schon die Übertragung dieses Konzeptes auf Tiere kann man als zumindest problematisch ansehen – bei Maschinen umso mehr.
Aus der politischen Diskussion darüber, wie wir in Zukunft mit solchen „intelligenten“ Maschinen umgehen sollen, stammt die folgende (hier etwas überspitzt formulierte) Stilblüte:
Die KI in einem autonom fahrenden Auto verhält sich ähnlich wie ein menschlicher Fahrer.
Menschliche Fahrer sind rechtlich verantwortlich für eventuelle Unfälle, die sie verursachen.
Folglich sollte eine KI auch selbst die rechtliche Verantwortung für Unfälle tragen.
In der Tat wurden KI-Systeme in selbstfahrenden Autos so programmiert, dass sie das (idealisierte) Verhalten von menschlichen Fahrern möglichst gut nachbilden (und es aufgrund besserer Sensorik und schnellerer Reaktionen oft sogar übertreffen). Aus der Fähigkeit, auf Verkehrssituationen entsprechend der menschlichen Idealvorstellungen zu reagieren, folgt aber nicht, dass diese in der Lage wären, moralische Entscheidungen zu treffen und dass sie damit rechtlich für Fehlentscheidungen zur Verantwortung gezogen werden könnten (wie das aussehen sollte, wäre ohnehin noch einmal eine andere Frage).
Die Frage, wer für das Verhalten solcher autonomer Fahrzeuge haftbar gemacht werden kann, ist sowohl aus Sicht der Rechtswissenschaften als auch der Ethik interessant. Sie einfach auf die Maschine selbst zu schieben, wird aber der Komplexität der Sache nicht gerecht und setzt insbesondere die Hersteller dem Verdacht aus, selbst keine Verantwortung für ihre Produkte übernehmen zu wollen.
Falsche Emotionalität
Der englische Ausdruck „pathetic fallacy“, geprägt im 19. Jahrhundert vom britischen Kunstkritiker John Ruskin, beschreibt eine unzulässige oder übertriebene Projektion von Emotionen auf unbelebte Gegenstände in der Literatur.
Sowohl „pathetic“, als auch „fallacy“ werden beide von Ruskin hier nicht in dem Sinne gebraucht, in dem sie heute gewöhnlich verstanden werden. Der Begriff wird häufig als „Vermenschlichung der Natur“ übersetzt, aber da er zum einen nicht auf natürliche Phänomene beschränkt ist, und es zum anderen explizit um einen bestimmten Aspekt der Vermenschlichung – nämlich der Projektion von Emotionen auf Dinge – geht, wird hier stattdessen „falsche Emotionalität“ als in vielen Fällen treffendere Übersetzung vorgeschlagen.
Ruskin erläutert dies anhand des folgenden Beispieles:
They rowed her in across the rolling foam –
(Sie ruderten sie herein, über den rollenden Schaum …)
The cruel, crawling foam…
(Den grausamen, kriechenden Schaum…)
Nüchtern betrachtet kann der Schaum, den eine aufgewühlte See erzeugt, zwar „rollen“ und womöglich sogar „kriechen“, aber sicher nicht „grausam“ sein, denn dies impliziert ein absichtsvolles Handeln, welches ein unbelebtes Objekt schlicht nicht haben kann.
Nun ist ein Gedicht sicher kein Kontext, in dem eine besonders nüchterne Herangehensweise angebracht ist, und eine solche Projektion von Emotionen kann ein gutes Mittel sein, um emotionale Zustände zu vermitteln. Ruskin wendet sich daher auch explizit nur gegen eine übertriebene Verwendung solcher Projektionen, die er als ein Merkmal schlechter Schriftsteller ansieht.
Anders bei Literaturgattungen, die tatsächlich eine nüchternere Schreibweise verlangen: in einer wissenschaftlichen Abhandlung wäre ein Ausdruck wie „die grausame See“ sicher fehl am Platz. Trotzdem finden wir ähnliche Ausdrucksweisen in der gesamten Wissenschaftsgeschichte.
Am bekanntesten ist vermutlich das als „horror vacui “ bekannte Prinzip, das meist wie folgt umschrieben wird:
Die Naturverabscheutdas Vakuum.
Hierbei impliziert der Begriff „verabscheuen“ eine Fähigkeit zu Emotionen, welche „die Natur“ (als abstraktes Konzept) sicher nicht mit sich bringt.
Siehe auch
Weitere Informationen
- Anthropomorphismus auf Wikipedia
- Anthropomorphism auf Logically Fallacious (Englisch)