Warning: Undefined array key "REMOTE_USER" in /homepages/25/d871911266/htdocs/denkfehler.online/wiki/lib/plugins/statistics/action.php on line 116
Vermenschlichung – Denkfehler Online

Benutzer-Werkzeuge

Vermenschlichung

Bezeichnet einen Denk­fehler, bei dem un­be­lebten Ob­jekten, Pflan­zen oder Tieren mensch­liche Eigen­schaften oder Attri­bute zu­ge­schrieben werden, oder bei dem sie in einem Kon­text be­schrieben werden, der eher für mensch­liche Ak­toren ge­eig­net wäre.

Beispiele:

  • Mutter Natur kümmert sich um ihre Kinder.
  • Dem Universum sind wir egal.

Hinweis: Es gibt zahl­reiche Situa­tionen, in denen die Ab­grenzung zur Rei­fi­ka­tion schwierig sein kann. Dies gilt ins­be­sondere, wenn es um ab­strakte Kon­zepte geht, denen mensch­liche Eigen­schaften zu­ge­schrieben werden.

Andere Namen

  • Anthropo­morph­isierung
  • Pathetic Fallacy (siehe Anmerkungen unten)
  • Animismus

Erklärung

Die Vermenschlichung von Dingen, Phänomenen und abstrakten Konzepten ist ein Effekt der Anthropo­morph­ismus genannten kognitiven Verzerrung, die jeder Mensch (wenn auch in unterschiedlichem Maße) begeht.

Problematisch wird ein anthropo­morphischer Transfer dann, wenn versucht wird, das Verhalten von nicht-menschlichen Aktoren als Äquivalente menschlichen Handelns zu verstehen.

Eine Vermenschlichung von Pflanzen und unbelebten Gegenständen (z.B. Steinen) ist zwar auch möglich, hier ist der zugrunde liegende Irrtum jedoch leicht ersichtlich und macht höchstens im Kontext von Mythologie oder Religion einen Sinn.

Der Vollständigkeit halber sei auch der Glücksspieler erwähnt, der nach einer längeren Folge für ihn un­vorteil­hafter Ergebnisse davon ausgeht, dass der Würfel oder der Roulette-Tisch ihm „böses“ wollte…

Anders verhält es sich aber bei Tieren oder Maschinen, die durchaus zumindest äußerlich den Anschein menschlichen oder Menschen-ähnlichen Verhaltens erwecken können.

Beispiele

Vermenschlichung von Tieren

Es fällt besonders leicht, Tiere und ihr Verhalten nach menschlichen Kriterien zu beurteilen, da deren Ver­halt­ens­weisen und die Fähigkeit zumindest äußerlich oft deutliche Ähnlichkeiten zu menschlichem Ver­halten auf­weist.

Sicher werden die meisten Haustierbesitzer zumindest gelegentlich das Verhalten ihrer Hunde oder Katzen nach mensch­lichen Maßstäben interpretieren und ihnen menschenähnliche Gedanken oder Absichten unter­stellen – und es gibt auch wenig, was dagegen spricht, solange man nicht folgenreiche Entscheidungen trifft, die auf einer solchen Vermenschlichung basieren.

Zum Beispiel:

Dieser Delphin zeigt ein Lächeln, das dem von Menschen, die glücklich sind, ähnelt.
Folglich ist dieser Delfin glücklich.

Tatsächlich können Delphine gar nicht anders als zu „lächeln“, da dies eben der Physiognomie des Delphin­kopfes entspricht. Ob sie wirklich glücklich (oder wenigstens zufrieden) sind, dürfte sich für uns Menschen kaum erkennen lassen.

Ob die „glücklich“ lächelnden Delphine in Delphin­shows wirklich mit ihrem Los zufrieden sind, ist kaum ein­zu­schätzen und sollte auf keinem Fall anhand von äußerlichen Ähnlichkeiten mit menschlichem Verhalten ent­schieden werden.

Das Gleiche gilt auch für negative Gefühle. Mit Sicherheit würden sich die meisten Menschen nicht wohlfühlen, würden sie, wie die genannten Delphine, vor Publikum zu Kunststückchen gezwungen. Andererseits wäre für Menschen die Alternative auch nicht, in freier Wildbahn täglich selbst nach Nahrung jagen zu müssen und dauernd mit dem Risiko zu leben, in einem Fischernetz qualvoll zu verenden.

Ein anderes Beispiel, aus einem Artikel zu den Pioniertagen der Weltraumforschung:

Am 19. August 1960 flogen zwei mutige Hündinnen, Strelka und Belka an Bord der Sputnik 5 in den Weltraum.

Um den Hunden „Mut“ zuzusprechen, müsste man davon ausgehen, dass diese die Gefahren ihrer Mission wirklich verstehen konnten. Davon ist aber eher nicht auszugehen. Wahrscheinlich hatten die Hündinnen noch nicht einmal eine Wahl, an dem Experiment teilzunehmen oder nicht.

Vermenschlichung von Maschinen

Auch Maschinen werden oft menschenähnliche Eigenschaften zugeschrieben.

Grundsätzlich scheint das Phänomen umso häufiger aufzutreten, je komplexer (und damit schwieriger zu verstehen) das Verhalten bzw. das Funktionieren der Maschine ist, und je größer der Einfluss des Apparates auf unser Leben ist. Während kaum jemand auf die Idee kommen würde, etwa mit seiner Knoblauchpresse zu reden, kann genau dieses Verhalten beim Umgang, z.B. mit dem Auto oder mit Musikinstrumenten häufig beobachtet werden.

Beispiel:

Der Motor meines Autos springt nicht an.
Ich rufe dem Auto zu: „das schaffst du!“
Der Motor springt an.
Folglich ist der Motor angesprungen, weil ich ihm gut zugesprochen habe.

Springt der Motor an, nachdem man ihm zugesprochen hat, kann diese zu einer Kausalillusion führen, bei der man die beiden Ereignisse (unbewusst) miteinander verbindet (selbst wenn man sich bewusst darüber im Klaren ist, dass beides nichts miteinander zu tun hat).

Allerdings gilt, dass auch wenn gutes Zureden den Motor offensichtlich nicht wirklich schneller starten lässt, damit wahrscheinlich auch kein Schaden angerichtet wird.

Problematischer wird dies, wenn durch eine solche Denkweise vom eigentlichen Probleme abgelenkt wird, wie in den folgenden Ausdrucksweisen, die sicher jeder schon gehört hat:

Das Auto parkt auf dem Radweg.
Der Fußgänger wurde vom Auto angefahren.

Tatsächlich ist das Auto zwar in der Lage, sich „selbst zu bewegen“ (daher der Name „Automobil“), aber eben nicht, selbst zu entscheiden, wo es abgestellt oder wird, oder mit welcher Geschwindigkeit es fährt: Es ist selbst­ver­ständ­lich der Fahrer oder die Fahrerin, welche diese Entscheidungen treffen. Richtigerweise müsste man daher sagen:

Das Auto wurde [vom Fahrer / von der Fahrerin] auf dem Radweg geparkt.
Der Fußgänger wurde [vom Fahrer / von der Fahrerin] mit dem Auto angefahren.

Das Problem verschiebt sich übrigens nur wenig, wenn wir in naher Zukunft vielleicht autonom fahrende Autos haben werden: Verantwortlich für eventuelles Fehlverhalten ist dann vielleicht nicht mehr der Fahrer – oder zumindest nicht mehr im gleichen Maße wie bisher, dafür aber eben der Hersteller, der für die Programmierung verantwortlich ist – das Auto selbst ist nach wie vor reiner „Befehlsempfänger“, der den programmierten Algorithmen folgt.

Überhaupt ist der ganze Bereich der sog. „künstlichen Intelligenz“ gespickt mit potentiell problematischen Fällen von Vermenschlichung, weshalb diesem ein eigener Abschnitt gewidmet ist:

„Künstliche Intelligenz“ / Autonome Fahrzeuge

Als „künstliche Intel­li­genz“ (KI) bzw. „arti­fi­cial intel­li­gence“ (AI) be­zeich­net man heute ver­schie­dene Arten von Computer­systemen, die „intel­li­gentes“ Ver­halten mit den Mitteln der Infor­ma­tik nach­zu­bilden ver­suchen.

Aufgrund der zum Teil wirklich be­eindruckenden Leist­ungen, die in diesem Bereich in den ver­gangenen Jahren gemacht wurden – aber auch auf­grund der oft drama­turg­isch über­höhten „Intelli­genz­leist­ungen“ von ver­meint­lichen „KIs“ in Filmen und Video­spielen – gibt es eine Neig­ung dazu, diesen auch mensch­liche Attri­bute wie „Emp­find­sam­keit“, „Ver­nunft“ oder gar „Ge­fühle“ zuzusprechen.

Tatsächlich sind, zumindest nach dem heutigen Stand der Technik, „künst­liche Intel­li­genzen“ immer noch schlicht und einfach Com­puter­pro­gramme, die einen Algo­rith­mus aus­führen. Von tradi­tio­nel­ler Soft­ware unter­scheiden sie sich vor allem durch die Art der Pro­gram­mier­ung – etwa anhand von Bei­spiel­daten und durch Feed­back-Mecha­nis­men. Diese Vor­gehens­weise hat völlig neue An­wend­ungs­mög­lich­keiten er­schlos­sen, die mit anderen Pro­gram­mier­metho­den nicht oder nur sehr schwierig zu er­reichen ge­wesen wären – aber es wurde eben auch kein „intel­li­gentes Wesen“ er­schaf­fen, wie manche zu glauben scheinen.

Man könnte sogar argumentieren, dass be­reits der Be­griff „Intel­li­genz“ ein Kon­zept beschreibt, welches spe­zi­fisch auf einen mensch­lichen Kon­text zu­ge­schnitten ist. Schon die Über­trag­ung dieses Kon­zeptes auf Tiere kann man als zu­mindest prob­lem­at­isch an­sehen – bei Maschinen umso mehr.

Aus der politischen Dis­kus­sion da­rüber, wie wir in Zu­kunft mit solchen „intel­li­genten“ Ma­schinen um­gehen sollen, stammt die fol­gende (hier etwas über­spitzt for­mu­lierte) Stil­blüte:

Die KI in einem auto­nom fahr­en­den Auto ver­hält sich ähn­lich wie ein mensch­licher Fahrer.
Menschliche Fahrer sind recht­lich ver­ant­wort­lich für even­tu­elle Un­fälle, die sie ver­ursachen.
Folglich sollte eine KI auch selbst die recht­liche Ver­ant­wort­ung für Un­fälle tragen.

In der Tat wurden KI-Sys­teme in selbst­fahr­enden Autos so pro­gram­miert, dass sie das (ideali­sierte) Ver­halten von men­schlichen Fahr­ern mög­lichst gut nach­bilden (und es auf­grund bes­serer Sen­sorik und schnel­lerer Re­ak­tionen oft so­gar über­treffen). Aus der Fähig­keit, auf Ver­kehrs­situa­tionen ent­sprech­end der mensch­lichen Ideal­vor­stell­ungen zu re­a­gieren, folgt aber nicht, dass diese in der Lage wären, moral­ische Ent­scheid­ungen zu treffen und dass sie damit recht­lich für Fehl­ent­scheid­ungen zur Ver­ant­wortung gezogen werden könnten (wie das aus­sehen sollte, wäre ohne­hin noch ein­mal eine andere Frage).

Die Frage, wer für das Ver­halten solcher auto­nomer Fahr­zeuge haft­bar gemacht werden kann, ist sowohl aus Sicht der Rechts­wissen­schaften als auch der Ethik inter­essant. Sie ein­fach auf die Maschine selbst zu schieben, wird aber der Kom­plexi­tät der Sache nicht gerecht und setzt ins­be­sondere die Her­steller dem Ver­dacht aus, selbst keine Ver­ant­wort­ung für ihre Pro­dukte über­nehmen zu wollen.

Falsche Emotionalität

Der englische Ausdruck „pathetic fallacy“, geprägt im 19. Jahrhundert vom britischen Kunstkritiker John Ruskin, beschreibt eine unzulässige oder übertriebene Projektion von Emotionen auf unbelebte Gegenstände in der Literatur.

Sowohl „pathetic“, als auch „fallacy“ werden beide von Ruskin hier nicht in dem Sinne gebraucht, in dem sie heute gewöhnlich verstanden werden. Der Begriff wird häufig als „Vermenschlichung der Natur“ übersetzt, aber da er zum einen nicht auf natürliche Phänomene beschränkt ist, und es zum anderen explizit um einen be­stimmten Aspekt der Vermenschlichung – nämlich der Projektion von Emotionen auf Dinge – geht, wird hier stattdessen „falsche Emotionalität“ als in vielen Fällen treffendere Übersetzung vorgeschlagen.

Ruskin erläutert dies anhand des folgenden Beispieles:

They rowed her in across the rolling foam –
(Sie ruderten sie herein, über den rollenden Schaum …)

The cruel, crawling foam…
(Den grausamen, kriechenden Schaum…)

Nüchtern betrachtet kann der Schaum, den eine aufgewühlte See erzeugt, zwar „rollen“ und womöglich sogar „kriechen“, aber sicher nicht „grausam“ sein, denn dies impliziert ein absichtsvolles Handeln, welches ein unbelebtes Objekt schlicht nicht haben kann.

Nun ist ein Gedicht sicher kein Kontext, in dem eine besonders nüchterne Herangehensweise angebracht ist, und eine solche Projektion von Emotionen kann ein gutes Mittel sein, um emotionale Zustände zu vermitteln. Ruskin wendet sich daher auch explizit nur gegen eine übertriebene Verwendung solcher Projektionen, die er als ein Merkmal schlechter Schriftsteller ansieht.

Anders bei Literaturgattungen, die tatsächlich eine nüchternere Schreibweise verlangen: in einer wissen­schaft­lichen Abhandlung wäre ein Ausdruck wie „die grausame See“ sicher fehl am Platz. Trotzdem finden wir ähn­liche Ausdrucksweisen in der gesamten Wissenschaftsgeschichte.

Am bekanntesten ist vermutlich das als „horror vacui “ bekannte Prinzip, das meist wie folgt umschrieben wird:

Die Natur verabscheut das Vakuum.

Hierbei impliziert der Begriff „verabscheuen“ eine Fähigkeit zu Emotionen, welche „die Natur“ (als abstraktes Konzept) sicher nicht mit sich bringt.

Siehe auch

Weitere Informationen

Diese Web­site verwendet Cookies. Durch die Nutz­ung der Web­site er­klären Sie sich mit der Speich­er­ung von Cookies auf Ihrem Com­puter ein­ver­standen. Darüber hinaus be­stät­igen Sie, dass Sie unsere Daten­schutzbestimm­ungen ge­lesen und ver­standen haben. Wenn Sie damit nicht ein­ver­standen sind, ver­lassen Sie bitte die Web­site.

Weitere Information