Benutzer-Werkzeuge

Vermenschlichung

Bezeichnet einen Denkfehler, bei dem unbelebten Objekten, Pflanzen oder Tieren menschliche Eigenschaften oder Attribute zugeschrieben werden, oder bei dem sie in einem Kontext beschrieben werden, der eher für menschliche Aktoren geeignet wäre.

Beispiele:

Andere Namen

Erklärung

Die Vermenschlichung von Dingen, Phänomenen und abstrakten Konzepten ist ein Effekt der Anthropo­morph­ismus genannten kognitiven Verzerrung, die jeder Mensch (wenn auch in unterschiedlichem Maße) begeht.

Problematisch wird ein anthropo­morphischer Transfer dann, wenn versucht wird, das Verhalten von nicht-menschlichen Aktoren als Äquivalente menschlichen Handelns zu verstehen.

Eine Vermenschlichung von Pflanzen und unbelebten Gegenständen (z.B. Steinen) ist zwar auch möglich, hier ist der zugrunde liegende Irrtum jedoch leicht ersichtlich und macht höchstens im Kontext von Mythologie oder Religion einen Sinn.

Der Vollständigkeit halber sei auch der Glücksspieler erwähnt, der nach einer längeren Folge für ihn un­vorteil­hafter Ergebnisse davon ausgeht, dass der Würfel oder der Roulette-Tisch ihm „böses“ wollte…

Anders verhält es sich aber bei Tieren oder Maschinen, die durchaus zumindest äußerlich den Anschein menschlichen oder Menschen-ähnlichen Verhaltens erwecken können.

Beispiele

Vermenschlichung von Tieren

Es fällt besonders leicht, Tiere und ihr Verhalten nach menschlichen Kriterien zu beurteilen, da deren Verhaltensweisen und die Fähigkeit zumindest äußerlich oft deutliche Ähnlichkeiten zu menschlichem Verhalten aufweist.

Sicher werden die meisten Haustierbesitzer zumindest gelegentlich das Verhalten ihrer Hunde oder Katzen nach menschlichen Maßstäben interpretieren und ihnen menschenähnliche Gedanken oder Absichten unterstellen – und es gibt auch wenig, was dagegen spricht, solange man nicht folgenreiche Entscheidungen trifft, die auf einer solchen Vermenschlichung basieren.

Es ist nicht schwer, ein Beispiel dafür zu finden, wie solche Fehlinterpretationen zu negativen Konsequenzen (in diesem Fall für die Tiere) führen können:

Dieser Delphin zeigt ein Lächeln, das dem von Menschen, die glücklich sind, ähnelt.
Folglich ist dieser Delfin glücklich.

Tatsächlich können Delphine gar nicht anders als zu „lächeln“, da dies eben der Physiognomie des Delphinkopfes entspricht. Ob sie wirklich glücklich (oder wenigstens zufrieden) sind, dürfte sich für uns Menschen kaum erkennen lassen.

Ob die „glücklich“ lächelnden Delphine in Delphinshows wirklich mit ihrem Los zufrieden sind, ist kaum einzuschätzen und sollte auf keinem Fall anhand von äußerlichen Ähnlichkeiten mit menschlichem Verhalten entschieden werden.

Das Gleiche gilt auch für negative Gefühle. Mit Sicherheit würden sich die meisten Menschen nicht wohlfühlen, würden sie, wie die genannten Delphine, vor Publikum zu Kunststückchen gezwungen. Andererseits wäre für Menschen die Alternative auch nicht, in freier Wildbahn täglich selbst nach Nahrung jagen zu müssen und dauernd mit dem Risiko zu leben, in einem Fischernetz qualvoll zu verenden.

Ein anderes Beispiel, aus einem Artikel zu den Pioniertagen der Weltraumforschung:

Am 19. August 1960 flogen zwei mutige Hündinnen, Strelka und Belka an Bord der Sputnik 5 in den Weltraum.

Um den Hunden „Mut“ zuzusprechen, müsste man davon ausgehen, dass diese die Gefahren ihrer Mission wirklich verstehen konnten. Davon ist aber eher nicht auszugehen. Wahrscheinlich hatten die Hündinnen noch nicht einmal eine Wahl, an dem Experiment teilzunehmen oder nicht.

Vermenschlichung von Maschinen

Auch Maschinen werden oft menschenähnliche Eigenschaften zugeschrieben.

Grundsätzlich scheint das Phänomen umso häufiger aufzutreten, je komplexer (und damit schwieriger zu verstehen) das Verhalten bzw. das Funktionieren der Maschine ist, und je größer der Einfluss des Apparates auf unser Leben ist. Während kaum jemand auf die Idee kommen würde, etwa mit seiner Knoblauchpresse zu reden, kann genau dieses Verhalten beim Umgang, z.B. mit dem Auto oder mit Musikinstrumenten häufig beobachtet werden.

Beispiel:

Der Motor meines Autos springt nicht an.
Ich rufe dem Auto zu: „das schaffst du!“
Der Motor springt an.
Folglich ist der Motor angesprungen, weil ich ihm gut zugesprochen habe.

Springt der Motor an, nachdem man ihm zugesprochen hat, kann diese zu einer Kausalillusion führen, bei der man die beiden Ereignisse (unbewusst) miteinander verbindet (selbst wenn man sich bewusst darüber im Klaren ist, dass beides nichts miteinander zu tun hat).

Allerdings gilt, dass auch wenn gutes Zureden den Motor offensichtlich nicht wirklich schneller starten lässt, damit wahrscheinlich auch kein Schaden angerichtet wird.

Problematischer wird dies, wenn durch eine solche Denkweise vom eigentlichen Probleme abgelenkt wird, wie in den folgenden Ausdrucksweisen, die sicher jeder schon gehört hat:

Das Auto parkt auf dem Radweg.
Der Fußgänger wurde vom Auto angefahren.

Tatsächlich ist das Auto zwar in der Lage, sich „selbst zu bewegen“ (daher der Name „Automobil“), aber eben nicht, selbst zu entscheiden, wo es abgestellt oder wird, oder mit welcher Geschwindigkeit es fährt: Es ist selbst­ver­ständ­lich der Fahrer oder die Fahrerin, welche diese Entscheidungen treffen. Richtigerweise müsste man daher sagen:

Das Auto wurde [vom Fahrer / von der Fahrerin] auf dem Radweg geparkt.
Der Fußgänger wurde [vom Fahrer / von der Fahrerin] mit dem Auto angefahren.

Das Problem verschiebt sich übrigens nur wenig, wenn wir in naher Zukunft vielleicht autonom fahrende Autos haben werden: Verantwortlich für eventuelles Fehlverhalten ist dann vielleicht nicht mehr der Fahrer – oder zumindest nicht mehr im gleichen Maße wie bisher, dafür aber eben der Hersteller, der für die Programmierung verantwortlich ist – das Auto selbst ist nach wie vor reiner „Befehlsempfänger“, der den programmierten Algorithmen folgt.

Überhaupt ist der ganze Bereich der sog. „künstlichen Intelligenz“ gespickt mit potentiell problematischen Fällen von Vermenschlichung, weshalb diesem ein eigener Abschnitt gewidmet ist:

„Künstliche Intelligenz“ / Autonome Fahrzeuge

Als „künstliche Intelligenz“ (KI) bzw. „artificial intelligence“ (AI) bezeichnet man heute verschiedene Arten von Computersystemen, die „intelligentes“ Verhalten mit den Mitteln der Informatik nachzubilden versuchen.

Aufgrund der zum Teil wirklich beeindruckenden Leistungen, die in diesem Bereich in den vergangenen Jahren gemacht wurden – aber auch aufgrund der oft dramaturgisch überhöhten „Intelligenzleistungen“ von vermeintlichen „KIs“ in Filmen und Videospielen – gibt es eine Neigung dazu, diesen auch menschliche Attribute wie „Empfindsamkeit“, „Vernunft“ oder gar „Gefühle“ zuzusprechen.

Tatsächlich sind, zumindest nach dem heutigen Stand der Technik, „künstliche Intelligenzen“ immer noch schlicht und einfach Computerprogramme, die einen Algorithmus ausführen. Von traditioneller Software unterscheiden sie sich vor allem durch die Art der Programmierung – etwa anhand von Beispieldaten und durch Feedback-Mechanismen. Diese Vorgehensweise hat völlig neue Anwendungsmöglichkeiten erschlossen, die mit anderen Programmiermethoden nicht oder nur sehr schwierig zu erreichen gewesen wären – aber es wurde eben auch kein „intelligentes Wesen“ erschaffen, wie manche zu glauben scheinen.

Man könnte sogar argumentieren, dass bereits der Begriff „Intelligenz“ ein Konzept beschreibt, welches spezifisch auf einen menschlichen Kontext zugeschnitten ist. Schon die Übertragung dieses Konzeptes auf Tiere kann man als zumindest problematisch ansehen – bei Maschinen umso mehr.

Aus der politischen Diskussion darüber, wie wir in Zukunft mit solchen „intelligenten“ Maschinen umgehen sollen, stammt die folgende (hier etwas überspitzt formulierte) Stilblüte:

Die KI in einem autonom fahrenden Auto verhält sich ähnlich wie ein menschlicher Fahrer.
Menschliche Fahrer sind rechtlich verantwortlich für eventuelle Unfälle, die sie verursachen.
Folglich sollte eine KI auch selbst die rechtliche Verantwortung für Unfälle tragen.

In der Tat wurden KI-Systeme in selbstfahrenden Autos so programmiert, dass sie das (idealisierte) Verhalten von menschlichen Fahrern möglichst gut nachbilden (und es aufgrund besserer Sensorik und schnellerer Reaktionen oft sogar übertreffen). Aus der Fähigkeit, auf Verkehrssituationen entsprechend der menschlichen Idealvorstellungen zu reagieren, folgt aber nicht, dass diese in der Lage wären, moralische Entscheidungen zu treffen und dass sie damit rechtlich für Fehlentscheidungen zur Verantwortung gezogen werden könnten (wie das aussehen sollte, wäre ohnehin noch einmal eine andere Frage).

Die Frage, wer für das Verhalten solcher autonomer Fahrzeuge haftbar gemacht werden kann, ist sowohl aus Sicht der Rechtswissenschaften als auch der Ethik interessant. Sie einfach auf die Maschine selbst zu schieben, wird aber der Komplexität der Sache nicht gerecht und setzt insbesondere die Hersteller dem Verdacht aus, selbst keine Verantwortung für ihre Produkte übernehmen zu wollen.

Pathetic fallacy

Eine Form von Vermenschlichung stellt auch die sogenannte „pathetic fallacy“ dar. Mit diesem Begriff bezeichnet man die unangemessene Assoziation von unbelebten Gegenständen oder abstrakten Konzepten mit Emotionen.

Für weitere Informationen hierzu, siehe: Pathetic Fallacy.

Siehe auch

Weitere Informationen

Über diese Site

QR Code Denkfehler Online ist ein Projekt, die häufigsten systematischen Irrtümer und Trugschlüsse zu erklären und zu kategorisieren. Auf dieser Seite finden sie einen Hintergrundartikel, der ein wichtiges Konzept, welches zum Verständnis eines anderen Artikels nötig ist, kurz erklärt.
Für mehr Informationen, siehe die Hauptkategorien: Logik, Statistik, Psychologie, Rhetorik und Denkfehler.
Seit kurzem haben wir auch einen Youtube Kanal mit Erklärvideos zu wichtigen Themen.

Diese Web­site verwendet Cookies. Durch die Nutz­ung der Web­site er­klären Sie sich mit der Speich­er­ung von Cookies auf Ihrem Com­puter ein­ver­standen. Darüber hinaus be­stät­igen Sie, dass Sie unsere Daten­schutzbestimm­ungen ge­lesen und ver­standen haben. Wenn Sie damit nicht ein­ver­standen sind, ver­lassen Sie bitte die Web­site.

Weitere Information