Home 27 Fälle irrationalen Verhaltens bei Entscheidungen

 

Aus: Franz Eisenführ, Martin Weber:

Rationales Entscheiden. Heidelberg: Springer

4. Aufl. 2003, Seiten 366-372 (leicht gekürzt)

<rot = kleinere Ergänzungen aus anderen Publikationen>

im Kapitel 14: Deskriptive Präferenztheorien

 

siehe auch: 179 Ergänzungen zu abweichendem Verhalten

                      294 Theorien zur Deutung … von Anomalien

 

 

Inhalt

Ambiguitätseinstellung

Anchoring und Adjustment

Availability Bias

Bandbreiteneffekt

Base Rate Fallacy

Besitztumseffekt

Choice vs. Matching-Anomalie (Response Mode-Bias)

Disappointment-Effekte

Framing-Effekte

Gambler's Fallacy

Hindsight Bias

Illusion of Control

Mental Accounting

Omission-Bias

Overconfidence-Bias

Preference Reversal

Referenzpunkt-Effekt

Regret-Effekte

Repräsentativitäts-Heuristik

Resolution of Uncertainty

Sicherheitseffekt

Splitting-Bias

Status quo-Bias

Sunk Costs

Überschätzung kleiner Wahrscheinlichkeiten

Verlustaversion

Winner’s Curse

 

 

Übersicht über Phänomene des Entscheidungsverhaltens

 

Im folgenden präsentieren wir Ihnen eine Übersicht über weitere Aspekte menschlichen Entscheidungsverhaltens, die für die deskriptive Entscheidungstheorie von grosser Relevanz sind und in aller Regel nicht vom Oberbegriff „Rationales Verhalten" abgedeckt werden. Wir haben versucht, jeden Effekt kurz zu definieren, eine Originalquelle anzugeben und - soweit möglich - eine neuere Arbeit zu zitieren, die eine Übersicht über die Forschung zum jeweiligen Effekt bietet. Manche Effekte wurden an einzelnen Stellen im Buch schon angesprochen, hier jedoch der Vollständigkeit halber noch einmal genauso aufgeführt wie die im bisherigen Verlauf des Kapitels behandelten Effekte. Die Effekte sind in alphabetischer Reihenfolge geordnet.

 

Ambiguitätseinstellung <Ambiguitätsscheu, -aversion; Ungewissheitseffekt; Ellsberg-Paradox>

 

Bei der Bewertung einer unsicheren Alternative kann sich der Entscheider über die, subjektiven Wahrscheinlichkeiten für das Eintreten der einzelnen Konsequenzen sicher oder unsicher sein. So besteht z. B. kaum Unsicherheit darüber, dass die Wahrscheinlichkeit für „Zahl" beim Werfen einer Münze 50% beträgt. Beim Ziehen einer Kugel aus einer unbekannten Urne mit roten und schwarzen Bällen muss ohne konkrete Zusatzinformation ebenfalls von einer Wahrscheinlichkeit von 50% für „Rot" ausgegangen werden. Über diese Wahrscheinlichkeitseinschätzung ist sich der Entscheider jedoch unsicher; es wird von einer ambiguitätsbehafteten Lotterie gesprochen. Individuen sind im allgemeinen ambiguitätsscheu (Ellsberg 1961), d. h. sie finden eine stärker ambiguitätsbehaftete Lotterie weniger attraktiv, auch wenn die Wahrscheinlichkeiten und Konsequenzen der Lotterien sich nicht unterscheiden. Eine Übersicht zum Stand der Forschung findet sich bei Camerer und Weber (1992).

 

<auch: Becker & Brownson 1964; Yates & Zukowski 1976>

 

Anchoring und Adjustment <Verankerung und Anpassung>

 

Menschen, die Entscheidungen unter Unsicherheit treffen müssen, machen sich diese von Tversky und Kahneman (1974) so bezeichnete Heuristik zunutze; indem sie ihre Einschätzung der unsicheren Entscheidungsvariablen von einem Startpunkt (Anker) aus schrittweise anpassen (adjustieren). Der Anker kann hierbei allerdings durch externe Vorgaben bestimmt sein, die zum Teil keine Informationen über den wahren Wert der Entscheidungsvariablen enthalten. Slovic und Lichtenstein (1971) zeigen, dass bei Einschätzungen unbekannter Grössen Anpassungen vom Startpunkt aus in Richtung des wahren Wertes nur in unzureichendem Umfang vorgenommen werden.

 

Availability Bias  <Verfügbarkeitsheuristik>

 

Der Availability Bias oder Verfügbarkeitsbias (Tversky und Kahneman 1973) ist eine gedächtnispsychologisch erklärbare Urteilsverzerrung, die dadurch zustande kommt, dass Menschen die Wahrscheinlichkeit eines Ereignisses subjektiv um so höher einschätzen, je leichter oder schneller sie in der Lage sind, sich Beispiele für dieses Ereignis vorzustellen oder in Erinnerung zu rufen. Wenn aber die Verfügbarkeit eines Ereignisses nicht Folge seiner Tendenz, häufig oder mit hoher Wahrscheinlichkeit aufzutreten, sondern besonderer Emotionalität, Lebhaftigkeit, hoher Familiarität und Medienpräsenz oder kürzlichen Auftretens ist, führt diese Vorgehensweise zur Überschätzung seiner Wahrscheinlichkeit und so letztendlich zur Verzerrung von Entscheidungen.

 

< eine Vorstufe zeigte bereits Maier 1931>

<siehe auch: Bonini & Caverni 1995>

 

Bandbreiteneffekt

 

Bei einem multiattributiven Entscheidungsproblem spielen die Bandbreiten der einzelnen Zielausprägungen bei der Zuweisung von Zielgewichten (Skalierungskonstanten) eine entscheidende Rolle. Änderungen der Bandbreiten sollten zu klar vorgegebenen Anpassungen der Zielgewichte führen. Experimentelle Untersuchungen (von Nitzsch und Weber 1991) zeigen jedoch, dass Entscheider bei der Festlegung der Zielgewichte wenig sensibel auf die Grösse der Ausprägungsintervalle reagieren, die angegebene Bandbreite zu wenig oder gar nicht berücksichtigen.

 

Base Rate Fallacy <Baisraten-Fehler>

<auch: Insensitivity to base rates = Vernachlässigung der Apriori-Wahrscheinlichkeiten/ Basisraten/ Grundwahrscheinlichkeiten>

 

Die Berücksichtigung neu eintreffender Information bei der Bearbeitung von Wahrscheinlichkeiten, also der Übergang von Apriori- zu Aposteriori-Wahrscheinlichkeiten, sollte formal korrekt unter Verwendung der Regel von Bayes erfolgen. Bei einem informellen und intuitiven Umgang mit Wahrscheinlichkeiten tendieren Menschen jedoch dazu, die Basisrate (also die Apriori-Wahrscheinlichkeit) im Vergleich zur neu eintreffenden Information deutlich zu wenig zu berücksichtigen (Kahneman und Tversky 1973). Bei Camerer (1995) findet sich ein Überblick über einige experimentelle Studien zu diesem Phänomen.

<auch: Lyon & Slovic 1976; Bar-Hillel 1980 und 1983; Christensen-Szalanski & Beach 1982; Kleinmuntz 1985; Scholz 1987;

Koehler 1993 und 1994>

 

Besitztumseffekt <Endowment effect>

(auch Seite 365)

„Was ich einmal besitze, gebe ich nicht wieder her."

Der Besitztumseffekt beschreibt das Phänomen, dass die Wertschätzung eines Gegenstands davon abhängt, ob die Leute diesen besitzen oder nicht. Der minimale Preis, den ein Verkäufer für einen bestimmten Gegenstand akzeptiert, liegt über dem maximalen Preis, den er als Käufer bezahlen würde. Vgl. dazu Thaler (1980), Weber (1993).

 

<ähnlich: Dispositionseffekt

Shefrin & Statman 1985; Kahneman, Knetsch & Thaler 1990 und 1991; Tversky & Kahneman 1991; Gerke & Bienert 1993; Weber & Camerer 1998

Anleger realisieren Gewinne zu früh und lassen Verluste zu lange laufen

Siehe auch: Omission bias

                        Status quo-Bias>

 

Choice vs. Matching-Anomalie (Response Mode-Bias)

 

Unter dem response mode versteht man die Verfahrensweise, mittels derer in Untersuchungen Präferenzen von Entscheidern erfragt werden. Hierzu zählen insbesondere choice-Aufgaben, in denen der Entscheider eine Auswahl (z. B. zwischen verschiedenen Lotterien) zu treffen hat, und matching-Aufgaben, bei denen er seine Präferenz durch Anpassung (z. B. Angabe des Sicherheitsäquivalents zu einer vorgegebenen Lotterie) zum Ausdruck bringt. Im Kontrast zum Postulat der (prozeduralen) Invarianz zeigen Tversky, Sattath und Slovic (1988) sowie beispielsweise Ahlbrecht und Weber (1997), dass eine Abhängigkeit der geäusserten Präferenz von der Art der Erhebung auftreten kann.

 

<Auch: Slovic 1995>

 

<Ähnlich: Compatibility Effect oder Scale Compatibility

Slovic 1972; Slovic, Griffin, Tversky 1990; Tversky, Slovic, Kahneman 1990; Shafir 1993 und 1995;

Durch unterschiedliche Fragtechnik wird die Aufmerksamkeit der Befragten auf unterschiedliche Skalen gelenkt>

 

Disappointment-Effekte

(auch Seiten 390-392: Disappointment-Theorien)

Ob der Gewinn von 100 Euro bei einer riskanten 50/50-Lotterie als erfreuliches oder enttäuschendes Ereignis wahrgenommen wird, hängt davon ab, ob die andere mögliche Konsequenz 0 Euro oder 200 Euro betragen hatte.

Die antizipierte Enttäuschung über das Verpassen eines erhofften Gewinnes kann dazu führen, dass Entscheider bereits ex ante auf die Wahl einer Alternative mit der Chance auf einen hohen Gewinn verzichten (Bell 1985). Die Bewertung der einzelnen Konsequenzen der Alternative erfolgt hier also nicht unabhängig, sondern unter Berücksichtigung der anderen möglichen Konsequenzen (lotterieabhängige Bewertung; Loomes und Sugden 1986).

 

<auch: Inman, Dyer & Jia 1997>

 

Framing-Effekte <Einbettungseffekte>

 

Unter dem Rahmen einer bestimmten Entscheidungssituation versteht man die Konzeption der damit verbundenen Handlungsalternativen, möglichen Umweltzustände und Konsequenzen. Framing-Effekte treten deshalb auf, weil Menschen unterschiedliche Entscheidungen bei verschiedenen Formulierungsmöglichkeiten für dasselbe Problem treffen. Das bekannteste, von Tversky und Kahneman (1981) stammende Beispiel hierfür betrifft die Darstellungsart der Konsequenzen als Gewinne oder Verluste, auf die Entscheider unterschiedlich reagieren.

 

<ferner: Schelling 1981; Johnson et al. 1993; Kühnberger 1995; Levin, Schneider & Gaeth 1998; Bazerman 1999

Je nach „Rahmung“ der Situation geht man ein anderes Risiko ein: Geringes bei positiver Darstellung, hohes bei negativer Darstellung der Situation>

 

 

Gambler's Fallacy <Des Spielers Trugschluss; negativer Recency-Effekt>

 

Fragt man Roulettespieler, welche Farbe nach zehnmal „rot" fallen werde, antworten diese typischerweise mit „schwarz". Dieses Verhalten, also die Meinung, nach einer Serie der einen Farbe sei die andere Farbe zu erwarten, wird als gambler's fallacy bezeichnet. Es lässt sich auf die Repräsentativitäts-Heuristik zurückführen, da die Menschen glauben, eine solch lange Serie sei nicht repräsentativ für den zugrundeliegenden Zufallsprozess. Vgl. dazu Tversky und Kahneman (1971) sowie Schulenburg (1994).

 

<ferner: Marks 1951; Irwin 1953; Cohen & Hansel 1955; Cohen 1972>

 

 

Hindsight Bias <Rückschau-Fehler>

(auch Seiten 4, 176)

<bereits: Forer 1949; Fama 1965; Walster 1967;

ferner: Fischhoff 1975, 1977 und 1980; Fischhoff & Beyth 1975; Wood 1978; Hell, Gigerenzer, Gauggel, Mall & Müller 1988; Hawkins & Hastie 1990; Christensen-Szalanski & Willham 1991; Pohl 1992; Hertwig 1993; Rachlinski 1998; Pohl, Bender & Lachmann 2002; Pohl, Eisenhauer & Hardt 2003; Guilbault et al. 2004>

 

Dieser Bias beruht nach Fischhoff (1975) auf zwei Tatsachen: Zum einen erhöht die Bekanntgabe des Eintritts eines bestimmten Ereignisses seine wahrgenommene Eintrittswahrscheinlichkeit nachträglich. Zum anderen sind sich Menschen, die die Information über den Eintritt des Ereignisses erhalten haben, dieser Tatsache nicht bewusst; die Veränderung ihrer Wahrnehmung vollzieht sich vielmehr unbewusst. Als Ergebnis überschätzen Individuen insbesondere bei der ex post-Beurteilung von Entscheidungen den Grad der Übereinstimmung ihrer Urteile vor und nach dem Eintritt eines Ereignisses und glauben, schon immer gewusst zu haben, was passieren wird (Knew-it-all-along-Effekt bzw. Fluch des Wissens).

 

siehe auch:

<umgekehrter Hindsight Bias Effekt

Verplanken & Pieters 1988

"Das hätte ich nie geglaubt">

 

Illusion of Control

 

Menschen glauben oft, mehr Kontrolle über zufällige Ereignisse zu haben, als es tatsächlich der Fall ist. Insbesondere in Situationen, die sie als bekannt ansehen oder in denen sie selbst aktiv werden können, beispielsweise indem sie zwischen alternativen Lotterien wählen können, tritt dieser von Langer (1975) als Kontrollillusion bezeichnete Effekt verstärkt zutage. Er führt zur Über- oder Unterschätzung der Eintrittswahrscheinlichkeit von Ereignissen sowie zur Bevorzugung der Alternative, bei der eine höhere Kontrolle vorliegt.

<auch: Henslin 1967; Langer & Roth 1975; Perlmutter & Monty 1977; Lopes 1982;

Alloy, Abramson & Viscusi 1981;

Alloy & Clements 1992; Bouts & Van Avermaet 1992; Friedland, Keinan & Regev 1992;

Pfrang 1993; McKenna 1993 (unrealistic optimism);

Biner, Angle, Park, Mellinger & Barber 1995; Budescu & Bruderman 1995;

Rudski 2001; Thompson 2004; Ladouceur & Sevigny 2005>

 

<Ähnlich: Fictious Non-Randomness

Kahneman & Tversky 1972; Langer 1983

In Zufallsverteilungen Muster sehen>

 

 

Mental Accounting

 

Individuen tendieren dazu, sogenannte „mentale Konten" (Thaler 1985) zu führen, in die sie verschiedene Vermögenspositionen einordnen. So unterteilen beispielsweise viele Menschen ihr Wertpapierdepot in die mentalen Konten „Altersvorsorge" und „spekulative Investitionen". Als Mental Accounting wird die Tatsache bezeichnet, dass Entscheidungen nur innerhalb des entsprechenden mentalen Kontos optimiert werden und mögliche Wechselwirkungen mit Positionen anderer Konten ignoriert werden. Damit verletzen die Entscheider das normative Prinzip der „Asset Integration", nach dem eine Entscheidung auf einer Gesamtvermögensbetrachtung beruhen sollte.

 

<auch: Thaler 1980 und 1999;

Auch „psychological accounting“: Tversky & Kahneman 1981 (Isolation effect)

Alle Projekte, die der Mensch durchführt, werden in separaten Konten verbucht. Zusammenhänge zwischen den Engagements werden vernachlässigt>

 

 

Omission-Bias

 

Der sogenannte Omission-Bias beschreibt die subjektive Wahrnehmung, dass Handlungen per se als riskanter aufgefasst werden, als nichts zu tun (omission = Unterlassung/ Versäumnis). So lässt sich erklären, dass Eltern oft zögern, ihre Kinder impfen zu lassen, obwohl die Wahrscheinlichkeit zu erkranken durch die Impfung nachweislich gesenkt wird. Vgl. dazu Baron und Ritov (1994) sowie Asch et al. (1994).

 

<auch: Ritov & Baron 1990 und 1999>

 

 

Overconfidence-Bias (übersteigerte Selbstsicherheit; Illusion der Sicherheit)

 

Eine Reihe von empirischen Untersuchungen hat gezeigt, dass Leute dazu neigen, ihre Fähigkeiten und Kenntnisse deutlich zu überschätzen. So glaubten beispielsweise 82% der befragten Studenten, sie gehörten zu den 30% besten Autofahrern. Dieser sogenannte Overconfidence-Bias kann dazu beitragen, das hohe Handelsvolumen auf den Finanzmärkten zu erklären. Vgl. dazu Svenson (1981), Laschke und Weber (1999).

 

<auch: Meehl 1954; Adams 1957; Goldberg 1959; Oskamp 1965; Lichtenstein & Fischhoff 1977; Fischhoff, Slovic & Lichtenstein 1977; Lichtenstein, Fischhoff & Philips 1982; Janis 1982; Bedau & Radelet 1987; Klayman et al. 1999; Broeder 2000; Soll & Klayman 2004>

 

<auch: Illusion of Validity

Kahneman & Tversky 1973; Einhorn & Hogarth 1978>

 

 

Preference Reversal <Präferenzumkehr>

 

Präferenzen können sich in Abhängigkeit von ihrer Bestimmungsprozedur so verändern, dass man mit dem einen Verfahren eine Präferenz für X gegenüber Y, mit dem anderen aber gerade eine Präferenz für Y gegenüber X erhält (Umkehreffekt). So fanden Lichtenstein und Slovic (1971), dass Entscheider bei der Wahl zwischen Lotterien eine Lotterie bevorzugten, für die sie einen geringeren Verkaufspreis angaben als für die nicht gewählte Lotterie. Vgl. auch Grether und Plott (1979).

<ferner: Lichtenstein & Slovic 1973; Schkade & Johnson 1989; Slovic, Griffin & Tversky 1990; Tversky & Thaler 1990; Tversky, Slovic, Kahneman 1990; Hsee et al. 1999>

 

<zu beachten ist: Manche Beispiele für Präferenzumkehr sind kollektiver Art, nicht individueller Art. So legten etwa Kahneman & Tversky, 1981, ihre Formulierungen der Asian Disease nur jeweils einer Experimentalgruppe vor>

 

 

Referenzpunkt-Effekt <Reference-Point-Effekt>

(auch Seiten 364-366)

Ein wichtiges Phänomen der deskriptiven Entscheidungstheorie ist die Tatsache, dass Entscheider die Ausgänge der zu Verfügung stehenden Alternativen relativ zu einem vorher gesetzten, individuellen Referenzpunkt bewerten. So bewerten Anleger den aktuellen Kurs ihrer Wertpapiere z. B. gerne relativ zu ihrem Kaufkurs oder dem bisherigen Höchstkurs, vgl. Odean (1998). Die Berücksichtigung des Referenzpunkts ist wichtiger Bestandteil der Prospect-Theorie von Kahneman und Tversky (1979).

 

<vgl. auch Wohlstandsniveau 1951; Adaptationsniveau 1964;

ferner Fishburn 1967; Kahneman & Tversky 1981>

 

 

Regret-Effekte <auch: Regret Aversion>

 

Menschen beurteilen die Qualität ihrer Entscheidungen häufig danach, was passiert wäre, wenn sie eine andere Entscheidung getroffen hätten. Nach Loomes und Sugden (1982) basiert die Regret-Theorie dann auf zwei fundamentalen Annahmen. Zum einen erfahren Menschen Gefühle wie Bedauern und Freude, zum anderen antizipieren sie diese Gefühle, wenn sie Entscheidungen unter Unsicherheit treffen müssen. Folglich berücksichtigen sie die Emotionen, die aus einem Vergleich der realisierten mit der verpassten Konsequenz resultieren, zusätzlich zum Nutzen der Konsequenzen und versuchen, Bedauern zu vermeiden. Dabei vernachlässigen sie die Tatsache, dass schlechte Konsequenzen nicht notwendigerweise aus schlechten Entscheidungen resultieren.

 

<auch: Bell 1982; Fishburn 1984; Inman, Dyer & Jia 1997>

 

Repräsentativitäts-Heuristik

<auch: Ähnlichkeits-Heuristik; Prototypenvergleichsheuristik>

 

Menschen orientieren sich häufig an repräsentativen Charakteristika der Grundgesamtheit, um die Wahrscheinlichkeit eines Ereignisses zu schätzen. Genauso spielen die typischen Charakteristika einer Teilmenge der Grundgesamtheit eine wichtige Rolle, wenn die Zugehörigkeit einer Stichprobe zu dieser Teilmenge beurteilt werden soll. Diese Heuristik kann aber zu Verzerrungen und somit falschen Entscheidungen führen, wenn die Charakteristika nicht die tatsächlichen - a priori gegebenen - Wahrscheinlichkeiten widerspiegeln. Vgl. dazu Kahneman und Tversky (1972), Tversky und Kahneman (1983).

 

<auch: Kahneman & Frederick 2002>

 

Resolution of Uncertainty

 

... In tatsächlichen Entscheidungssituationen liegt zwischen Entscheidung und Ergebnisempfang ein Zeitintervall, in welchem bereits mehr oder weniger viel über die Realisation der Lotterie bekannt werden kann. Im Gegensatz zur Erwartungsnutzentheorie, nach der ein Entscheider zwischen Lotterien, die sich nur in der zeitlichen Struktur der Auflösung der Unsicherheit unterscheiden, indifferent sein sollte, weisen u. a. Ahlbrecht und Weber (1996) nach, dass Entscheider in bestimmten Fällen die frühe respektive späte Auflösung der Unsicherheit strikt vorziehen.

 

Sicherheitseffekt <Certainty effect>

 

Als Sicherheitseffekt wird das Phänomen bezeichnet, dass Entscheider den Unterschied zwischen zwei Wahrscheinlichkeiten dann besonders stark bei ihrer Entscheidung berücksichtigen, wenn es sich um einen Übergang von „fast sicher" auf „sicher" handelt. So ist beispielsweise eine Erhöhung der Gewinnwahrscheinlichkeit um 1% dann besonders erstrebenswert, wenn dadurch der Gewinn nicht mehr mit 99%, sondern statt dessen mit 100% Wahrscheinlichkeit eintritt. Ein Übergang von 30% auf 31% wird dagegen als wesentlich weniger bedeutsam empfunden. Dieses Phänomen wurde von Allais (1953) genutzt, um Beispiellotterien zu konstruieren, bei denen Entscheider intuitiv das Unabhängigkeitsaxiom der EUT verletzen (Expected Utility Theorie). Die Stabilität des Effekts weisen Cohen und Jaffray (1988) nach.

 

<Auch: Kahneman & Tversky 1979; Tversky & Kahneman 1981; Keren & Wagenaar 1987;

Alles was nicht sicher ist, wird deutlich schlechter bewertet als Sicherheit

Auch: Pseudocertainity

Wenn die Sicherheit noch grösser scheint

Tversky & Kahneman 1981>

 

Splitting-Bias

 

Wird ein Zielsystem verfeinert, indem ein Oberziel in Unterziele aufgesplittet wird, so sollte sich (bei Wahl geeigneter Bandbreiten) als Summe der Gewichte der Unterziele gerade das ursprüngliche Gewicht des Oberziels ergeben. Tatsächlich weisen Entscheider dem weiter zerlegten Ast des Zielsystems im allgemeinen jedoch eine deutlich höhere Gewichtssumme zu (Weber, Eisenführ und von Winterfeldt 1988). Ähnliche Effekte zeigen sich bei der Aufspaltung von Ursachenbäumen und allgemein bei Zustandsbäumen (event-splitting; Humphrey 1996).

 

Status quo-Bias

 

Wenn die Unterscheidung, ob Alternativen zur Veränderung des Status quo, also des gegenwärtigen Zustandes, führen oder ihn erhalten, Einfluss auf das Entscheidungsverhalten von Menschen hat, obwohl jeweils die gleichen Konsequenzen mit diesen Optionen verbunden sind, spricht man vom erstmals von Samuelson und Zeckhauser (1988) untersuchten Status quo-Bias. Im Rahmen der Prospect-Theorie ist dieser Effekt interpretierbar als Referenzpunkt- oder auch als Endowment-Effekt.

 

Sunk Costs <Effekt des verlorenen Geldes; Ausgaben-Effekt>

 

Sunk Costs entstehen, wenn bereits getätigte Aufwendungen zeitlicher, finanzieller oder anderer Art Menschen dazu veranlassen, Entscheidungen zu treffen, die sie sonst nicht treffen würden. Von dieser Verzerrung sind insbesondere Entscheidungen über die Fortführung von Projekten betroffen: „The fact that no major dam in the United States has been left unfinished once begun shows how far a little concrete can go in defining a problem." (Fischhoff et al. 1981, S. 13)

<auch: Teger 1980; Arkes & Blumer 1985; Arkes & Ayton 1999>

 

Überschätzung kleiner Wahrscheinlichkeiten

 

Bei der subjektiven Wahrnehmung von Wahrscheinlichkeiten stellt sich heraus, dass geringe Wahrscheinlichkeiten tendenziell überschätzt werden. Die Prospect-Theorie berücksichtigt diese verzerrte Wahrnehmung durch die Form der Wahrscheinlichkeitsgewichtungsfunktion. Vgl. dazu Kahneman und Tversky (1984).

 

Verlustaversion

 

Die Untersuchungen von Kahneman und Tversky (1979) sowie Quattrone und Tversky (1988) zeigen, dass Verluste Menschen stärker schmerzen als sie Gewinne gleicher Höhe erfreuen. Im Rahmen der Prospect-Theorie steigt aus diesem Grund die Wertfunktion im Verlustbereich stärker als im Gewinnbereich bezüglich des Referenzpunktes. Verlustaversion impliziert deshalb auch, dass Entscheidungen von der Darstellungsweise (dem Framing) der Handlungskonsequenzen - beispielsweise als Gewinne oder Verluste - abhängig sind.

 

<Ähnlich: Reflection Effect

Kahneman & Tversky 1982

Das Risikoverhalten kehrt sich im Übergang von Gewinnen zu Verlusten genau um

Im Verlustbereich wird eher risikofreudig entschieden>

 

 

Winner’s Curse

 

Der Winner's Curse ist das Ergebnis eines Urteilsfehlers in einem Auktionskontext, in dem Individuen für ein Objekt bieten, dessen Wert für alle gleich, aber unbekannt ist. Jeder Teilnehmer muss sich dabei selbst eine Meinung über diesen Wert bilden. Je höher sie ist, desto höher wird sein Gebot ausfallen, so dass der optimistischste Schätzer, dessen Angebot den Wert des verhandelten Gegenstandes oder zumindest den Wert, den er sich vorgestellt hat, meist übersteigt, in der Regel die Auktion gewinnt. Der Winner's Curse besteht nach Thaler (1992) somit im systematischen Versagen, dieses Problem adverser Selektion in die Höhe des eigenen Gebotes miteinzubeziehen.

 

<Ähnlich: Ignoring the Perspectives of Others

Bazerman 1986 und 1999, Thaler 1994

Mangelhafte Berücksichtigung der Sichtweisen anderer.

 

siehe auch:

<Theorie der gelernten Sorglosigkeit

Frey & Schulz-Hardt 1996, Schulz-Hardt et al. 1996>

 



Return to Top

Home

E-Mail



Logo Dr. phil. Roland Müller, Switzerland / Copyright © by Mueller Science 2001-2016 / All rights reserved

Webmaster by best4web.ch