NEM52 · Not Enough Meaning
Subadditivity Effect
Beispiel
Eine Versicherungsgesellschaft befragt Kunden nach ihrem wahrgenommenen Risiko verschiedener Todesursachen. Gruppe A wird gefragt: "Wie hoch schätzen Sie die Wahrscheinlichkeit, dass Sie an einer natürlichen Ursache sterben?" Antwort im Durchschnitt: 55 Prozent. Gruppe B erhält detailliertere Fragen: "Wie hoch ist die Wahrscheinlichkeit für Tod durch Herzkrankheit?" (25 Prozent), "...durch Krebs?" (20 Prozent), "...durch andere natürliche Ursachen?" (18 Prozent). Die Summe von Gruppe B ergibt 63 Prozent - mehr als die 55 Prozent der Gesamteinschätzung von Gruppe A. Dies ist mathematisch unmöglich: Die Teile können nicht mehr ergeben als das Ganze. Menschen schätzen paradoxerweise die Wahrscheinlichkeit der Komponenten höher ein als die Wahrscheinlichkeit der Gesamtkategorie, die diese Komponenten vollständig umfasst.
Was ist dieser Effekt?
Der Subadditivity Effect beschreibt die kognitive Verzerrung, bei der Menschen die Wahrscheinlichkeit des Ganzen als geringer beurteilen als die Summe der Wahrscheinlichkeiten der Teile. Dies verletzt grundlegende Gesetze der Wahrscheinlichkeitstheorie: Wenn A und B sich gegenseitig ausschließende Komponenten von C sind, muss P(C) = P(A) + P(B) sein, nicht kleiner. Der Effekt tritt auf, weil detaillierte Kategorien konkreter sind und leichter vorstellbar - unser Gehirn gewichtet sie dadurch stärker. Eine moderne Theorie erklärt dies durch "noisy information processing": Unser Gehirn konvertiert objektive Informationen mit systematischen Störungen in subjektive Urteile.
Warum ist das eine Verzerrung?
Diese Denkweise verletzt mathematische Logik und führt zu inkonsistenten Risikoeinschätzungen. Menschen sind bereit, mehr für Versicherungen gegen spezifische Risiken zu zahlen als für umfassende Versicherungen, die alle diese Risiken abdecken - objektiv irrational. Die Verzerrung zeigt, dass unser intuitives Verständnis von Wahrscheinlichkeiten fundamental fehlerhaft ist. Je detaillierter Risiken aufgeschlüsselt werden, desto höher erscheinen sie - nicht weil sie realer werden, sondern weil sie konkreter und vorstellbarer werden. Dies führt zu Fehlentscheidungen in Versicherungen, Investitionen und Risikomanagement. Der Effekt demonstriert, warum statistische Bildung so wichtig ist: Unsere Intuition führt zu systematischen mathematischen Fehlern.