Sie fragen sich, wie es sein kann, dass hochdotierte und dekorierte Experten den Pandemieverlauf in ihren Simulationen nicht annähernd richtig vorhersagten? Sie wundern sich, warum intelligente Menschen mit ihren Einschätzungen so oft daneben liegen? Wieso Gruppen zu ganz unterschiedlichen Entscheidungen kommen.

Die Streuung der Experten

Es ist so wie auf dem Beitragsfoto. Jeder hält seine Schätzung hoch, doch diese unterscheiden sich erheblich.

Überall klaffen Lücken zwischen fachlichen, gar wissenschaftlichen Einschätzungen, ob im Bereich Politik, Gesundheit, Recht, Statistik und natürlich auch bei der Personalauswahl. „Noise“ hilft  zu verstehen, wie das passieren kann. Und wie wir damit umgehen könnten. Die Botschaft dürfte einigen nicht gefallen. Sie lautet: Die bisherige Art und Weise wie wir Menschen, etwa in Meetings Entscheidungen treffen oder wie Experten zu Urteilen kommen, ist fehleranfällig.

Warum das so ist? Das Phänomen „Noise“ erklärt es. „Noise“ ist die zufällige Streuung von menschlichen Urteilen. Der Mensch mit seiner Schätzung schneidet dabei regelmäßig schlechter als eine schlichte statistische lineare Regressionsanalyse, also eine Methode bei der man verschiedene Variablen miteinander verbindet – Variablen, die das menschliche Hirn sonst eben nicht verbinden würde, weil es damit überlastet wäre.

Oder sind Sie etwa immer noch überzeugt, mit Ihrer Einschätzung zu der Bewerberin richtig zu liegen, die sich letzte Woche in Ihrer Abteilung vorgestellt hat? Selbst wenn Sie sich nicht auf Fotos, sondern scheinbar objektive Fakten beziehen: Die Statistik wird Ihnen selbst dann überlegen sein, wenn sie studierter Psychologe sind. Selbst ein Doktortitel ändert nichts. Eher im Gegenteil. Stattdessen sollten Menschen den Computer mit möglichst gutem Daten füttern… sich also mehr damit beschäftigen, wie man diese erheben kann als mit der Auswertung.

Verrauschte Urteilsbildung

„Die Urteilsbildung ist so stark verrauscht, dass ein von Noise freies Modell eines Urteilenden genauere Vorhersagen macht als der Urteilende selbst“, schreibt Daniel Kahnemann, Autor das Buches „Noise“ und als Psychologe der erste und bisher einzige Wirtschaftsnobelpreisträger. Was etwas heißt.

Kahnemann baute seine Forschungen u.a. auf Paul E. Meehl auf, der in den 1950er Jahren eben jenen Vorteil der linearen Regression gegenüber dem menschlichen Urteil untersuchte und nachwies. Wie alle, die den „Homo Oeconomicus“, den rationalen Verstandesmenschen, in Frage stellen, war Meehl nicht sonderlich beliebt mit seiner faktisch nachprüfbaren Aussage. Aber so ist das bei Menschen: Sie entscheiden emotional, welche Fakten ihnen sympathisch sind.

Wirtschaftsprofessor und Nobelpreisträger Daniel Kahnemann behandelt „Noise“ in seinem neuen Buch, das er in der Corona-Pandemie zusammen mit dem ehemaligen McKinsey Berater Olivier Sibony und Barack-Obama-Gefährte Cass R. Sundstein schrieb. Das Projekt wurde  „dank Corona“ zeitlich möglich, denn in der Pandemie hatten alle drei mehr Zeit und mussten sich zum Buchschreiben nicht mehr persönlich treffen und zwischen Europa und den USA pendeln.

Noise – Probieren Sie es aus

Noise sieht von außen aus, als hätten einige Schützenfestbesucher voll zugedröhnt auf eine Zielscheibe geballert. Das können Sie selbst ausprobieren.

Versuchen Sie einmal eine kleine Übung. Nehmen Sie Ihr Handy und aktivieren Sie die Zeitstoppfunktion. Stoppen Sie nun blind, also ohne auf das Display zu blicken, fünf Zeitintervalle à fünf Sekunden. Sie können sich gerne vorher anschauen, wie lange fünf Sekunden sind. Aber danach bitte frei schätzen!

Schreiben Sie auf, wie groß die Streuung war. Bei mir verging die Zeit sehr schnell: Die Intervalle lagen zwischen 2,62 und 4,78 Sekunden. Eine enorme Streuung.

Sie waren wie ich bei dieser Übung höchstwahrscheinlich nüchtern. Ähnliche Muster entstehen, wenn wir unserer Intution in anderen Bereichen folgen – die Schüsse weichen stark voneinander ab, Treffer zielen eher zufällig ins Schwarze.

Daneben liegen auch die besten Experten ihres Fachs, und diese manchmal ganz besonders. Grund ist auch so ein Bias: Die Selbstbestätigungstendenz, mit der wir uns dauernd bestätigen und widersprüchliche Aussagen und Einschätzungen entweder ignorieren oder als minderwertig einstufen. Das ist ein starkes Argument für Metaanalysen aus vielen wissenschaftlichen Studien, die typischerweise allerdings erst lange nach einem Ereignis vorliegen. Die Corona-Pandemie hat davon noch wenig zu bieten.

Rosa Elefanten spüren – Menschliche Kernkompetenz

Menschen treffen intuitiv und schnell Urteile. Dabei wählen Sie aus Fakten jene aus, die ihnen passen. Komplexität wird so „reduziert“. Der eine sieht das rote Kleid auf der Party, der nächste die vielen Leute ohne Abstand – und dann gibt es jemand, der den Geruch bemerkt. So ist es bei jedem Eindruck, der aus mehr als einer Information besteht (und welchen Eindruck betrifft das nicht?). Das Messinstrument „menschliches Urteil“ funktioniert am besten bei Dingen, die Computer eher schlecht berechnen können, etwa der Wahrnehmung von „rosa Elefanten“ im Raum, die keiner sieht. Oder bei kreativen Leistungen. Oder auch bei der Fähigkeit mit anderen Verbindungen einzugehen, bei der man eigene Grenzen überwindet…

Mehr Entscheidungshygiene wäre geboten, sagen die Autoren. Wir sollten akzeptieren, dass wir Menschen nicht für rationales Denken und logische Urteile gemacht sind. Das war in früheren Stadien unserer Evolution anders. Aber seit wir versuchen, Computergleich zu werden, hakt es an allen Ecken und Enden (hier empfehle ich mein Video über Ke Jie „Der Computer ist nicht Gott).

Aber: Wir haben nie gelernt, all diese Fähigkeiten zu nutzen. Wir haben nicht gelernt, wie man allein und in Gruppen so entscheidet, dass die Nachteile menschlicher Urteile ausgeglichen werden und die Vorteile betont. Vor allem aber haben wir eine Kultur der Rechthaberei entwickelt. In dieser geht es nicht darum, Argumente zu verdichten, sondern um „wer hat recht“.

Wir versagen so bei nahezu jedem Versuch, das Dickicht der Komplexität mit unseren einfachen Denk-Mitteln zu durchdringen. Wir sind wie eine Mess-Station mit einem Wackel-Zeiger. Unsere Einheit ist nicht Grad-Fahrenheit, sondern das gerade aktuelle Gefühlserleben.

Was wir dann aber in unserem präfrontalen Cortex mit vielen Worten vor uns selbst und anderen rationalisieren, also in viele Worte packen.

Nüchtern daneben

Man könnte auch sagen: Wir schießen nüchtern daneben, als wären wir volltrunken.

Wenn jeder Expertenkollege einen Schuss frei hätte, reiht sich dann ein Fehlschuss der Einschätzung an den anderen. So ergibt sich eine zufällige Streuung verschiedener Einschätzungen zum selben Thema.

Kahnemann-Mitautor Oliver Sibony nennt dazu in einem Interview mit RND die Einschätzung von Astra Zeneca als Beispiel für Noise: „Das ist ein perfektes Beispiel dafür, wie Menschen, die alle sehr qualifiziert sind und vermutlich sogar die gleichen Ziele verfolgen, zu auffallend unterschiedlichen Schlussfolgerungen in einer doch wichtigen Angelegenheit gelangen.“

System Noise

In Organisationen sehen wir „System Noise“. Dieses Rauschen ist von den Organisationen unerwünscht. Noise sorgt für Vertrauensverlust, aber auch für wirtschaftliche und soziale Schäden. Wenn etwa Versicherungen mehr zahlen als sie müssten – oder wenn Krankheiten übersehen werden. Das ist im prognostischen Bereich auch deshalb wirtschaftlich schädlich, weil Vorhersagen meist eher optimitischer sind und nicht etwa pessmistischer. Kahnemann und seine Co-Autoren haben dafür eine mathematische Formel entwickelt und eine Messgröße, den MFQ – den mittleren quadratischen Fehler. Dieser MFQ lässt mathematisch in Bias und Noise zerlegen.

Noise ist aus dem Blickwinkel der Statistik in der Standardabweichung der Prognosen zu sehen. So wie wir mit der Stoppuhr bei der kleinen Übung unserer eigene Standardabweichung messen können, so können das auch Unternehmen. So kann die Standardabweichung 10 oder auch 50 Prozentpunkte betragen. Die Streuung zwischen den Einschätzungen ist das Interessante. Insofern ist „Noise“ im arithmetischen Mittel am geringsten und verstärkt sich an den Seiten der Glockenkurve. Bei weniger Noise wird die Glockenkurve spitzer und der Nullfehler kleiner im positiven oder negativen Bereich.

Dabei ist wichtig zu wissen, dass diese Rechnung unserer Inituition zuwiderläuft, also kontraintuitiv ist. Die Beseitigung von Bias und Noise ist immer „langsames Denken“. Es bedeutet zu stoppen, viele Menschen und andere Meinungen einzubeziehen, nachzudenken, nachzurechnen – und vor allem und über allem: sich immer wieder selbst in Frage stellen. Die Fähigkeit zum Rethinking wird damit zum entscheidenden Vorteil für die Leader von morgen. Das agile oder „growth Mindset“ ist dafür die Basis. Fixed-Denker wie etwa auch der geniale Steve Jobs mögen in früheren Jahrzehnten einen Vorteil gehabt haben – heute verhindern sie den Wandel.

Nach Kahneman und den Mitautoren gibt es neben System Noise drei Arten des persönlichen Rauschens, die in Freizeit und Berufsleben für Verzerrungen sorgen:

Die drei Arten von Noise:

  • Occasion Noise: Das ist das situative Rauschen, wenn wir etwas besonders optimistisch einschätzen, weil die Lieblingsfußballmannschaft am Wochenende gewonnen hat. Oder weil wir gerade Sex hatten. Weil Ostern ist, Weihnachten oder die Ferien vor der Tür stehen.
  • Pattern Noise: Das sind auch durch die Persönlichkeit und persönliche Bewertungen bedingte Rauschmuster. Der eine achtet bei der Einstellung vielleicht besonders auf die Noten in Mathe, der andere auf die Noten in Musik. Das macht blind. Wenn Sie auf eine Party gehen und immer nur auf das rote Kleid dieser Frau blicken, sehen Sie den Kasten Bier in der Ecke hinterm Vorhang nicht. Individuelle Wertungen spielen hier eine große Rolle, auch das kann man sehr gut in der Corona-Krise sehen.
  • Level Noise: Dies beschreibt die Auslegungsstrenge, etwa von Richtern in liberalen oder konservativen Gegenden. Epidemiologen in Deutschland, Schweden, Russland oder den USA nutzen exakt die gleichen Informationen und Studien und haben z.B. alle in Harvard studiert. Sie kommen dennoch zu komplett unterschiedlichen Einschätzungen. Das moralische und politische Weltbild spielt dabei eine große Rolle.

Kahneman und seine Mitautoren unterscheiden Noise von Bias, also dem systematischen Fehler. Der spielt bei alldem natürlich auch eine Rolle. Wenn der eine Experte eine Zahl in den Raum stellt, sagen wir „7-Tages-Inzidenz 2.000 nach Ostern“, wird diese Zahl unweigerlich zur Orientierungsgröße in den Köpfen – das ist die so genannte Ankerheuristik. Rückblickend verzerren wir allerdings unsere Erinnerung: Eine selbstbewusstseinserhaltene Funktion des biopsychosozialen Systems Mensch, dank der viele nicht mal auf die Idee kommen, dass sie sich geirrt haben könnten… Das nennt sich Rückschaufehler. Bias spielt also mit Noise zusammen.

Bessere Entscheidungen treffen

Was tun? Ganz einfach: Bessere Entscheidungen treffen, runter vom hohen Ross der Selbstüberzeugung und zurück zu Sokrates „ich weiß, dass ich nichts weiß“.

Nobelpreisträger Kahnemann empfiehlt „Noise Audits“ bei denen die Entscheidungen systematisch hinterfragt werden, etwa mit statistischen Methoden.

Wenn man etwa denkt, dass die Bewerberin überdurchschnittlich intelligent sei, weil sie schon mit vier Jahren lesen konnte, solle man diese Entscheidung mit der Wahrscheinlichkeit, dass das wirklich korreliert abgleichen – die typischerweise geringer sei als die selbst angenommene. Überhaupt neigen wir zum Überschätzen von statistischen Zusammenhängen und vermuten Korrelationen, wo keine sind.

Sicher, statistische Methoden sind hilfreich. Ich denke allerdings, dass man sich auch ein paar einfach Grundsätze zu eigen machen kann:

  1. Entscheiden Sie nicht alleine.
  2. Bringen Sie Experten mit gegensätzlichen Einschätzungen an einen Tisch.
  3. Runter vom Mount Stupid (Video hier) – anerkennen Sie die Tatsache, dass Sie nichts wissen.

Nun sieht man, dass das genau selten geschieht. Und dass Zweifler oder „Rethinker“ teilweise einen schweren Stand haben, vor allem in Führungspositionen, wo man eben auch „Positionen“ erwartet. Doch müssen diese nicht inhaltlicher Natur sein, sondern können sich auch auf ethische Werte und Prinzipien beziehen – etwa das Prinzip offen zu sein.

Dennoch, Menschen suchen nach absoluter Wahrheit und folgen denen, die diese versprechen..

Das fällt nach Kahnemann unter „systematischer Fehler“, also bias. Aber ich würde soweit gehen, das einfach umzudrehen: Wir Menschen sind und bleiben Tiere. Wir werden in diesem Anthropozän keine Rechenmaschinen mehr.

Es gibt da nur ein kleines Problem: Der Glaube, das Wahrheit irgendwann gefunden werden könnte und eine Person sie in den eigenen Besitz gebracht hat. Komischerweise ist dieser Glaube besonders verbreitet unter Experten…

Beitragsfoto: iStock