Der Fluch des Wissens: Warum wir aufhören müssen, Experten blind zu vertrauen

Ich schreibe hier oft über Themen, bei denen ich kein „ausgewiesener Fachmann“ bin. Viele Menschen lassen sich davon abschrecken: Sie glauben, sie dürften sich nur äußern, wenn sie das passende Diplom oder jahrzehntelange Erfahrung vorweisen können. Doch genau dieser Glaube führt uns oft in die Irre. Tatsächlich zeigt sich immer wieder: Sogenannte Experten liefern oft weniger neutrale und sogar schlechtere Analysen ab als ein aufmerksamer Außenstehender, der sich kritisch einliest.

Vielleicht ist die Menschheit bisher nicht wegen, sondern eher trotz der Experten so weit gekommen.

Das klingt provokant. Aber ich bitte euch: Lest erst weiter, bevor ihr das als Unsinn abtut. Denn was ich euch jetzt zeigen werde, sind keine Einzelfälle von schlechter Arbeit. Es sind Muster. Muster, die sich durch Jahrzehnte, durch Länder, durch Fachgebiete ziehen. Und die jedes Mal dieselbe Frage aufwerfen: Warum haben wir dem so vertraut?

Wir glauben meist, Experten würden rein sachlich entscheiden. Die Wissenschaft sagt etwas anderes. Man unterscheidet zwischen der „kalten“ Vernunft und dem „heißen“ Denken. „Kaltes“ Denken ist logisch und neutral. „Heißes“ Denken passiert, wenn Gefühle im Spiel sind.

Um Experte zu werden, braucht man Leidenschaft. Das ist keine Übertreibung: Wer wirklich gut in einem Fach werden will, muss dafür jahrelang hart arbeiten. Oft ist das anstrengend, frustrierend, wenig belohnend. Nur wer das Fach wirklich liebt, hält durch. Ohne diese tiefe Begeisterung wird niemand wirklich Experte.

Doch diese Leidenschaft wird oft zur Falle.

Wenn ein Experte seine gesamte Identität über sein Fachgebiet definiert, bekommt er einen Tunnelblick. Neue Fakten, die seine Theorie widerlegen könnten, sieht sein Gehirn nicht mehr als Information, sondern als persönlichen Angriff. Er nutzt sein Wissen dann nicht mehr zur Wahrheitssuche, sondern als Waffe, um seine gefestigte Meinung zu verteidigen.

Die Psychologie hat dafür einen Namen: „Motiviertes Denken“. Das bedeutet: Wir suchen nicht nach der Wahrheit. Wir suchen nach Belegen für das, was wir schon glauben. Und je klüger jemand ist, desto besser kann er das tun – desto überzeugender klingen seine Ausreden, gerade auch dann, wenn er falsch liegt.

Ein kluger Kopf ist kein Schutz vor Fehlern. Im Gegenteil. Hochintelligente Experten sind oft besonders gut darin, komplizierte und logisch klingende Begründungen für ihre eigentlich emotionalen Fehlentscheidungen zu finden.

Die große Studie: Experten schneiden schlechter ab als der Zufall

Ein berühmtes Beispiel für dieses Versagen ist eine Langzeitstudie des Forschers Philip Tetlock von der Universität Pennsylvania. Er lud mehr als 280 Experten ein – Politikwissenschaftler, Ökonomen, Strategen aus führenden Universitäten und internationalen Organisationen. Die Hälfte von ihnen hatte einen Doktortitel. Diese Experten machten über viele Jahre hinweg insgesamt mehr als 28.000 Vorhersagen: zu Wahlen, Kriegen, Wirtschaftskrisen, Börsenkursen, Ölpreisen.

Das Ergebnis war niederschmetternd: Im Durchschnitt waren die Profis genauso treffsicher wie ein Schimpanse, der mit Pfeilen auf eine Dartscheibe wirft.

Ihre Vorhersagen unterschieden sich statistisch kaum von reinen Zufallsergebnissen.

Aber Tetlock fand auch etwas Interessantes: Es gab Experten, die deutlich besser abschnitten als andere. Was zeichnete sie aus? Nicht ein höherer IQ. Nicht mehr Erfahrung. Was bessere Prognostiker von schlechteren unterschied, war die Art ihres Denkens: Die Guten dachten flexibel, nutzten viele verschiedene Quellen, hinterfragten ihre eigenen Annahmen. Die Schlechten hatten eine große Theorie – und pressten die Wirklichkeit hinein, ob sie passte oder nicht.

Tetlock nannte das den Unterschied zwischen dem „Fuchs“ und dem „Igel“. Der Igel weiß eine große Sache sehr genau. Der Fuchs weiß viele Dinge ein bisschen. In der Vorhersage gewann fast immer der Fuchs.

Und noch etwas fand Tetlock: Das System schützt die Experten vor den Folgen ihrer Fehler. Tag für Tag überschwemmen Medien die Öffentlichkeit mit Vorhersagen – aber kaum jemand fragt später nach, ob sie gestimmt haben. Experten werden selten zur Rechenschaft gezogen. Das schafft eine gefährliche Umgebung: Wer nie lernen muss, dass er falsch lag, hat keinen Anlass, besser zu werden.

Wenn Experten-Irrtümer tödlich enden

Dass Experten irren, ist kein harmloses akademisches Problem. Es hat verheerende Folgen für uns alle. Ich möchte euch einige der bestbelegten Fälle zeigen.

Ein Brief mit 101 Wörtern löste eine Epidemie aus

1980 veröffentlichten zwei Forscher im renommiertesten Medizinjournal der Welt einen Brief. 101 Wörter lang. Darin stand sinngemäß: Bei Krankenhauspatienten entwickle sich durch starke Schmerzmittel selten eine Sucht.

Dieser Brief wurde über 600 Mal von anderen Wissenschaftlern zitiert. In mehr als 70 Prozent der Fälle als Beleg dafür, dass starke Schmerzmittel generell kaum süchtig machen. Was die meisten dabei verschwiegen: Die ursprünglichen Daten stammten ausschließlich von Patienten, die im Krankenhaus unter strenger Aufsicht lagen. Auf den normalen Alltag ließ sich das gar nicht übertragen.

Der Pharmariese Purdue nutzte diese dünne Grundlage, um sein Schmerzmittel OxyContin ab 1996 massiv zu vermarkten. Ihre Vertreter sagten Ärzten, das Suchtrisiko liege bei weniger als einem Prozent. Parallel dazu zahlte das Unternehmen Ärzteverbände dafür, dass sie Schmerzbehandlung zur medizinischen Pflicht erklärten.

Das Ergebnis: Die Verschreibungen solcher starken Schmerzmittel verdreifachten sich innerhalb von zwanzig Jahren. Und die Toten: Seit 1999 sind in den USA rund 806.000 Menschen an einer Überdosis gestorben. Einer der größten medizinischen Skandale der Geschichte – begonnen mit einem 101-Wörter-Brief, weitergetragen von Experten, die nicht hinterfragten.

Der Nobelpreis für eine Verstümmelung

1949 bekam António Egas Moniz den Nobelpreis für Medizin. Für eine Methode, bei der man mit einem dünnen Instrument durch die Augenhöhle ins Gehirn stach und dort Verbindungen durchtrennte. Eine Lobotomie.

Er hatte die Methode an zwei Schimpansen erprobt. Kontrollierte Studien gab es nicht. Nachuntersuchungen gab es nicht. Aber er beschrieb den Eingriff als „einfache Operation, stets sicher“.

Sein amerikanischer Kollege Walter Freeman reiste durch die Lande und führte die Methode in Massenbetrieb über. Persönlich führte er mehr als 3.000 solcher Eingriffe durch. Allein in den USA wurden über 50.000 Lobotomien vorgenommen – bei Menschen mit Depressionen, Angstzuständen, sogar bei verhaltensauffälligen Kindern.

Mindestens 490 Menschen starben direkt durch den Eingriff. Viele weitere verloren ihre Persönlichkeit dauerhaft. Das bekannteste Opfer war Rosemary Kennedy, Schwester des späteren US-Präsidenten: Sie wurde mit 23 Jahren lobotomiert und blieb danach bis zu ihrem Tod geistig auf dem Stand eines Kleinkindes.

Später bezeichnete ein anderer Nobelpreisträger die Auszeichnung für Moniz als „schrecklichen Fehler, der Tausenden Patienten dauerhaften Schaden zugefügt hat“. Die Sowjetunion verbannte die Methode schon 1950 als „unmenschlich“. Im Westen machte man noch jahrelang weiter.

Vioxx: 38.000 Tote, die nicht sein mussten

Als Merck das Schmerzmittel Vioxx 1999 auf den Markt brachte, versicherte der Konzern Ärzten und Patienten, es sei sicher für das Herz. Interne E-Mails zeigen aber, dass Merck-Wissenschaftler das erhöhte Herzinfarktrisiko schon seit 1996 kannten und intern „ernsthaft diskutierten“.

Eine große Studie im Jahr 2000 belegte ein fünffach erhöhtes Herzinfarktrisiko. Mercks Reaktion: keine Rücknahme, sondern eine Pressemitteilung, die die Sicherheit des Mittels beteuerte. Für Ärzte gab es sogar eine schöne Karte, die die Risiken systematisch kleinrechnete. In 16 von 20 veröffentlichten Studien zu Vioxx stand ursprünglich ein Merck-Mitarbeiter als Erstautor – die finalen Publikationen trugen dann aber die Namen externer Wissenschaftler. Ghostwriting auf höchstem Niveau.

Unzählige Ärzte, die Experten auf medizinischem Gebiet, verschrieben das Medikament bedenkenlos. Die Folge: Schätzungsweise 38.000 bis 140.000 Herzinfarkte in den USA, davon rund 38.000 mit tödlichem Ausgang. Über 80 Millionen Menschen weltweit hatten das Mittel genommen, bevor es 2004 vom Markt genommen wurde.

Boeing 737 MAX: 346 Tote durch ein System, das niemand kannte

Boeing entwickelte ein neues Steuerungssystem für sein Flugzeug 737 MAX – und verbarg dessen Existenz dann systematisch. Ein internes Memo von 2013 warnte klipp und klar: Wenn man betone, dass das System neu sei, könnte das aufwändige Schulungen und Zertifizierungen nach sich ziehen.

Also ließ man es weg. Aus dem Pilotenhandbuch. Piloten flogen Maschinen, die ein System hatten, von dem sie nichts wussten. Ein Boeing-Testpilot hatte schon 2012 festgestellt, dass er mehr als zehn Sekunden brauchte, um auf eine fehlerhafte Aktivierung dieses Systems zu reagieren – und das als „möglicherweise katastrophal“ eingestuft. Boeing legte der Sicherheitsberechnung dennoch eine Reaktionszeit von vier Sekunden zugrunde.

Am 29. Oktober 2018 stürzte Lion Air Flug 610 ab: 189 Tote. Die zuständige Behörde errechnete, dass ohne Korrektur bis zu 15 weitere tödliche Abstürze drohen könnten – und erließ trotzdem kein Flugverbot. Am 10. März 2019 stürzte Ethiopian Airlines Flug 302 ab: 157 weitere Tote. 346 Menschen insgesamt.

Der Kongress stellte später fest, dass die Behörde de facto die Sicherheitsprüfung an den Hersteller selbst delegiert hatte – das Unternehmen zertifizierte also seine eigenen Flugzeuge.

Der Excel-Fehler, der ganze Länder ruinierte

Zwei der weltberühmtesten Wirtschaftsprofessoren, beide von der Harvard-Universität, veröffentlichten 2010 eine Studie, die schnell zum Lieblingsargument für Politiker weltweit wurde. Ihre These: Wenn die Schulden eines Landes 90 Prozent seiner Wirtschaftsleistung übersteigen, schrumpft das Wachstum massiv. Politiker in den USA, Großbritannien und der EU nutzten diese Studie als Rechtfertigung für harte Sparmaßnahmen.

Jahre später – die Sparprogramme waren längst umgesetzt – entdeckte ein Doktorand an einer anderen Universität einen simplen Fehler in der Excel-Tabelle der Professoren. Eine Formel hatte fünf Länder schlicht vergessen. Nach der Korrektur drehte sich das Ergebnis um: Statt Schrumpfung zeigte sich Wachstum. Die gesamte Kernaussage stimmte nicht mehr.

Doch da war Griechenland bereits in die Knie gezwungen worden. Das griechische Bruttoinlandsprodukt fiel zwischen 2008 und 2014 um 26 Prozent. Die Arbeitslosigkeit erreichte knapp 28 Prozent. Bei jungen Menschen sogar über 60 Prozent. Der Internationale Währungsfonds räumte später ein, das Sparprogramm sei gescheitert – die Wirtschaft schrumpfte dreimal so stark wie berechnet.

Zwei Professoren, ein Excel-Fehler, Millionen Menschen in Not.

Die Geschichte der großen politischen Irrtümer

Experten versagen nicht nur in Medizin und Wirtschaft. Gerade in der Politik sind die Folgen oft noch verheerender.

„Todsichere Sache“: Der Irak-Krieg und seine 200.000 Toten

Am 5. Februar 2003 stand US-Außenminister Colin Powell vor dem Sicherheitsrat der Vereinten Nationen und erklärte: „Jede Aussage, die ich heute mache, ist durch solide Quellen belegt. Dies sind keine Behauptungen. Es sind Fakten.“ Er präsentierte vermeintliche Beweise für Massenvernichtungswaffen im Irak. Der Chef des amerikanischen Geheimdienstes CIA hatte die Beweislage zuvor als „todsichere Sache“ bezeichnet. Das entscheidende Geheimdienstdossier war in 19 Tagen erstellt worden.

Fast alle Behauptungen erwiesen sich später als falsch. Die Hauptquelle hatte seine Aussagen frei erfunden. Die eigene Analyseabteilung des Außenministeriums hatte viele der Behauptungen intern bereits als „schwach“, „nicht glaubwürdig“ oder „höchst fragwürdig“ eingestuft – aber diese Einwände wurden übergangen.

Powell selbst nannte die Rede später „einen Schandfleck“ in seiner Karriere.

Die Folgen: Über 4.000 tote US-Soldaten, mehr als 32.000 Verwundete. Schätzungsweise 200.000 bis 655.000 tote Iraker, je nach Zählweise. Zwei bis drei Billionen Dollar Kosten für die USA – obwohl 50 bis 60 Milliarden prognostiziert worden waren. Der Aufstieg des Islamischen Staats. Eine Flüchtlingskrise, die bis heute anhält.

Vietnam: Der Experte, der es wusste – und trotzdem schwieg

Robert McNamara war der Verteidigungsminister unter zwei US-Präsidenten und galt als Inbegriff des datengetriebenen Experten: Harvard-Professor, ehemaliger Konzernchef, ein Mann mit einem Faible für Zahlen und Kennziffern. Im Jahr 1962 erklärte er nach seinem ersten Vietnam-Besuch: „Jede Messung zeigt, dass wir den Krieg gewinnen.“

Sein Ansatz: Feindverluste zählen, Statistiken auswerten, mathematisch optimieren. Was er dabei übersah: Den Menschen. Die Geschichte. Die Kultur. Die Frage, warum die Vietnamesen kämpften.

Schon 1966 wusste McNamara innerlich, dass der Krieg nicht zu gewinnen war. 1967 schickte er ein geheimes Memo an Präsident Johnson und empfahl den Rückzug. Johnson antwortete nicht. McNamara blieb im Amt – und unterstützte den Krieg öffentlich noch mehr als zwei Jahre lang, während er innerlich längst anderer Meinung war.

Als er 1968 das Amt verließ, waren fast 16.000 Amerikaner gefallen. Am Ende des Krieges waren es über 58.000. Insgesamt starben schätzungsweise drei Millionen Vietnamesen.

Erst 1995, in seinen Memoiren, schrieb McNamara: „Wir lagen falsch, schrecklich falsch.“

Chamberlain und Hitler: Der tödliche Irrtum eines guten Menschen

Am 30. September 1938 kehrte der britische Premierminister Neville Chamberlain aus München zurück und verkündete: „Ich glaube, es ist Frieden für unsere Zeit.“ Er hatte die Abtretung des Sudetenlandes an Hitler-Deutschland vereinbart – im Vertrauen darauf, dass Hitler keine weiteren Gebietsansprüche stellen würde.

Sechs Monate später besetzte Hitler die Rest-Tschechei. Neun Monate später begann der Zweite Weltkrieg.

Ein Historiker beschrieb Chamberlains Denkfehler später treffend: Er hatte in seinem ganzen Leben noch nie jemanden getroffen, der auch nur annähernd so dachte wie Hitler. Also ging er davon aus, dass Hitler so verhandeln würde wie er selbst – nach den Regeln des fairen Kompromisses. Er projizierte seine eigene Rationalität auf einen Diktator, für den Verträge bloße Taktik waren.

Das nennt man „Spiegelbildprojektion“: Wir nehmen an, der andere denkt und handelt wie wir. Ein Denkfehler, den auch hochintelligente Menschen immer wieder begehen.

Die Finanzexperten und das große Geld

Der Professor, der sein Haus an der Börse verzockte

Irving Fisher war Anfang des 20. Jahrhunderts der bekannteste Ökonom Amerikas. Yale-Professor, Präsident der Volkswirtschaftlichen Vereinigung, von späteren Nobelpreisträgern als Genie gefeiert. Am 15. Oktober 1929 erklärte er öffentlich: „Die Aktienkurse haben ein dauerhaft hohes Plateau erreicht. Ich erwarte, dass der Aktienmarkt in wenigen Monaten noch viel höher stehen wird.“

Zwei Wochen später begann der große Börsencrash. Der Dow Jones verlor in den folgenden Jahren 89 Prozent seines Wertes. Es dauerte 25 Jahre, bis er sich wieder erholte.

Fisher persönlich verlor über zehn Millionen Dollar – weil er selbst massiv auf Pump in Aktien investiert hatte. Er musste sein Haus an die Universität verkaufen. Sein Ruf war zerstört.

Warum lag er so falsch? Er hatte eigene Aktien. Er hatte eigene Theorien. Er glaubte, die Wirklichkeit passe sich seiner Berechnung an – nicht umgekehrt.

Die Nobelpreisträger, die das Finanzsystem fast zum Einsturz brachten

Im Dezember 1997 bekamen zwei Wirtschaftswissenschaftler den Nobelpreis für ihre Formel zur Berechnung von Finanzrisiken. Neun Monate später kollabierte der Hedgefonds, den sie mitgegründet hatten.

Der Fonds hatte damit geprahlt, seine Verlustrisiken auf den Cent genau berechnen zu können. Das maximale Tagesverlustpotenzial: 35 Millionen Dollar. Die tatsächlichen Verluste nach der russischen Staatspleite 1998: zeitweise 500 Millionen Dollar an einem einzigen Tag. Insgesamt über 4,6 Milliarden Dollar Verlust.

Das Finanzsystem stand kurz vor dem Zusammenbruch. Die US-Notenbank organisierte notfallmäßig ein Rettungspaket von über 3,6 Milliarden Dollar durch 14 Großbanken.

Was war das Problem? Die Modelle der Nobelpreisträger gingen davon aus, dass Finanzmärkte sich immer ähnlich verhalten wie in der Vergangenheit. In einer echten Krise halten sich Märkte aber nicht mehr an ihre eigenen Muster.

Und dann kam 2008: Alan Greenspan, 18 Jahre lang als „Maestro“ gefeierter Chef der amerikanischen Notenbank, gestand vor dem Kongress ein: „Ich habe einen Fehler in dem Modell gefunden, das ich als grundlegend für das Funktionieren der Welt ansah.“ Auf die Frage, ob seine Überzeugungen nicht funktioniert hätten, antwortete er schlicht: „Genau.“

Milliarden Menschen verloren durch die Finanzkrise 2008 ihr Erspartes, ihren Job, ihr Haus. Die US-Wirtschaft verlor allein an Haushaltsvermögen elf Billionen Dollar.

Technik: Wenn Warnungen ignoriert werden

Die Challenger-Katastrophe

Am Abend des 27. Januar 1986 rieten die Ingenieure des Zulieferers eindringlich davon ab, die Raumfähre Challenger bei den herrschenden Temperaturen zu starten. Sie warnten vor dem Versagen wichtiger Dichtungsringe in der Kälte.

Der NASA-Manager reagierte gereizt: „Wann wollt ihr starten – nächsten April?“ Ein Vorgesetzter wies seinen Ingenieur an, er solle „seinen Ingenieurshut absetzen und seinen Managerhut aufsetzen“. Der Ingenieur änderte daraufhin seine Empfehlung. Die Freigabe wurde unterschrieben.

73 Sekunden nach dem Start zerbrach die Challenger. Sieben Astronauten starben.

Später stellte sich heraus: Die arbeitenden Ingenieure hatten das Katastrophenrisiko auf etwa 1 zu 100 geschätzt. Das NASA-Management gab eine Wahrscheinlichkeit von 1 zu 100.000 an. Drei Zehnerpotenzen Unterschied zwischen denen, die das System täglich in den Händen hielten, und denen, die darüber entschieden.

Die Physikerin und Kommissionsmitglied hat dafür eine treffende Bezeichnung gefunden: die „Normalisierung der Abweichung“. Bei jedem Flug, bei dem die Dichtungsringe beschädigt waren, aber kein Unglück geschah, wurde der akzeptable Schadensgrad nach oben verschoben. Bis es zu spät war.

Fukushima: Der ignorierte Tsunami

Der japanische Energieriese TEPCO und die zuständige Behörde hatten das Kernkraftwerk Fukushima Daiichi gegen Tsunamis von maximal 5,7 Metern gesichert. Am 11. März 2011 traf eine Welle von 14 bis 15 Metern die Anlage.

TEPCOs eigene interne Studie von 2008 hatte bereits ein Tsunami-Risiko von 15,7 Metern berechnet. Das Ergebnis wurde unterdrückt – „aus Sorge, Ängste über die Sicherheit zu erzeugen“. Als unabhängige Experten 2009 auf einen historischen Riesentsunami aus dem Jahr 869 hinwiesen und höhere Schutzmauern forderten, wurde das als „akademisch“ abgetan.

Drei Kernschmelzen. 154.000 Menschen mussten ihre Heimat dauerhaft verlassen. Geschätzte Kosten: 200 Milliarden Dollar. Eine Kommission urteilte später eindeutig: Das war keine Naturkatastrophe. Es war eine von Menschen verursachte Katastrophe, die hätte verhindert werden können. Entstanden aus Hochmut, Groupthink und dem jahrzehntelangen Mythos, japanische Atomkraftwerke seien per se sicher.

Warum das alles immer wieder passiert

Diese Fälle sind keine Zufälle. Wenn man sie nebeneinanderlegt, sieht man dieselben Muster immer wieder.

Interessenkonflikte:

Purdue zahlte Ärzteverbände, die Opioid-Verschreibungen forderten. Merck schrieb selbst die Studien über sein eigenes Mittel, die dann unter fremden Namen erschienen. Die Ratingagenturen, die vor der Finanzkrise 2008 riskanten Bankprodukten Bestnoten gaben, wurden von denselben Banken bezahlt, deren Produkte sie bewerteten. Man beißt nicht die Hand, die einen füttert.

Bestätigungsfehler:

Wir alle suchen bevorzugt nach Informationen, die bestätigen, was wir schon glauben. Bei Experten ist das noch ausgeprägter – weil sie mehr Wissen haben, mit dem sie unbequeme Fakten wegdiskutieren können. Sobald sich ein Experte öffentlich zu einer Position bekannt hat, „erstarrt“ diese Meinung. Sie zu revidieren wäre ein Eingeständnis von Schwäche. Also wird weitergemacht.

Gruppendenken:

Wenn alle in einem Raum dieselbe Überzeugung teilen, trauen sich Zweifler nicht, sie laut auszusprechen. Die Irak-WMD-Analyse war so vom Wunsch geprägt, eine bestimmte Aussage zu bestätigen, dass der CIA-Vize später erklärte: „Es war kein Thema, über das diskutiert wurde.“ Warnende Stimmen wurden systematisch an den Rand gedrängt – bei Boeing, bei TEPCO, bei der NASA.

Fehlende Kontrolle:

In den meisten Berufen werden Experten nie ernsthaft daran gemessen, ob ihre Vorhersagen gestimmt haben. Wer sich trotz wiederholter Fehlprognosen als Talkshow-Gast Woche für Woche bestätigt sieht, hat keinen Anlass zur Selbstkritik. Das System belohnt Auftreten, nicht Genauigkeit.

Der Heiligenschein-Effekt:

Wir nehmen an, dass jemand, der auf einem Gebiet herausragt, automatisch auch in anderen Bereichen Recht hat. Der Yale-Professor, der Nobelpreisträger, der Vorsitzende der Notenbank – ihre bloße Autorität hat Fehlentscheidungen länger am Leben gehalten und größeren Schaden angerichtet, als es bei weniger angesehenen Menschen der Fall gewesen wäre. Prestige verstärkt den Schaden.

Die Falle der eigenen Theorie

Es gibt noch einen weiteren Mechanismus, den ich besonders wichtig finde. Nobelpreisträger Daniel Kahneman hat ihm einen treffenden Namen gegeben: die „theoriegeleitete Blindheit“.

Das Phänomen beschreibt etwas, das jedem von uns passiert, aber Experten mit besonderer Wucht trifft: Wer jahrelang nach einer bestimmten Theorie gelebt und geforscht hat, wer diese Theorie als sein intellektuelles Lebenswerk betrachtet, der kann Fehler in ihr kaum noch wahrnehmen. Wenn Fakten seiner Theorie widersprechen, ist sein erster Impuls nicht: „Stimmt meine Theorie?“ Sondern: „Stimmt die Messung?“ Oder: „Gibt es einen unbekannten Faktor?“ Oder: „Die Daten sind noch unvollständig.“

Der Physiker Max Planck hat das bitter-zynisch so formuliert: Neue wissenschaftliche Wahrheiten setzen sich oft erst durch, wenn die alte Generation von Wissenschaftlern gestorben ist und junge Forscher nachkommen, die noch nicht emotional an die alten Theorien gebunden sind.

Das klingt hart. Aber es beschreibt ein echtes Problem.

Was das für uns bedeutet

Ich will Experten nicht abschaffen. Das wäre albern. Ich brauche einen Arzt, wenn ich krank bin. Ich will nicht, dass Brücken von Laien gebaut werden. Fachwissen ist wertvoll.

Aber Fachwissen ist kein Freifahrtschein.

Was ich fordere, ist etwas anderes: gesundes Misstrauen. Nicht Ablehnung, sondern kritisches Nachfragen. Und dafür müssen wir ein paar Dinge verstehen:

Erstens:

Ein Titel auf der Visitenkarte sagt nichts über die Qualität eines Urteils aus. Er sagt, dass jemand in einem bestimmten Fach viel gelernt hat. Das ist gut. Aber ob das Urteil in einem konkreten Fall stimmt, hängt von ganz anderen Faktoren ab – Interessenkonflikten, Gruppendenken, emotionaler Bindung an eine Theorie.

Zweitens:

Wir haben heute Zugang zu denselben Quellen wie die Profis. Die verfügbare Technik gibt uns nahezu unbegrenzten Zugriff auf Wissen. Wer sich einliest, kann die Qualität von Argumenten beurteilen. Man muss das nicht passiv hinnehmen.

Drittens:

„Alle Experten sind sich einig“ ist kein Beweis, sondern ein Warnsignal. Manchmal sind sich alle Experten einig, weil sie in denselben Kreisen verkehren, dieselben Annahmen teilen und dieselben Karriereanreize haben. Einigkeit unter Gleichdenkenden ist keine Objektivität.

Viertens:

Wer Widerspruch nicht zulässt, hat etwas zu verbergen – oder zu verlieren. Ein Experte, der andere Meinungen als „gefährlich“ bezeichnet, ohne sie zu widerlegen, verteidigt keine Wissenschaft. Er verteidigt seine Position.

Fünftens:

Echte intellektuelle Bescheidenheit bedeutet, anzuerkennen, dass auch das eigene Wissen Lücken hat. Das gilt für uns alle – aber erst recht für die Experten in den Talkshows. Wer nie sagt „Ich weiß es nicht“, wer nie seine frühere Meinung korrigiert, hat die Wahrheitssuche längst aufgegeben.

Ein Wort zur aktuellen Politik

In der aktuellen Politik sehen wir das täglich. Experten, die sich in ihren ideologischen Kreisen gegenseitig bestätigen, haben uns in eine Energiepolitik getrieben, die uns von russischem Gas abschnitt und in vollständige Abhängigkeit von den USA trieb – während die USA gleichzeitig verdächtig nahe am Anschlag auf unsere Infrastruktur waren. Diese Experten haben nicht nach Fakten gehandelt. Sie haben nach einem Bauchgefühl gehandelt, das oft von tradierten Vorurteilen geprägt war.

Auch die Rüstungspolitik, die unseren Wohlstand auffrisst, basiert auf solchen Expertisen. Und wer Fragen stellt, wird als „Sicherheitsrisiko“ oder „Putinversteher“ abgestempelt. Das ist kein wissenschaftlicher Diskurs. Das ist die Unterdrückung von Dissens – genau das Muster, das wir bei Challenger, bei Fukushima, beim Irak-Krieg gesehen haben.

Ich sage das, weil es wichtig ist, dass wir als Gesellschaft lernen: Die lauteste Stimme mit dem dicksten Titel hat erschreckend oft unrecht.

Was tun?

Die Fälle, die ich hier beschrieben habe, sind keine Argumente gegen Experten. Sie sind Argumente gegen blinde Expertenautorität.

Wir brauchen Transparenz darüber, wer einen Experten bezahlt. Wir brauchen Schutz für diejenigen, die intern warnen und an den Rand gedrängt werden – wie die Ingenieure bei Boeing und bei der NASA. Wir brauchen die Bereitschaft, unbequeme Fragen zu stellen, auch wenn sie von Laien kommen. Und wir brauchen ein System, in dem Experten für falsche Prognosen auch zur Rechenschaft gezogen werden.

Vor allem aber brauchen wir eins: das Vertrauen in unseren eigenen Verstand. Nicht um Experten zu ersetzen. Sondern um sie zu kontrollieren.

Die gute Nachricht: Es war noch nie so einfach wie heute, sich selbst Wissen anzueignen. Wir haben Zugriff auf dieselben Quellen wie die Profis. Ein kleiner Teil der Lösung liegt darin, dass wir uns wieder trauen, unseren gesunden Menschenverstand zu benutzen und Aussagen qualifiziert zu hinterfragen.

Vertraut nicht dem Titel auf der Visitenkarte.

Vertraut dem Argument. Fragt nach den Quellen. Fragt nach den Interessen. Fragt, wer es bezahlt. Fragt, wer warum widerspricht.

Das ist aufgeklärtes Denken.

Dieser Artikel erschien erstmals am 15.04.2026. Das Artikelbild ist ein Beispielbild von Blue-Heaven auf Pixabay.

Zur Vorbereitung dieses Artikels wurden verschiedene Recherchen durchgeführt, deren Ergebnisse hier zur Verfügung stehen.

Quelle: Progressive Stimme - Argumente, Fakten, Quellen - https://progressivestimme.de