Editorial

Eine Illusion
von Wissen

(11.08.2022) Je größer die Ablehnung des wissenschaftlichen Konsenses, umso größer ist auch das „gefühlte“ Wissen. Und umso geringer das tatsächliche.
editorial_bild

Letztes Jahr im Sommer schrieb Physiker und Wissenschafts­publizist Florian Aigner in seinem Laborjournal-Essay „Dümmer als wir dachten“ über den Dunning-Kruger-Effekt: Versuchspersonen sollten einschätzen, wie gut sie bei einem Wissenstest abgeschnitten haben. Die mit besonders schlechten Ergebnissen im Test bewerteten ihre Leistung jedoch als überdurch­schnittlich gut. „Die Fähigkeiten, die man braucht, um seine eigene Leistung einzuschätzen, sind genau die Fähigkeiten, die man auch braucht, um diese Leistung zu erbringen. Wer etwas nicht gut kann, ist auch nicht gut darin, zu beurteilen, ob er es kann,“ fasst Aigner zusammen. Bezogen auf die Corona-Pandemie fährt er fort: „Die ganze Welt scheint plötzlich voll zu sein von Leuten, die felsenfest davon überzeugt sind, die Wahrheit zu kennen – über Coronaviren, über die Dynamik der Pandemie, über die nötigen Gegen­maßnahmen.“ Aber eigentlich wissen sie gar nichts. Eine grandiose Fehleinschätzung also.

Wie könnte man dieser entgegen­treten? Mit mehr Fakten, mehr Aufklärung? Das ist zumindest die Theorie hinter dem sogenannten „Information deficit model“. Das Modell besagt, es gibt zwei Seiten: auf der einen die Experten mit einem reichen Wissensschatz, auf der anderen Seite stehen die uninformierten Laien mit einem Wissensdefizit. Das Wissen, so die Theorie, muss nur besser fließen von den Experten zu den Laien. Dann kämen die Letzteren schon von ganz allein auf den Trichter. Bisherige Unternehmungen in diese Richtung waren allerdings nicht unbedingt von Erfolg gekrönt, wie man auch während der letzten 2,5 Jahre sehen konnte.

Editorial

„Ich glaube zu wissen“

In einer kürzlich veröffentlichten Studie haben amerikanische Wissen­schaftler sich die „Dreiecks-Beziehung“ von Ablehnung wissenschaft­licher Fakten (opposition to expert consensus on controversial scientific issues), objektivem Wissen (wie viel Leute tatsächlich über ein Thema wissen) und subjektivem Wissen (wie viel Leute glauben zu wissen) genauer angeschaut. Zu den untersuchten „kontroversen wissenschaftlichen Themen“ gehörten unter anderem genetisch veränderte Lebensmittel, Impfungen, Homöopathie und die Urknall-Theorie. Zwei extra Studien behandelten auch die COVID-19-Pandemie.

Für die Nicht-Corona-Themen mussten die Teilnehmer zunächst beantworten, wie gut sie ihr zugewiesenes Themengebiet auf einer Skala von 1 bis 7 glauben zu verstehen (subjektives Wissen). Danach bekamen sie ein Bündel von 34 Ja-oder-Nein-Fragen aus der Wissenschaft vorgesetzt, die sie ebenfalls mit einer sieben­pünktigen Skala (von „definitiv falsch“ bis „definitiv richtig“) beantworten sollten. Es zeigte sich: Je höher die Ablehnung des wissenschaft­lichen Konsenses war, umso weniger Punkte erzielten die Teilnehmer beim objektiven Wissenstest. Der Score beim subjektiven Wissenstest war jedoch hoch. Die größten Faktenleugner glaubten also viel zu wissen, taten das aber nicht.

Wette auf Wissen

Aber würden die Teilnehmer auch auf ihr „gefühltes“ Wissen Geld wetten? Auch das untersuchten die Autoren. Der Einsatz: 50 US-Cent, wenn die Teilnehmer glaubten, Wissenschafts­fragen überdurch­schnittlich gut beantwortet zu haben. 25 US-Cent erhielten sie automatisch, wenn sie keine Wette eingingen. Das Ergebnis: je „wissenschafts­feindlicher“ die Teilnehmer eingestellt waren, umso häufiger wetteten sie auch. Allerdings kam nur selten jemand von ihnen in den Genuss des ausgezahlten Wetteinsatzes, denn kaum einer schnitt im objektiven Wissenstest überdurch­schnittlich gut ab. Wenig überraschend: „more extreme opponents earned less“, so die Autoren.

Auch bei den COVID-19-Studien zeigte sich dasselbe Bild. Wer nur wenig echtes Wissen über COVID-19 hat, dafür aber überzeugt ist zu wissen, wie beispielsweise der Impfstoff funktioniert, der ist auch weniger bereit, sich impfen zu lassen. Oder sich an Maßnahmen zur Bekämpfung der Pandemie zu halten.

Als Fazit fassen die Autoren zusammen: Menschen, die dem wissenschaft­lichen Konsens am ablehnendsten gegen­überstehen, wissen auch am wenigsten über das jeweilige Thema, glauben aber, sie wüssten mehr. Sie überschätzen sich selbst und ihr Wissen, die Autoren sprechen von knowledge overconfidence. Das stellt Politiker, Wissenschafts­kommunikatoren etc vor ein Problem. „Viele Jahre haben schlaue Menschen gedacht, man müsste den Leuten nur das ihnen fehlende Wissen beibringen, damit sie dem wissenschaft­lichen Konsens wieder folgen können“, so Co-Autor Nick Light in einer Presse­mitteilung. „Unsere Forschung legt aber nahe, dass genau diese Selbstüber­schätzung solchen Bildungs­initiativen im Weg steht. Denn wenn die Leute denken, sie wissen schon alles, dann haben sie nur eine geringe Motivation mehr über das jeweilige Thema zu lernen“. Faktenleugner müssten also zuerst begreifen, dass sie eigentlich noch viel zu lernen haben. Man muss ihre Wissens­wahrnehmung ändern, ihnen ihre Unwissenheit vor Augen führen.

In Relation setzen

Das ginge zum Beispiel, so die Autoren, indem man sie dazu ermuntert, die Mechanismen hinter dem jeweiligen wissen­schaftlichen Phänomen zu erklären. Da kämen wohl schon einige ins Schlingern. Oder man gibt ihnen Referenzpunkte. „Leute realisieren vielleicht, dass sie tatsächlich weniger über Impfungen wissen als sie glauben, wenn man ihnen gleichzeitig etwas über Mechanismen erzählt, mit denen sie sich aus Hobby oder Beruf auskennen“. Eine weitere Möglichkeit: Man setzt auf „Influencer“, oder wie es im Paper heißt „Agents of Change“, die zum Umdenken animieren.

Die Autoren schließen mit den Worten: „Wenn die Ablehnung des wissen­schaftlichen Konsenses auf einer Illusion des eigenen Wissens beruht und wenn diese Ablehnung zu Handlungen führt, die gefährlich sind für diejenigen, die diese Illusion nicht teilen, dann liegt es an der Gesellschaft zu versuchen, diese Ansichten zugunsten des wissen­schaftlichen Konsenses zu verändern.“ Leichter gesagt als getan.

Kathleen Gransalke

Light N. et al. (2022): Knowledge overconfidence is associated with anti-consensus views on controversial scientific issues. Science Advances, 8(29):eabo0038

Bild: Pixabay/Alexas_Fotos


Weitere Artikel zum Thema „Wissen“


- Gefühltes Wissen – eine Gefahr für die Demokratie (Essay von Ludger Weß)

Fast über Nacht verwandelten sich im letzten Jahr tausende Menschen in Experten für Toxikologie, Epidemiologie und Co. Sie alle glaubten zu wissen, dass und warum Glyphosat verboten werden muss. Es spielte keine Rolle, für was sie das Herbizid fälschlicherweise hielten – was zählte, waren die Gefühle. Der Populismus vergiftet das politische Klima und die Gesellschaft. Was sind die Konsequenzen?

- Die Unfähigkeit, sich zu freuen (Essay von Ernst Peter Fischer)

Nicht nur während der Corona-Pandemie zeigt sich: Wir freuen uns nicht über neues Wissen, sondern fürchten lieber dessen Risiken.

- Dark Knowledge ans Licht holen (Essay von Jonathan Jeschke, Berlin; Isabelle Bartram, Freiburg; Tina Heger, Potsdam; Sophie Lokatis, Berlin; und Klement Tockner, Wien)

Viele meinen, wir leben in einer Wissens­gesellschaft. Tatsächlich aber entstehen aus den vielen Daten und Informationen, die wir erheben, zu selten echtes Wissen und Verständnis. Ein Grund dafür ist unsere Orientierungs­losigkeit in fast allen Disziplinen außer unserer eigenen.

 



Letzte Änderungen: 11.08.2022