Editorial

Warum wissenschaftlicher Wumms weltweit weniger wird

Ulrich Dirnagl


Ulrich Dirnagl alias Der Wissenschaftsnarr

(09.03.2023) Laut „Web of Science“ erscheinen pro Jahr rund sieben Millionen wissenschaftliche Artikel in 34.000 gelisteten Journalen. Seit Jahrzehnten steigen diese Zahlen exponentiell. Doch trotz dieses Outputs nimmt die effektive Produktion wirklich neuartigen Wissens gleichzeitig ab. Warum erfahren wir offenbar immer mehr über immer weniger?

„Paper und Patente werden immer weniger disruptiv” – so alliterierte der Titel einer Studie von Michael Park und Kollegen von der University of Minnesota, die kürzlich in Nature erschien (doi.org/grkxs9; weitere Referenzen wie immer unter http://dirnagl.com/lj). Sie untersuchten darin, wie sich Netzwerke von Zitationen in Wissenschaft und Technologie über die letzten sechzig Jahre hinweg verändert haben – und nahmen dazu 45 Millionen Artikel und 3,9 Millionen Patente als Datengrundlage. Kern ihres quantitativen Ansatzes war der folgende einfache Gedanke: Wenn eine Arbeit oder ein Patent etwas wirklich Neues zutage fördert, werden nachfolgende Arbeiten, die sich darauf via Zitierung beziehen, weniger wahrscheinlich auch deren Vorgänger zitieren. Schließlich sind die Ideen, die zuvor zur Produktion der zitierten Arbeit oder des zitierten Patents geführt haben, für zukünftige Wissenschaftler weniger relevant. Wenn eine Arbeit oder ein Patent dagegen eher konfirmatorisch war, steigt die Wahrscheinlichkeit, dass nachfolgende Arbeiten, die sich darauf berufen, auch ihre Vorgänger zitieren. In dem Fall ist für künftige Forschergenerationen das Wissen, auf dem die Arbeit aufbaut, immer noch – oder sogar umso stärker – relevant.

Tageszeitungen rund um den Globus berichteten daraufhin aufgeregt über das beunruhigende Fazit der Studie, dass die Innovationskraft der Wissenschaft demnach ganz offensichtlich schwächelt. Das Paper wurde allerdings gleichsam auch zum Beleg für die eigene Botschaft: Dass wissenschaftliche Innovationen, Paradigmenwechsel, Revolutionen, Durchbrüche – wie immer man so etwas auch nennen mag – seit Jahrzehnten kontinuierlich weniger werden, hatten nämlich zuvor bereits viele Studien mit sehr unterschiedlichen Methoden und Ansätzen gezeigt. Die Botschaft, dass wissenschaftliche Durchbrüche immer seltener werden, ist also selbst alles andere als disruptiv, sie ist vielmehr konfirmatorisch – oder wie die Autoren der Studie das formulieren würden: „konsolidierend”.

Disruptiv oder konsolidierend – bemerkenswert ist das Phänomen aber allemal. Forschen doch heutzutage so viele Forscherinnen und Forscher wie niemals zuvor: Neunzig Prozent aller jemals tätigen Wissenschaftlerinnen und Wissenschaftler sind heute noch am Leben. Weltweit sind das etwa acht Millionen an der Zahl, die aktuell pro Jahr rund sieben Millionen wissenschaftliche Artikel in 34.000 im Web of Science gelisteten Journalen veröffentlichen. All diese Zahlen steigen seit Jahrzehnten exponentiell. Trotzdem nimmt das von uns produzierte wirklich neuartige Wissen gleichzeitig ab – daran kann kein Zweifel bestehen.

Wie aber kann es sein, dass trotz dieses gigantischen Outputs immer weniger Weltbewegendes hinten rauskommt? Wissen wir vielleicht schon (fast) alles? Waren die früheren Wissenschaftlergenerationen einfach genialer? Ist das, was die Welt im Innersten zusammenhält, mittlerweile einfach zu komplex für uns? Gibt es schon zu viel Wissen, und wir kommen nicht mehr hinterher? Oder nimmt gar die Qualität und Originalität der Forschung kontinuierlich ab?

Bevor wir uns auf die Suche nach Antworten begeben, ein kurzer Exkurs in die in diesem Diskurs verwendeten Begrifflichkeiten: Disruption, Revolution und Innovation in der Wissenschaft:

Der oben zitierte Artikel beklagt das Abnehmen von Disruption, bei gleichzeitiger Zunahme der Konsolidierung des Wissens. Disruption (vom Lateinischen disrumpere: zerbrechen, zerreißen) ist allerdings vielmehr ein Begriff aus der Mottenkiste der Unternehmensberater, und gehört gar nicht in die Wissenschaft und deren Theorie. Ökonomen lieben disruptive Technologien, die alte Produktionsprozesse oder Produkte „zerbrechen” – und damit überflüssig machen. Mit diesen kann man sich dann trefflich gegen die Konkurrenz durchsetzen, die noch auf die alte Technologie setzt. Wissenschaft dagegen ist nicht disruptiv. Einstein hat Newton nicht „gebrochen”, seine „Gesetze” gelten immer noch. Und auch Heisenberg, Schrödinger und Dirac haben Einstein nicht „zerrissen”, die allgemeine Relativitätstheorie ermöglicht Ihrem Handy immer noch die Ortsbestimmung mittels GPS. Sie haben alle aufeinander aufgebaut. Man steht auf den Schultern der anderen, die dabei immer noch eine solide Standfläche bieten.

Wissenschaft schreitet vielmehr in Paradigmen fort. Diese müssen, wie von Thomas S. Kuhn 1962 in seinem Klassiker „Die Struktur wissenschaftlicher Revolutionen“ beschrieben, von Zeit zu Zeit gewechselt werden. Solche „revolutionären“ Änderungen in den grundlegenden Konzepten und experimentellen Praktiken von wissenschaftlichen Disziplinen werden aber offensichtlich immer seltener. Denn es kommt nur dann zum Wechsel, wenn das vorherrschende Paradigma, unter dem die „normale“ Wissenschaft arbeitet, mit neuen Phänomenen unvereinbar wird. Dann wird die Annahme einer neuen Theorie oder eines neuen Paradigmas erleichtert, ja nachgerade notwendig gemacht. Und dann führt ein Paradigmenwechsel unter Anwendung neuer Ideen und Techniken häufig zu geplanter und kontrollierter Veränderung im System, also zur Innovation. Muss er aber nicht zwingend.

In dem Zusammenhang ist die „normale“ Wissenschaft übrigens das, was die meisten von uns tagsüber – und manchmal auch nachts und am Wochenende – betreiben: ordentliche Wissenschaft innerhalb des vorherrschenden Rahmens oder Paradigmas. Ich hoffe, Sie nehmen mir das nicht übel, aber wir sind eben keine Einsteins – zumindest die meisten von uns.

Eine naheliegende Erklärung für den immer größeren Aufwand, der trotzdem immer weniger neue Paradigmen – und in der Folge Innovationen – hervorbringt, könnte darin begründet liegen, dass wir die „einfach” rauszufindenden Prinzipien schlichtweg schon wissen. Um es bäuerlich auszudrücken: Die niedrig hängenden Früchte wurden schon gepflückt. Jetzt müssen wir uns mehr und mehr strecken, um an die in der Krone verbliebenen Früchte heranzukommen.

Zur Illustration des Gedankens ein paar Beispiele aus meinem Gebiet, den Neurowissenschaften. Epilepsien sind heutzutage sehr gut therapierbar, wobei fast alle Medikamente auf dem gleichen Prinzip aufbauen – nämlich darauf, die Übererregung von Nervenzellen zu dämpfen. Mehr als drei Viertel aller Patienten mit Epilepsie können damit anfallsfrei gemacht werden. Bei den verbleibenden Patienten ist das leider nicht der Fall – hier sind oft selbst komplexeste und nebenwirkungsreiche Medikamentenkombinationen wenig effektiv. Ähnliches gilt für viele andere Erkrankungen: Multiple Sklerose, Morbus Parkinson et cetera.

Für einen Großteil der hieran Erkrankten hat das pathophysiologische Verständnis (ein „Paradigma”) zur Entwicklung von effektiven Therapien („Innovationen”) geführt. Das waren die niedrig hängenden Früchte. Die Pathophysiologie war offenbar noch recht übersichtlich: Übererregung, autoimmunologische Reaktion auf Proteine des Nervensystems, Untergang einer ganz bestimmten Neuronen-Population und damit Ausfall eines spezifischen Neurotransmitters et cetera. Zur Behandlung der therapieresistenten Patienten fehlen uns nun neue Paradigmen – und vielleicht wäre ein Paradigmenwechsel ja sogar auch im Verständnis der schon im Lehrbuch gedruckten Krankheitsmechanismen fällig. Aber das hängt eben weit oben im Baum, genauso wie bei Krebs, Alzheimer und – um ein Beispiel aus der Physik zu bringen – der dunklen Materie.

Mit dem Obstbauern-Argument verbunden ist zudem die Vorstellung, dass ein zunehmendes Problem für die Wissenschaft unserer Zeit die „Last des Wissens” sein könnte. Wir wissen in allen Feldern schon so viel, dass es insbesondere für den einzelnen Forscher immer schwieriger wird, dies alles zu überblicken und Verknüpfungen – idealerweise sogar mit anderen Wissensgebieten – herzustellen. Die Ära der „Renaissance-Forscher” ist definitiv zu Ende; vielmehr fokussieren wir uns als Wissenschaftler auf immer winzigere Segmente des Wissens, wodurch das Gesichtsfeld für größere Zusammenhänge immer mehr schrumpft.

Überdies muss hier auch das sogenannte „Diversity Innovation Paradox” genannt werden. Eine Reihe von Studien zeigte nämlich, dass unterrepräsentierte Gruppen anteilig eine höhere Rate an wissenschaftlichen Neuerungen generieren als der Mainstream. Allerdings werden deren neue Beiträge von anderen Wissenschaftlern in geringerem Maße aufgegriffen. All dies sind Argumente für Team Science sowie für Inter- und Transdisziplinarität, aber auch für „Equity, Diversity, Inclusion” (EDI) – Ziele, die zwar häufig beschworen, aber umso seltener umgesetzt werden.

Ein weiterer gewichtiger Grund für die Stagnation wissenschaftlicher Innovationen könnte zudem sein, dass das viele Geld, das in die Wissenschaft fließt, nicht optimal verteilt wird. Deutschland steckte 2020 laut Weltbank immerhin 3,4 Prozent seines Bruttoinlandprodukts in Forschung und Entwicklung, das ist eine ganze Menge Asche. Ein substantieller Teil dieses Geldes, von der Sachbeihilfe bis zum Exzellenzcluster, wird mittels Peer Review verteilt – wir begutachten uns also gegenseitig. Das wesentliche Kriterium ist dabei der bisherige „Erfolg” – in der Regel gemessen an der Reputation der Journale, in denen wir veröffentlichten. Solch ein System ist notwendigerweise risikoavers, statisch und homophil. In ihm regiert das Matthäus-Prinzip, nach dem bevorzugt auf große Haufen gesch... wird. Was dabei herauskommt, ist dann gehobener Mainstream – aber eher selten Paradigmenwechsel.

Nun sagt das beileibe nicht nur der Narr, den reichen Nationen dämmert das schon seit geraumer Zeit. Sie setzen gigantische Programme auf, bei denen sehr viel Geld über ganz andere Mechanismen verteilt wird. In den USA ist das beispielsweise ARPA-H (Fokus auf Gesundheitsforschung, 10 Milliarden US-Dollar), in England ARIA (Advanced Research and Invention Agency, 800 Millionen Pfund) und in Deutschland die Agentur für Sprunginnovationen (SPRIN-D, 1 Milliarde Euro). Aber auch Losverfahren bei der Förderentscheidung, wie sie in Deutschland von der Volkswagenstiftung eingeführt wurden und mittlerweile von einer Vielzahl von Fördergebern eingesetzt werden, könnten neuen Ideen besser auf die Sprünge helfen. Sogar der Nationalfonds in der sonst so konservativen Schweiz ist inzwischen mit von der Partie.

Doch zurück zum Peer-Review-Verfahren. Wenn dadurch dann noch ein substantieller Teil des verteilten Geldes in Forschung von zweifelhafter Qualität versenkt wird und deshalb nicht reproduzierbar ist, könnte das zusätzlich die Chancen vermindern, dass was wirklich Innovatives herauskommt. Der Narr hat an dieser und anderer Stelle schon häufiger die hierbei zum Einsatz kommenden fragwürdigen Praktiken gebrandmarkt. Dazu gehören zum Beispiel die nicht offengelegte Flexibilität bei der Datenerhebung und -analyse, das Aufstellen von Hypothesen nach dem Bekanntwerden von Ergebnissen (HARKING), das Erzeugen vermeintlicher statistischer Signifikanz der Ergebnisse (p-Hacking), das Fehlen von Verblindung und Randomisierung oder die Nicht-Veröffentlichung von relevanten, aber nicht ins Konzept passenden – vornehmlich negativen – Studien. Damit will ich Sie aber heute verschonen.

Übrigens findet das Nature-Paper von Park et al. keine Evidenz dafür, dass die schon gepflückten, also niedrig hängenden Früchte für die Misere mitverantwortlich sind – denn „Disruption” nahm in ihrer Analyse über die Zeit in allen untersuchten Gebieten etwa gleichförmig ab. Genauso scheint ihnen abnehmende Forschungsqualität kein relevanter Faktor, denn sie fanden schwindende Disruption in gleichem Maße in den Top-Journalen wie im Rest des Blätterwaldes. Ich halte diese Argumente für geradezu grotesk. Natürlich werden in allen Forschungsfeldern gleichermaßen jene Äpfel zuerst gepflückt, die am einfachsten erreichbar sind. Und dass Nature, Cell und Science Forschung besserer Qualität abdrucken als andere „Scholarly Journals”, müsste erst noch bewiesen werden. Die Beweislage spricht hier eher für das Gegenteil. Ich muss mich wirklich wundern, dass die Reviewer das von Park i geschluckt haben.

Schließen möchte ich dennoch mit dem letzten Paragraphen aus deren Artikel, denn schöner hätte es der Narr auch nicht sagen können:

„Insgesamt vertiefen unsere Ergebnisse das Verständnis für die Entwicklung des Wissens und können als Orientierungshilfe für die Karriereplanung und die Wissenschaftspolitik dienen. Um bahnbrechende Wissenschaft und Technologie zu fördern, sollten Wissenschaftler dazu ermutigt werden, viel zu lesen und sich Zeit zu nehmen, um mit dem schnell wachsenden Wissen Schritt zu halten. Die Universitäten sollten den Schwerpunkt nicht mehr auf Quantität legen, sondern die Qualität der Forschung stärker belohnen und vielleicht einjährige Forschungspausen stärker subventionieren. Bundesbehörden könnten in die risikoreicheren und längerfristigen individuellen Zuwendungen investieren, die Karrieren und nicht nur spezifische Projekte unterstützen – um Wissenschaftlern die Zeit zu schenken, die sie brauchen, um aus der Masse herauszutreten, sich gegen die ‚Publish-or-Perish‘-Kultur zu immunisieren und wirklich folgenreiche Arbeit zu leisten. Ein umfassenderes Verständnis des Rückgangs der disruptiven Wissenschaft und Technologie ermöglicht ein dringend erforderliches Überdenken der Strategien zur Organisation der Produktion von Wissenschaft und Technologie in der Zukunft.“


Weiterführende Literatur und Links finden sich wie immer unter: http://dirnagl.com/lj