Info

Wie konnte es eigentlich so weit kommen?

(08.12.2020) Wieso hängen heutzutage wissen­schaftliche Karrieren ganz wesentlich vom Journal Impact Factor und der Ein­wer­bung möglichst vieler Drittmittel ab?
editorial_bild

Info

Info

Ist Ihr Labor fit für die Zukunft? Prof. Angerer erklärt die Voraussetzungen und Potentiale in 15 Minuten. mehr

Drehen wir das Ganze um: Warum geraten Inhalte, Origi­nalität und Verläss­lichkeit von Forschungs­ergebnissen oft zur Nebensache, wenn sich Kommis­sionen die Köpfe darüber heiß reden, wen man in die eigenen Reihen aufnehmen will – und wen nicht. Oder wenn darüber debattiert wird, welche Anträge es verdienen, gefördert zu werden. Kurzum, folgen Sie mir auf eine kurze und unvoll­ständige Geschichte der Mecha­nismen, mit denen man in Academia heute zu etwas kommt. Vielleicht ergeben sich aus dieser histo­rischen Perspektive ja sogar Hinweise, wie wir dem Schlamassel, in dem wir uns befinden, wieder entkommen können. Doch ich eile voraus. Beginnen wir dort, wo alles begann: bei den Gründungs­vätern der modernen Wissenschaft.

Die frühen Pioniere modernen wissen­schaftlichen Arbeitens wie Galileo, Hooke, Boyle oder Newton waren Gentlemen Scientists. Nicht nur waren diese ausnahms­los Männer, sie waren auch alle finanziell unabhängig – entweder per Geburt oder durch Mäzena­tentum. Getrieben von der Neugier, „wie die Welt funktioniert“, war ihr Ziel natürlich nicht nur, Wissen zu produ­zieren, sondern auch Ruhm und Ehre zu erlangen. Dabei sahen sie den Nutzen des so erworbenen Wissens nicht darin, die Grundlagen für eine rationalere Aneignung der Natur durch den Menschen zu schaffen. Weit gefehlt – diesen allesamt tief religiösen Herren ging es ganz wesentlich darum, das von Gott geschriebene Buch der Natur und damit die Ordnung der Welt zu dechiffrieren – und am Ende dadurch tieferen Glauben und gottes­fürchtigeres Verhalten zu befördern. Wissen­schaft war Gottes­dienst. Daher förderten die Fürsten und Könige damals auch nicht die Wissen­schaftler, sondern die Erfinder und Ingenieure, denn nur sie versprachen Hilfe dabei, sich die Welt durch Eroberung und Krieg Untertan zu machen.

Info

Info

Info

So einfach, flexibel und skalierbar sind die modularen NEBNext UltraII Kits für Ihre Illumina NGS Library Prep mehr

Der Umgang, den Newton und Kollegen mit ihrer Konkurrenz pflegten, war allerdings häufig alles andere als Gentleman-like. Schließlich ging es um Primat und Posterität. Ausgangs­punkt ihrer Ideen und Hypothesen war das, was die Wissen­schafts­historikerin Lorraine Daston Ground Zero Empiricism nannte. Sie schrieben also auf ein fast leeres Blatt.

Die Forscher-Community war sehr über­sichtlich damals. Vielleicht ein paar Hundert, maximal ein paar Tausend Gleich­gesinnter weltweit, lose organisiert in Akademien, in denen man sich gegen­seitig Theorien und Experimente vorstellte und kritisierte. Publiziert wurde neben Büchern haupt­sächlich in den Annalen der nationalen wissen­schaftlichen Akademien. Die Royal Society Englands war dabei führend in Geschwin­digkeit und Reichweite: Zweimal im Jahr wurden Exemplare gedruckt, beispiels­weise achthundert Stück im Jahr 1829, und an korres­pondierende Akademien und ausgewählte Wissen­schaftler versandt. Häufig verging dabei nicht mehr als ein halbes Jahr zwischen Vortrag beziehungs­weise Einreichung und Veröffent­lichung. Konkurriert wurde damals natürlich nicht um Stellen oder Forschungs­förderung, sondern um Reputation sowie Zugang zu diesen Akademien und deren inter­nationaler Korres­pondenz. Neben der Originalität und Güte der Wissen­schaft dürften hier sicher auch damals schon Hierarchien, Beziehungen und Macht­spiele wichtig gewesen sein.

Info

Info

Info

Mit dem zuneh­menden Verständnis dessen, was die Welt im Innersten zusam­menhält, begann man sich aber auch vermehrt für die Nützlichkeit der wissen­schaftlichen Erkenntnisse zu interessieren. Als sich bürgerliche Gesell­schaften etablierten und die Industria­lisierung im 18. und 19. Jahrhundert aufblühte, begannen die Staaten, Wissen­schaft systematisch zu organisieren – und diese insbesondere über Univer­sitäten zu fördern. Maxwell, Pasteur, Virchow und Co. waren universitäre Brotwissen­schaftler, die staatlich alimentiert forschten. Auch ihnen ging es nicht um Reichtum, sondern immer noch vorrangig um den Fortschritt des Wissens sowie den darüber zu erlangenden Ruhm.

Gleichzeitig spezialisierten sich die Wissen­schaften mehr und mehr, Fachjournale kamen auf und wurden neben Vorträgen zum wichtigsten Medium des wissen­schaftlichen Diskurses. Noch jedoch kannten sich alle Wissen­schaftler eines Gebietes. In Wort und Schrift focht man wissen­schaftliche Kontro­versen nicht anonym, sondern von Angesicht zu Angesicht aus. Neu war allerdings die akademische Konkurrenz um die Anstellung als Assistent oder die Berufung und Verstetigung als Professor. Wichtig waren dabei vor allem die Repu­tation unter den Kollegen, aber natürlich auch akademische Hierarchien sowie Zugehö­rigkeiten zu „wissen­schaftlichen Schulen“.

Quantitative biblio­metrische Indikatoren oder Drittmittel spielten auf jeden Fall keine Rolle, denn die gab es zu dieser Zeit ja noch nicht. Auch nahm man es damals schon mancherorts nicht so genau mit der guten wissen­schaftlichen Praxis, wenn es nur dem akade­mischen Fortkommen diente. Charles Babbage (der mit der mechanischen Rechen­maschine) beschrieb bereits 1830 in seinen Reflections on the Decline of Science in England, and on Some of Its Causes die wesent­lichen auch heute noch praktizierten Spielarten der unsauberen Wissen­schaft. Er unterschied dabei Hoaxing (Fabrizieren), Forging (Fälschen), Trimming (selektive Daten­analyse) und Cooking (unsaubere Statistik).

Im frühen zwanzigsten Jahr­hundert kamen die Drittmittel dazu. Unmittelbar nach dem verlorenen Ersten Weltkrieg hatten die deutschen Univer­sitäten und Akademien samt der Kaiser-Wilhelm-Gesell­schaft (die heutige Max-Planck-Gesellschaft) eine Idee, wie sie ihre durch Krieg und Krise klamme Finanz­situation aufbessern könnten. Sie gründeten die „Notgemein­schaft der deutschen Wissenschaft“ (deren Rechts­nachfolger bekanntlich die Deutsche Forschungs­gemeinschaft, die DFG, ist) und konnten so auf Antragsbasis individuelle Wissen­schaftler fördern. Allerdings lief dies zunächst ganz anders ab als heute. Heute noch bekannt ist der Antrag von Otto Warburg an die Notge­meinschaft, der lediglich aus den Worten bestand: „Ich benötige 10.000 (zehntausend) Mark – Otto Warburg“. Vermutlich wurde er genehmigt, aber nicht nach Begut­achtung. Der Name Warburg war ausreichend.

Ein paar Jahre später wurde dann auch noch das Partei­abzeichen wichtig. In den Zeiten einer „Deutschen Physik“ war Gesinnung und Partei­zugehörigkeit natürlich auch für die Einstellung oder Berufung an der Universität ein wesent­liches Kriterium. Die Evaluation nach Journal Impact Factor (JIF) und einge­worbenen Drittmitteln war aber immer noch in weiter Ferne!

Erst durch den Zweiten Weltkrieg änderte sich dieses System ganz grund­sätzlich, und zwar weltweit. Während des Krieges kam es nämlich zu einer bisher ungekannten Industria­lisierung der Forschung, am konse­quentesten in den USA. Forschungs­programme, die die Grundlagen zur Entwicklung von Lang­strecken­raketen, RADAR, Atombombe, Computern und so weiter lieferten, wurden mit gigantischen Summen ausgestattet und general­stabsmäßig exekutiert. Am Ende des Zweiten Weltkriegs war der Großteil der universitären (Natur-)Wissen­schaft im Dienste des Militärs. Nütz­lichkeit der Forschung, hier zur Sicherung militärischer Über­legenheit, hatte jetzt oberstes Primat. So sehr, dass man sich damals um das Überleben der Blue-Skies-Grundlagen­forschung ernsthaft Sorgen machen musste.

Heute noch viel gelesen und zitiert wird aus dieser Zeit etwa Vannevar Bushs Bericht „Science, The Endless Frontier“. Im Auftrag des US-ameri­kanischen Präsidenten 1945 erstellt, gilt der Bericht auch heute noch als Manifest des staatlichen Auftrages, Forschung auch um ihrer selbst willen zu fördern. Denn schließlich liefere die Grundlagen­forschung das Wissen für spätere, noch nicht antizi­pierbare Anwendungen. Auch schrieb Bush dem Staat ins Stammbuch, für wissen­schaftlichen Nachwuchs zu sorgen – und sich inhaltlich bei alledem möglichst rauszuhalten.

Diese Entwicklungen katalysierten einen steil ansteigenden Forschungs-Output – sowohl wegen der immer weiter zunehmenden Spezia­lisierung der verschie­denen Disziplinen als auch aufgrund der steigenden Staats­ausgaben für akademische Forschung. Trotzdem war das alles für die Forscher selbst in ihren Spezial­gebieten und sogar darüber hinaus noch immer recht über­schaubar. Editoren entschieden auf ihren Schreib­tischen über die Publikation von Manuskripten, der Peer Review, wie wir in kennen, war noch nicht geboren. Pro Fach gab es nur einige wenige Journale, publiziert in den jeweiligen Landes­sprachen. Man tauschte sich immer noch vor allem auf nationaler Ebene aus – und dort wurde auch entschieden, wer „exzellent“ ist und wer nicht.

Irgendwann, so etwa in den Achtziger­jahren des vorigen Jahr­hunderts, erreichten die exponentielle Wissens­proliferation, die Spezia­lisierungen, aber auch die schiere Menge von „Wissens­produzenten“ eine kritische Schwelle. Es wurde immer schwieriger, die Qualität und Originalität von Forschern nach Kenntnis der Inhalte zu beurteilen und damit Förder- und Karriere­entscheidungen zu treffen. Dazu kam die in den späten Sechziger­jahren weithin einsetzende Auflehnung gegen verstaubte Hierarchien. Der Wunsch nach Objekti­vierung und Quanti­fizierung von Leistung, auch in der Forschung, war geboren. Dazu kam, dass sich in der Folge dieser Entwick­lungen mittler­weile auch eine Hierarchie der Journale etabliert hatte, die durch Eugene Garfields geniale Erfindung des Impact Factors im Jahr 1955 quanti­fizierbar wurde – und von ihm (und den Verlagen) folgerichtig auch massiv kommer­zialisiert wurde.

Der Rest ist Geschichte. Laut UNESCO forschen allein in Deutschland mittler­weile mehr als 400.000 Vollzeit­wissenschaftler, weltweit sind es viele Millionen. Welcome to the Club!

Diese Wissenschaftler­masse publiziert heute jährlich Millionen von Artikeln. Zudem ist innerhalb eines Jahr­hunderts die mittlere Anzahl von Autoren von eins auf sechs angestiegen. In diesen hundert Jahren ist aber auch die Produk­tivität von Wissenschaft, definiert als das Verhältnis von Output an Wissen zu Input in die Wissenschaft, stark zurück­gegangen. Wir wissen nämlich schon recht viel, gute Ideen sind rarer geworden, die niedrig hängenden Früchte sind gepflückt, alles wird immer komplexer – Inhalte wie Methoden.

Dass es dennoch weiter vorwärts­geht, liegt daran, dass die Zahl der Wissen­schaftler (Input!) parallel etwa um denselben Faktor zugenommen hat – vermutlich sogar über­proportional. Folglich braucht es immer mehr Wissen­schaftler, genauso wie immer kompli­ziertere und teurere Apparate, um der Natur weiterhin ihre Geheimnisse zu entreißen.

Der anschwellende akademische Massen­betrieb der letzten Jahr­zehnte bot dabei auch ein ausgezeich­netes Substrat für die vermeintliche Perfektio­nierung objektiver, einfacher und transparenter Kriterien zur Beurteilung von Forschern und Forschung: JIF, Hirsch-Faktor, Drittmittel,... Wozu etwa Artikel von Bewerbern oder Antrag­stellern lesen, wenn man weiß, dass deren Impact Factor im Mittel bei 20,162 liegt? Oder eben nur bei 6,531? (Man beachte die beein­druckende Genauigkeit des Indikators: In den meisten Lebens­läufen und Anträgen wird er mit drei Nachkomma­stellen angegeben!)

Dummerweise beruht diese Objekti­vierung der Güte von individueller Wissen­schaft auf falschen Prämissen: Der JIF misst, wenn überhaupt irgendetwas, die Popu­larität des jeweiligen Journals und Faches. Dazu kommt, dass achtzig Prozent der Arbeiten in Nature und Co. von lediglich zwanzig Prozent der Artikel (inklusive Reviews) erwirt­schaftet werden. Die über­wiegende Mehrheit der Artikel in diesen gerne auch als „Glam“ Journals bezeich­neten Zeitschriften zieht folglich nicht mehr Zitationen als diejenigen, die lediglich in einer allenfalls guten Fach­zeitschrift veröffentlicht wurden. Oder auch gar keine.

Noch korrosiver als diese Untaug­lichkeit der Metriken war allerdings, dass damit zwei lange bekannte Phänomene wirksam werden konnten. Das eine hört auf den Namen Goodharts Gesetz, wurde im Jahr 1975 formuliert und sagt vorher, „dass ein Maß, das zum Ziel wird, aufhört, ein gutes Maß zu sein“. Und genau das ist passiert. Das Schürfen von Impact-Factor-Punkten begann das rein erkenntnis­geleitete Interesse in der Wissen­schaft zu korrumpieren. Immer mehr Artikel müssen immer mehr Punkte erzeugen. Forschungs­ergebnisse, die solche Punkte verheißen, werden priorisiert. Mit allen Konse­quenzen – von der geschickten Auswahl und Überinter­pretation der Ergebnisse bis hin zum Betrug. Babbage lässt grüßen.

Als zweites Phänomen kommt der Matthäus-Effekt hinzu, den Robert Merton 1968 für die Wissen­schaft formulierte. „Wer hat, dem wird gegeben“, so steht es schon in der Bibel. „Drittmittel erzeugen Drittmittel“ bedeutet das für die Wissen­schaft. Und der Mainstream feiert fröhliche Urstände. Science-Paper erzeugen Nature-Paper, und umgekehrt.

Natürlich kann das nicht jeder so kriegen, denn die „Währung“, für die die Impact-Punkte den Umtausch­kurs festlegen, steuern die Wissenschafts­verlage über Ablehnungs­quoten. Das ist ihr Geschäfts­modell. Die über zehntausend Max-Planck-Wissen­schaftler, die deutsche Forscher­elite also, schaffen es dabei nicht, mehr als 400 Artikel jährlich in Nature und den vielen Nature-Tochter­zeitschriften zu platzieren!

Die besondere Attraktivität, aber auch Toxizität dieser Indikatorik besteht in ihrer schein­baren Plausi­bilität, Transparenz, Simplizität und Praktika­bilität. Und in der Tatsache, dass die offen­sichtliche Alternative – die Auseinan­dersetzung mit wissen­schaftlichen Inhalten und deren Qualität und Originalität – in Anbetracht des oben geschilderten Dauer-Tsunamis an Artikeln und Wissen­schaftlern alternativlos erscheint. Sie hat sich deshalb weltweit durchgesetzt. Mindestens eine Generation von Wissen­schaftlern und Admi­nistratoren wurde damit bereits sozialisiert – sie können sich andere Mechanismen oft gar nicht mehr vorstellen. Die Beurteilung der Originalität und Qualität von Wissen­schaft und deren Produ­zenten auf Basis von Zitier­raten und Reputation von Journalen, wie auch gleichsam nach Akkumu­lation von Drittmitteln, erscheint ihnen als etwas Natürliches. Und zwar weil all dies, wie oben beschrieben, evolutionär als Antwort auf den Erfolg – man könnte auch sagen, die „Industria­lisierung“ – von Wissenschaft entstanden ist.

Es stellt sich also die Frage, ob Wissens­produktion im 21. Jahr­hundert, mit ihrer Armada von Wissen­schaftlern und der schieren Masse ihrer Outputs, andere Kriterien der „Leistungs­bewertung“ braucht? Und wenn ja – ob es denn überhaupt andere Kriterien gäbe, die dann auch noch praktikabel wären? Wer diese Kolumne schon mehrfach gelesen hat, wird ahnen, dass der Wissen­schaftsnarr hierzu klare Vorstellungen hat. Die wird er der verehrten Leser­schaft dann nächstes Mal vorstellen!

Ulrich Dirnagl

Weiterführende Literatur und Links finden sich wie immer unter: http://dirnagl.com/lj



Letzte Änderungen: 08.12.2020

Diese Website benutzt Cookies. Wenn Sie unsere Website benutzen, stimmen Sie damit unserer Nutzung von Cookies zu. Zur ausführlichen Datenschutzinformation