Von Daten, die in Schubladen verstauben

17. September 2018 von Laborjournal

Haben Sie auch noch jede Menge Daten in der sprichwörtlichen Schublade liegen? Daten, die schon lange eine nette, kleine „Story“ ergeben würden — wenn man sie nur mal in Manuskriptform bringen würde?

Wie bitte, in Ihrer Schublade schlummert Stoff für mehrere solcher kleinen, aber feinen Manuskripte? Oder in ihrem Regal?…

Keine Angst, Sie sind nicht allein.

Schon vor einiger Zeit stellte eine englische Forscherin den Kollegen in ihrem (leider nicht mehr existenten) Blog im Prinzip dieselbe Frage: „Stellt Euch vor, ihr bekommt keine Fördergelder mehr und könnt Euch einzig darauf konzentrieren, alle vorhandenen Daten zusammenzuschreiben — für wie lange hättet Ihr noch „Stoff“?“ Und sie meinte damit nicht das Umschreiben bereits eingereichter Manuskripte; es ging ihr vielmehr um die vielen, praktisch publikationssreif abgeschlossenen (Seiten-)Projekte, die bislang dennoch nie wirklich oben auf dem Schreibtisch gelandet waren.

Heraus kam, dass dieses Phänomen den meisten Forschern, die schon länger im Geschäft sind, offenbar wohlbekannt ist: Die Mehrzahl der Antworten lag zwischen drei und fünf Jahren.

Drei bis fünf Jahre lang könnte der Durchschnitts-Seniorforscher also noch Manuskripte schreiben — allein mit den Daten, die er längst schon hat. Da er diese Zeit aber beileibe nicht nur mit Paperschreiben verbringen kann, werden wohl jede Menge dieser interessanten kleinen (und hin und wieder vielleicht sogar großen) Geschichten niemals veröffentlicht. „Survival of the fittest results“ nennt die Autorin das treffend.

Woher aber kommt der entsprechende Selektionsdruck? Wohl daher, dass das Publikations-dominierte Belohnungssystem dem Forscher die folgende Zwickmühle beschert hat: Will er seinen Job gut machen, sollte er stets seine Resultate sorgfältig prüfen, hart nach alternativen Erklärungen fahnden und sie immer mit der aktuellen Literatur abgleichen. Das allerdings kostet Zeit. Wenn Forscher X aber zu viel Zeit mit diesen Dingen „vertrödelt“, riskiert er, als unproduktiv abgestempelt zu werden. Und dann kann es schnell schwer werden, weiterhin Fördergelder zu bekommen.

Also bunkert Forscher X das weniger dringende Material in der Schublade und schreibt lieber erstmal den nächsten Antrag — nicht zuletzt auch, um das Hauptprojekt der Gruppe weiter am Laufen zu halten. Wird dieser dann bewilligt, muss er natürlich umgehend die beantragten Projekte auch machen. Mit den resultierenden Daten muss er gleich wieder Paper schreiben, damit er frische Argumente für den nächsten Folgeantrag hat… — und so geht das Spiel in die nächste Runde

Und während diese Mühle unerbittlich weiter läuft, versinkt das, was er in der Schublade bunkert, tiefer und tiefer im Staub.

Wer weiß, wie viele kleine Schätze mit etwas weniger Antragsdruck von dort geborgen werden könnten..

Foto: iStock / Paperkites

x

Wutschrift eines Physikers über die «Forschungskultur» in der Biomedizin

10. September 2018 von Laborjournal

In schöner Regelmäßigkeit erhalten wir von unseren Lesern E-Mails, die man im Englischen als «Rant» bezeichnen würde. „Wutschrift“ oder „Tirade“ würde es im Deutschen wohl am ehesten treffen. Und natürlich sind es meist irgendwelche Zustände im hiesigen Wissenschaftssystem, die den Autoren immer wieder die Zornesröte ins Gesicht treiben.

Mit dieser allgemeinen Einleitung sollte die Neugier auf ein konkretes Beispiel geweckt sein. Also gut, nehmen wir etwa die folgende Mail, die uns ein Physiker bereits vor einiger Zeit zuschickte und in der er zwar nur kurz, aber heftig über die Verhältnisse in der biomedizinischen Forschung ablederte. Geben wir ihm also selbst das Wort:…

Als Physiker, genauer gesagt als Theoretiker, der eher Einzelkämpfertum gewohnt war, geriet ich vor Jahren vom Hamburger DESY, also der Hochenergiephysik, in die biomedizinische Forschung — und ich kann nur sagen: Ein echter Kulturschock! PI-Kult und Impact-Faktor-Fetischismus ohne Ende. Dazu eine ausgeprägte Projektitis: Jedes Projekt kündigt mindestens die ultimative Erklärung für irgendetwas an, wenn nicht dazu sogar noch Firmenausgründungen, Patente und vieles andere mehr. Völlig logisch daher, dass die Antragsteller auf diese Weise schon im Antrag versprechen, was am Ende rauskommen wird (deliverables) — und in welchen Zeitabschnitten (milestones). Reine Beutegemeinschaften, meist mit einem Haupt-Beutegreifer.

Preprints — in der Physik fest etabliert — scheinen in der Biomedizin als Teufelswerk verschrien. Seit zehn Jahren versuche ich meinen Chef von Preprint-Publikationen zu überzeugen. Doch ich höre immer nur: Beim Publizieren fängt man bei Nature, Science und Co. an. Fast immer wird das Manuskript abgelehnt, und man schreibt es für das nächste Journal um, et cetera — um es schließlich nach einem halben Dutzend Versuchen in einem passenden Journal unterzubringen. Am Ende ist dafür dann mehr Zeit vergangen als für die Forschung selbst.

Was für eine irrsinnige Verschwendung von Zeit und Steuergeldern! Und am Ende muss man sich dann anhören: „Associate-Professor wollen Sie werden? Dafür haben sie aber nicht genügend Paper pro Zeiteinheit geschrieben.“

Schlimmer noch trifft’s die Doktoranden und Postdocs: Die sind eh nur Verbrauchsmaterial — fast schon Sklaven, mit denen man machen kann, was man will. (Kürzlich sagte bei uns etwa ein PI zum Erstautor eines Manuskripts: „Ich habe mit meinem PI-Kumpel beim Mittagessen über das Paper geredet, deshalb muss er mit auf die Autorenliste.“ Und das zielgenau nach der zweiten Revision, als klar war, dass das Paper durchkommt…) Ein Aufstand ist nicht möglich, sonst kann man sich den nächsten Zeitvertrag abschminken — nur um dann nach 15 Jahren doch auf der Strasse zu landen.

Programme, die mit viel Geld und Zeit gestartet wurden, verrotten vor solchem Hintergrund mannigfach auf irgendwelchen Servern — weil irgendwann keiner mehr da ist, um sie zu pflegen und weiterzuentwickeln. Wieder viel Steuergeld für die Katz‘! Kontinuierlicher Aufbau von Wissen und Knowhow findet so kaum statt — auch weil es ja keinen akademischen Mittelbau mehr gibt, der ihn weiter tragen könnte. Dem Wissenschaftszeitvertragsgesetz sei dank!

So wird man die großen Fragen sicher nicht lösen. Sei es die nach der Entwicklung eines ganzen Lebewesens aus nur einer befruchteten Eizelle, oder die, warum wir altern und sterben, oder warum es überhaupt Leben auf der Erde gibt…

Irgendwelche Einsprüche? Bestätigungen? Relativierungen? Oder gleich noch einen «Rant» hinterher? …

Nehmen wir gerne! Als Kommentar hier unten oder via E-Mail an redaktion@laborjournal.de.

Illustr.: DeviantArt / baleshadow

 

Der gute, alte Journal Club

4. Juli 2018 von Laborjournal

Wer geht denn noch in den Journal Club? Ja, gibt es diese Veranstaltung überhaupt noch überall?

Nun, wenigstens die Älteren sollten diese wöchentliche Routineveranstaltung aus ihrer Diplom- und Doktorandenzeit noch kennen. Der Autor hatte etwa an seinem Ex-Institut immer montags um 12 Uhr Journal Club. Was jede Woche für ein bisweilen skurilles Schauspiel sorgte: Einer nach der anderen kam am Montagmorgen meist noch wochenendmüde ins Institut, schlurfte ziemlich unmotiviert ans schwarze Brett, las gelangweilt den Titel des anstehenden Journal Clubs — und trabte noch weniger begeistert wieder ab. Jedenfalls die meisten. Und gesehen hat man dann um 12 Uhr nur wenige.

Ja, so haben viele den guten, alten Journal Club wohl als lästige Institutsroutine im Kopf, die einen nur von den ach so wichtigen Experimenten abhält.

Aber hat der Journal Club das verdient? Wohl nicht wirklich, denn wo sonst kann man besser lernen, die Qualität von Publikationen zu beurteilen. Gerade heute gibt es wahrscheinlich mehr wundervolle Paper als jemals zuvor in der Geschichte der Biowissenschaften — und es ist unglaublich lohnend herauszuarbeiten, warum diese Paper so wundervoll sind. Genauso gibt es heute so viele wirklich furchtbare Paper wie noch nie zuvor in der Geschichte der Biowissenschaften — und es lohnt sich sehr darüber zu sprechen, warum sie so furchtbar sind. Nicht zuletzt auch, da man sich nach den Erfahrungen der letzten zwei bis drei Jahrzehnte kaum noch auf die simple Faustformel „Gute Paper in guten Journals, schlechte in schlechten“ verlassen kann.

Völlig klar: Gute Artikel von schlechten zu unterscheiden zu können, gehört zu den wichtigsten Schlüsselqualitäten des fortgeschrittenen Wissenschaftlers. Gesunder Wissenschaftlerverstand alleine liefert einem diese Qualität jedoch nur bedingt — man muss sie vielmehr trainieren. Und wie? Zum einen natürlich, indem man Paper wirklich liest. Zum anderen, indem man sie diskutiert.

Und wo geht das besser als im guten, alten Journal Club?

x

Reproduzierbarkeitskrise? — Selber schuld!

13. Juni 2018 von Laborjournal

(Zugegeben, der folgende Text erschien bereits in etwas anderer Form als Editorial unserer Print-Ausgabe 10/2014. Kürzlich versicherte uns jedoch ein Leser, dass sich bis heute nichts an der Brisanz des Inhalts geändert habe — und dass es durchaus Sinn mache, ihn nochmals zu reproduzieren. Womit wir beim Thema wären…)

 

Die Forschung hat ein Reproduzierbarkeitsproblem. Mehrere Handvoll Studien zum Thema sind inzwischen publiziert — allesamt mit dem ernüchternden Ergebnis, dass die Autoren jeweils weit über die Hälfte speziell ausgewählter Studien nicht „nachkochen“ konnten (LJ 3/2014: 18-23). Und bekanntlich gilt ja nur als robustes wissenschaftliches Resultat, was unabhängig in Oslo, Osaka, Ouadougou oder wo auch immer reproduziert werden kann.

Doch nicht nur die Reproduzierbarkeit macht Sorgen. Seit 2005 mahnt der inzwischen berühmt-berüchtigte US-Epidemiologe John Ioannidis unermüdlich, dass die Mehrzahl der Forschungsergebnisse falsch sei — und zwar schlichtweg wegen lausiger und somit unhaltbarer Statistik (siehe auch unser Interview mit Ioannidis in Lab Times 4/2014: 30-33). „Why Most Published Research Findings Are False“ lautete damals der Titel seines aufsehenerregenden Papers in PLoS ONE (Bd. 2(8): e124).

Seitdem ist er nicht allein geblieben. Erst kürzlich griff etwa der Berliner Neurologe Ulrich Dirnagl das Thema in unserem Jubiläumsheft „20 Jahre Laborjournal“ mit einer eigenen Analyse auf (LJ 7-8/2014: 38-41). „Sind die meisten Forschungsergebnisse tatsächlich falsch?“, fragte er in Anlehnung an Ioannidis in der Überschrift. Und gab die Antwort bereits im Vorspann: „Leider ja — Bias und schlechte Statistik fluten viele Paper mit falsch positiven Resultaten.“

Bias, schlechte Statistik, Reproduzierbarkeitsmangel — all dies zusammen ergibt schnell ein übel riechendes Gebräu, über dem man leicht naserümpfend diagnostizieren kann: „Der Patient Wissenschaft ist wirklich krank.“ Doch worin könnte die Therapie bestehen? Man kann es drehen und wenden, wie man will — man landet immer wieder bei den Autoren und ihren Pflichten. Die folgenden zwei, gar nicht mal ganz neuen Studien sollen dies unterstreichen…       Diesen Beitrag weiterlesen »

Verstehen wir uns noch?

9. Januar 2018 von Laborjournal

Denn sie wissen nicht, was sie tun. — Viele dürfte diese Zeile unmittelbar an den gleichnamigen Filmklassiker mit James Dean erinnern. Heute könnte sie jedoch auch für einen großen Teil biomedizinischer Forschung gelten.

Wobei man hier ein klein wenig wie folgt präzisieren müsste: „Denn sie wissen nicht mehr, was der andere tut.“ Bittere Konsequenz dessen, dass in vielen Gebieten die einzelnen Veröffentlichungen immer komplexer werden.

Ein besonders eindrückliches Beispiel dafür schilderte kürzlich Dorothy Bishop von der Oxford University in ihrem „BishopBlog“. In dem entsprechenden Beitrag klagt sie, dass sie die Publika­tionen ihrer Kollegen immer weniger versteht, sobald sie auch nur ein klein wenig über ihren eigenen Tellerrand hinausschaut. Sie schreibt:

Für eine Art Meta-Analyse über die Anwendung bestimmter statistischer Methoden studierte ich zuletzt eine Reihe von neurowissenschaftlichen Artikeln“, schreibt sie. „Einige davon musste ich stundenlang lesen und wieder lesen, bis ich endlich verstan­den hatte, welches überhaupt die statistisch relevantesten Ergebnisse waren.

Und dann schwenkt sie auf den eigentlich beunruhigenden Punkt um:

Mir scheint daher, dass in manchen Feldern die Zahl der Kollegen, die derart komplexe Paper überhaupt noch umfassend und kompetent begutachten können, extrem zusammenschnurrt.

Selbst gute und engagierte Editoren würden daher irgendwann kaum noch Reviewer mit voll­um­fäng­lich ausreichender Expertise auftreiben können. Und umgekehrt würde es den meisten immer stärker widerstreben, solch hochkomplexe Studien zu prüfen, wenn sie derart viel Substanz jenseits der eigenen Expertise enthalten.

Und Frau Bishop ist mit solchen Befürchtungen keineswegs allein. Bereits 2013 fragte Diethard Tautz, Direktor am Plöner Max-Planck-Institut für Evolutionsbiologie, in einem Essay für Labor­journal:

Lesen wir noch, was andere schreiben? Ja, verstehen wir uns überhaupt noch?

Und er erzählte folgendes Beispiel:

Ich musste kürzlich so ein „Big Data“-Paper für ein angesehenes Journal begutachten. Es hatte 60 Autoren und präsentierte ein Feuerwerk an intelligenten Auswertungen, Statistiken und Modellierungen. Etwas seltsam war der modulare Aufbau. Die einzelnen Teile des Papers waren offensichtlich von unterschiedlichen Autoren geschrieben worden, jeder ein Spezialist für sein Feld mit einem eigenen Sprachstil und wenig Bezug zu den anderen Modulen. An ein paar ‚Kleinigkeiten‘ wie fehlenden Übergängen und unvollständigen Sätzen war zu erkennen, dass die meisten der Autoren offen­sicht­lich ihr eigenes Paper nicht vollständig gelesen haben konnten — denn zumindest einem von den 60 hätte so etwas doch auffallen müssen. Haben auch Autoren gar keine Zeit mehr zum Lesen oder ist das der Beginn der Sprachverwirrung? Auch als Gutachter konnte ich nur einen Teil kompetent begutachten, den Rest nur auf Plausibilität prüfen. Und ich vermute, dass es den anderen Gutachtern ebenso ging.

Und er schloss:

Natürlich wurde es publiziert — und ich darf annehmen, dass es so gut wie keinen Leser mehr gibt, der wirklich alles davon versteht. Wenn das so weiter geht, dann sind wir bald nahe an dem Punkt,… dass keiner des andern Sprache verstehe!

Wobei das letztere Zitat jetzt nicht aus der Filmwelt kommt.

Ralf Neumann

 

Was ist faul an diesem Bild?

23. Oktober 2017 von Laborjournal

Es scheint leider traurige Gewissheit: In den letzten Jahren haben die Mauscheleien in den Abbildungen von Originalveröffentlichungen deutlich zugenommen. Der redliche Wissenschaftler ist daher wahrlich nicht schlecht beraten, möglichst auch den eigenen Blick für etwaige „Seltsamkeiten“ in Paper-Abbildungen zu schärfen. Denn andernfalls könnte solch ein „Trugbild“ womöglich auch das eigene Projekt irgendwann auf die falsche Fährte führen.

Wir von Laborjournal wollen bei der Schärfung der entsprechenden Sinne helfen — und stellen daher zum nun folgenden Bild die Frage: „Was ist daran wohl faul?“

x

Das Bild stammt aus dieser Originalveröffentlichung in Clinical Cancer Research. Uns ist nicht bekannt, ob das offensichtliche „Missgeschick“ inzwischen irgendwelche Konsequenzen nach sich gezogen hat. Zurückgezogen oder korrigiert ist das Paper jedenfalls bis heute nicht. Genauso wenig haben die Autoren bisher erklärt, wie der „Fauxpas“ zustande kam.

Und wer jetzt immer noch nicht weiß, was genau „faul“ ist an der Abbildung, bitte hier auf PubPeer nachschauen. Dort wurde erstmals darauf hingewiesen, dass hier etwas abgebildet ist, was sich so wie gezeigt einfach nicht „sauber“ abgespielt haben kann.

x

Spitzenmediziner schaffen ein Paper pro Woche !?

21. Juli 2017 von Laborjournal

Wieder einmal hat jemand die Veröffentlichungsfrequenz von gewissen „Superstars“ der medizinischen Forschung geprüft. Die Autoren heißen Martin Schmidt, Benedikt Fecher und Christian Kobsda — und ihre Ergebnisse veröffentlichen sie unter anderem in ihrem Blog „Elephant In The Lab“. In dem Beitrag „Doctor coauthor“ etwa schreiben sie:

The 20 highest performing authors in Medicine published more than 7700 articles in seven years.

Genauer gesagt, sind es 7.741 Artikel, die die zwanzig „Über-Autoren“ in den sieben Jahren veröffentlicht haben. Und dies wiederum heißt, dass jeder einzelne von ihnen im Schnitt sieben Jahre lang alle 6,6 Tage ein Paper gezeichnet hat — jedenfalls wenn man unberücksichtigt lässt, dass womöglich zwei oder mehr von ihnen bisweilen auf ein und demselben Paper auftauchen.

Wie auch immer: Uns erinnerte das Ganze sofort daran, dass wir für die medizinischen Fächer solche Rechnungen ja schon mehrmals selber durchgeführt haben. Zuletzt hatten wir das Thema hier im Blog 2014 unter dem Titel „Jede Woche ein Paper — Geht das?“ zusammengefasst. Und wie der Titel schon sagt, kamen wir seit 2002 punktuell immer wieder zu ähnlichen „Spitzenwerten“ wie jetzt Schmidt, Fecher und Kobsda.

Damals schlossen wir den Beitrag mit folgender Frage ans Publikum:

Wer kann uns erklären, wie es jemand schafft, unter Einhaltung aller Kriterien für eine saubere Autorenschaft etwa jede Woche ein frisches Forschungs-Paper zu zeichnen? Oder umgekehrt: Wer kann uns erklären, warum das wahrscheinlich beim besten Willen nicht möglich sein kann?

Geantwortet hat damals leider keiner. Also stellen wir die Frage hiermit nochmals neu…

Ralf Neumann

Das Recht am Peer Review

4. Juli 2017 von Laborjournal

Nette Geschichte, die Pandelis Perakakis auf seiner Academic Website über seinen Kollegen Angel Correa vom Brain, Mind & Behaviour Research Center der Universität Granada notiert hat. Dieser hatte von einem Elsevier-Editor die Einladung erhalten, ein eingereichtes Manuskript für eines ihrer Journals zu begutachten. Correa schrieb zurück, dass er dies gerne tun würde — allerdings unter einer Bedingung: Würde das Paper am Ende zur Veröffentlichung akzeptiert, sollte das Journal seinen Review in der gleichen Ausgabe mit veröffentlichen — als „Kommentar“ oder wie auch immer, aber auf jeden Fall frei zugänglich via Open Access.

Correa lieferte auch eine Begründung dafür. Als Wissenschaftler im Staatsdienst habe er entschieden, seine Arbeitszeit nicht völlig selbstlos in das Interesse von Journals zu investieren, die privatwirtschaftliche Zwecke verfolgen.

Der Editor antwortete daraufhin zunächst schnippisch, dass er Correas Entscheidung, nicht mehr am Scientific Process teilzunehmen, sehr bedauere. In einer zweiten Mail schob er jedoch nach, dass er nach seiner Auffassung gerade als Staatsbediensteter die Verpflichtung habe, der Peer Review-Anfrage nachzukommen. Dies nicht nur, weil auch seine Institution dafür zahle, dass dessen Verlag einen ordentlichen Peer Review-Prozess organisiert und durchführt — sondern weil die Wissenschaftsgemeinde schlichtweg auf diese Art funktioniere. Schließlich erwarte er ja auch, dass seine Paper von Peers begutachtet werden.

Correa bemühte daraufhin zunächst einige Höflichkeitsfloskeln, um dann zu folgendem Schluss zu kommen: „Ich denke, es würde meiner Selbstverpflichtung zu Open Science auch Genüge tun, wenn ich als Autor des Peer Reviews die Rechte daran behalte, so dass ich diesen selbst veröffentlichen kann — vorausgesetzt natürlich, das Manuskript wird veröffentlicht. Geben Sie mir also bitte bescheid, ob Ihr Journal in diesem Fall die Verwertungsrechte bei mir, also dem Autor des Reviews, belässt.“

Eine Antwort darauf blieb bis heute aus.

Ralf Neumann

(Illustr.: Fotolia)

x

Vom Goldkind zum Gelackmeierten (2)

23. Mai 2017 von Laborjournal

Dass Doktoranden und Masterstudenten während ihrer Laborarbeit in ihren Arbeitsgruppen nicht immer fair behandelt werden, ist ein offenes Geheimnis. Entsprechend porträtierten wir in unserer aktuellen Heftausgabe 5/2017 unter dem Titel „Vom Goldkind zum Gelackmeierten“ die vier exemplarischen Fälle von Carsten, Juliane, Katrin und Florian [Namen geändert]. Die Moral aus den vier „Geschichten“ fasste unsere Autorin Juliet Merz in dem Artikel folgendermaßen zusammen:

Publikationen als Lockmittel und lapidare Verteilung von Autorenschaften: Was Carsten, Juliane, Katrin und Florian erlebt haben, ist nicht die Regel – aber auch keine Seltenheit. Carstens Idee wurde geklaut, Julianes Mitarbeit vertuscht und von Florian dreist abgeschrieben. Dahingegen musste sich Katrin die Lorbeeren mit einer anderen Doktorandin teilen, obwohl eigentlich nur sie die Arbeit erledigt hat. Wenn es um Autorschaften auf Papern in deutschen Laboren geht, wird die Gemeinschaftlichkeit gerne mal ad acta gelegt. Der Druck ist groß: Jeder möchte so viel publizieren wie möglich, um die wissenschaftliche Karriereleiter weiter nach oben zu klettern oder schlicht am Ball zu bleiben.

Wahrlich schreiben nicht alle Labore solche Geschichten. Im Zuge unserer Recherche stießen wir vielmehr immer wieder auf die Aussage: „Zu Autorenstreitigkeiten kann ich Ihnen nichts erzählen, da lief bei mir immer alles gut.“ Gut, dass es folglich doch noch viele ehrliche und rücksichtsvolle Arbeitsgruppen mit gerechten und aufmerksamen Professoren gibt. Dummerweise stehen heutzutage jedoch gerade Doktoranden, Postdocs und auch jüngere Professoren unter höllischem Zugzwang, viel und gut zu publizieren. Dass jeder auf Biegen und Brechen versucht, hierbei nicht auf der Strecke zu bleiben, ist geradezu nachvollziehbar. Eine Kultur des „Jeder ist sich selbst der Nächste“ kann dabei offenbar nicht immer vermieden werden.   

Umgehend bekamen wir zwei Rückmeldungen zu dem Artikel, in denen die Verfasserinnen uns ihre eigene, zum Thema passende Geschichte mitteilten. Diesen Beitrag weiterlesen »

Exzellenzrechnereien

29. Juli 2016 von Laborjournal

Alle wollen mehr Exzellenz in der Wissenschaft. Und der einfachste Weg dahin scheint, dass man schlichtweg mehr Dinge „Exzellenz“ nennt. Wie zuletzt und auch gerade wieder hinlänglich erlebt: Oder passiert etwas anderes, wenn Bund und Länder jetzt die Exzellenzinitiative fortsetzen und erneut Exzellenzuniversitäten küren und Exzellenzcluster auswählen? Wieder wird überdurchschnittlich viel Geld dort hinein fließen — und irgendwie wird das dann schon exzellent werden. Schließlich produziert ein Fußballverein auch Fußballer und eine Schraubenfabrik Schrauben — warum soll dann ausgerechnet ein Exzellenzverein nicht Exzellentes hervorbringen. Der Name ist Programm.

exex

Okay, okay, wir haben es durchschaut — so einfach geht es doch nicht. Wie aber dann? Schwer, ganz schwer geht es. Denn schon wer nur gut sein will, muss erst einmal produktiv sein; und wer gar exzellent sein will, muss in aller Regel sehr produktiv sein. Kein Zweifel, Exzellenz und Produktivität hängen stark miteinander zusammen. Auch wenn das für die Wissenschaft natürlich nicht heißt, dass diejenigen, die am meisten Paper schreiben, automatisch auch die Exzellentesten sind. Allerdings, mit nur wenigen Artikeln dürfte man ganz gewiss nicht dazugehören.

Damit wären wir bei einer wissenschaftsbibliometrischen Gesetzmäßigkeit angekommen, die der Mathematiker Alfred Lotka bereits vor neunzig (!) Jahren formulierte — dass nämlich der Anteil der Personen, die n Aufsätze schreiben, immer proportional zu 1/n2 ist. Okay, und was heißt das? In etwa folgendes: Auf hundert Autoren, die in einem bestimmten Zeitraum jeweils ein Paper verfassen, kommen 25 mit zwei, 11 mit drei, … und nur einer von Hundert wäre demnach mit zehn Papern „hochproduktiv“. Wollte ich nun zehn „Hochproduktive“, bräuchte ich folglich gleich tausend Autoren insgesamt; wären aber tausend „Überflieger“ mein Ziel, müsste ich nach Lotka schon 100.000 Wissenschaftler anstellen.

Ich kann also machen, was ich will: Der reine Anteil „hochproduktiver“ Wissenschaftler an der Gruppenstärke bleibt immer gleich. Woraus folgt, dass ich deren absolute Zahl nur steigern kann, indem ich die Gesamtzahl der Wissenschaftler erhöhe.

Und jetzt kommt die Fangfrage: Spricht etwas dagegen, dass es sich mit dem Anteil „exzellenter“ Wissenschaftler oder Institutionen an der Gesamtgruppe nicht genau gleich verhält wie mit den „produktiven“? Wohl kaum, oder? Vorausgesetzt natürlich, die Kriterien bleiben gleich — und man klebt nicht plötzlich „Exzellenzetiketten“ auf Dinge, die es bislang nicht waren oder es möglichst erst noch werden sollen.

Information 1


Information 2





Information 4


Information 5


Information 7