Auf welche Paper Forscher wirklich stolz sind

19. August 2020 von Laborjournal

Welche Ihrer Paper würden Sie als „groß“ bezeichnen? Oder anders gefragt: Auf welches Paper sind Sie am meisten stolz?

Sind es nur die „offensichtlichen“? Also diejenigen, die Sie in vermeintlich großen Journals mit hohem Impact-Faktor platzieren konnten — Nature, Science, Cell und Konsorten?

Oder wecken nicht vielleicht doch andere „Werke“ besonders tiefe Genugtuung in Ihnen — selbst wenn diese damals nur in Blättern aus der zweiten oder dritten Reihe erschienen?

Etwa dieses eine Paper, weil Sie gerade dafür besonders große Klippen umschiffen mussten — und hierbei eigentlich erst lernten, wie Forschung und Wissenschaft tatsächlich funktionieren?

Oder womöglich auch dieses andere, das zwar zugegebenermaßen ziemlich unausgegoren daherkam, aber nichtsdestotrotz die allerersten Hinweise enthielt, in welche Richtung Sie Ihr Forschertreiben nachfolgend lenken sollten?      Diesen Beitrag weiterlesen »

„Impactitis“…

5. März 2020 von Laborjournal

… — schon seit Langem hat sich diese heimtückische Krankheit in Forscherkreisen weiter verbreitet, als es Covid-19 wohl jemals schaffen wird. Und auch ihre schlimmsten Symptome sind weithin bekannt: Anfangs völlig unbemerkt schleicht sich das infektiöse Agens in das Kreativitätszentrum des armen Forscheropfers und polt es langsam aber sicher um — bis der „Patient“ mit seinem ganzen wissenschaftlichen Schaffen nicht mehr danach strebt, möglichst „Großes“ zu entdecken, sondern vielmehr nur noch den Phantomen möglichst „hoher“ Publikationen in High-Impact-Zeitschriften nachläuft.

Ein fataler Irrweg, der in der Summe zwangsläufig die Qualität des wissenschaftlichen Fortschritts untergraben muss — und gegen den bislang noch keine wirklich wirksame Therapie in Sicht ist. Wer sollte die auch entwickeln, wenn gerade diejenigen, die sich besonders effizient in den High-Impact-Journalen tummeln, dafür erst recht belohnt werden? Von Berufungskommissionen, Forschungsförderern, Journal-Editoren, Preis-Jurys,…

Sprichwörtlich kann ja bisweilen schon ein wenig Einsicht der erste Schritt zur Besserung sein. Zumindest schaden kann sie nicht. Hier also ein paar Dosen „Einsicht“:

(1) Relativ gesehen müssen High-Impact-Journals weitaus am häufigsten bereits publizierte Artikel wieder zurückziehen — oftmals wegen Fälschung.

(2) Die Mehrheit der Paper in High-Impact-Blättern werden unterdurchschnittlich zitiert; ihre hohen Impact-Faktoren erreichen sie vielmehr durch wenige Zitations-Blockbuster.

(3) Viele wirklich einflussreiche Studien wurden überhaupt erst jenseits des Zweijahres-Fensters zitiert, in dem sie für die Berechnung des Impact-Faktors mitzählen.

(4) Veröffentlichung in einem High-Impact-Journal ist nicht äquivalent mit wissenschaftlichem Wert. Erst kürzlich zeigte eine Studie, dass wirklich neue Erkenntnisse („novel“) sogar eher in Low-Impact-Zeitschriften erscheinen (Research Policy 46(8): 1416-36).

Bleibt als Ergebnis dieser vier kleinen Therapie-Dosen: Artikel in High-Impact-Journalen repräsentieren also keinesfalls automatisch die beste Forschung, nicht selten sogar ganz im Gegenteil.

Und, wie geht es jetzt Ihrer „Impactitis“? Fühlt sich die eine oder der andere vielleicht schon ein bisschen besser?

Ralf Neumann

Illustr.: iStock / z_wei

Keinen Impact, aber Einfluss!

2. Mai 2019 von Laborjournal

(Eine fiktive Geschichte zur Entmystifizierung einiger beliebter Floskeln des modernen Wissen­schafts­betriebs:…)

Professor Suck war Mikrobiologe, seine Leidenschaft waren Zucker. Zeit seines Forscherlebens war er immer wieder auf’s Neue fasziniert davon, was Bakterien mit Zuckern alles anstellen. Und tatsächlich konnte er mit seinen Mitarbeitern auch einiges zum Verständnis davon beisteuern.

Zitiert wurden seine Arbeiten jedoch eher so la la. Suck selbst juckte das allerdings nicht. Er war lange genug Forscher, dass er diese Dinge mit gesundem Selbstbewusstsein einschätzen konnte. Zudem stand er mittlerweile im Spätherbst seiner Forscherkarriere — und musste keinem mehr etwas beweisen.

So dachte Suck jedenfalls. Eines Tages jedoch las er in einem Brief von der Univerwaltung, dass diese nacheinander alle Fakultäten evaluieren wolle und dafür extra ein ständiges Büro mit vier „Evaluationsexperten“ eingerichtet habe. Und kurze Zeit später saß tatsächlich einer dieser jungen und dynamischen „Evaluationsexperten“ bei Suck im Büro…     Diesen Beitrag weiterlesen »

Für ein paar Referenzen mehr…

25. April 2019 von Laborjournal

Es war einmal ein Editor. Dies war er noch nicht lange, denn er war noch ein sehr junger Forscher. Umso stolzer machte ihn seine erste Berufung in ein Editorial Board. Schließlich durfte er das durchaus als unmittelbare Wertschätzung seiner Forschungsarbeiten deuten. Und als Aufnahme in einen gewissen, wie auch immer gearteten „Club“.

Jetzt stand sein erstes Treffen mit dem gesamten Board an, bei dem wie in jedem Jahr die Editorial Policy kritisch geprüft sowie die Schwerpunkte neu fokussiert wurden. Unser junger Mann war beeindruckt von der Routine, mit der die erfahrenen Forscher und langjährigen Editoren die Dinge auf den Punkt brachten. Alles war so, wie er es sich vorgestellt hatte.

Vor allem publikationsethisch schien unserem jungen Editor alles einwandfrei. Das war ihm besonders wichtig in diesen Tagen des „Publish or perish“ und der immer aggressiveren Konkurrenz zwischen den Journalen. „Nein, alles auf einem guten Weg hier“, dachte er. „Und ich bin dabei.“

Blieb nur noch das Abschluss-Bankett. Bei diesem nahm ihn plötzlich der Chief Editor persönlich beiseite. Diesen Beitrag weiterlesen »

Journal-Tuning

3. April 2019 von Laborjournal

Wir recherchieren gerade einen Fall, in dem ein Journal seinen Impact-Faktor offenbar auf unlautere Weise aufgeblasen hat — konkret durch übermäßiges Selbstzitieren. Dabei fiel uns ein, dass wir mal vor Jahren in einem fiktiven Stück beschrieben hatten, wie ein Chief Editor den Impact-Faktor „seines“ Journals auch ohne unlautere Mittel deutlich nach oben treiben könnte. Wir stellen es daher hier nochmals zur Diskussion:

——-

Zwanzig Jahre waren es bald, die Badguy nun Herausgeber von Molecular Blabology war. Eine Zeit, in der er viele Veränderungen erlebte. Vor allem in den letzten Jahren.

Lange war der „Chief Editor“ ein ungeheuer befriedigender Job gewesen. Immerhin war Molecular Blabology die offizielle Zeitschrift der größten blabologischen Fachgesellschaft der Welt — und vielen galt sie auch als die beste. Klar dass auch Badguy selbst im Licht der Zeitschrift erstrahlte, war er damit doch unzweifelhaft ein wichtiger und mächtiger Mann in der Szene.

Lange konnte er dieses Gefühl genießen — bis die Journal-Impact-Faktoren aufkamen. Und die bereiteten ihm eine herbe Überraschung: Molecular Blabology war in der Kategorie „Blabology and Gabblistics“ völlig unerwartet nur auf Platz sechs. Fünf Journals hatten bessere Impact-Faktoren. Und was das Schlimmste war: Auf Platz eins rangierte mit dem European Journal of Molecular Blabology ausgerechnet das Organ der konkurrierenden europäischen Fachgesellschaft.

Doch Badguy konnte nicht nur genießen, er konnte auch anpacken. Schnell wusste er bescheid, wie die Impact-Faktoren berechnet wurden — und bald hatte er auch einige Schwachstellen ausgekundschaftet, die er auf dem Weg zu einem besseren Faktor gnadenlos auszuschlachten gedachte.

Fallstudien und Essays bringen im Schnitt bei weitem nicht so viele Zitierungen wie Originalarbeiten und Technical Reports, hatte Badguy schnell herausgefunden. Zwar brachte Molecular Blabology keine Fallstudien, dafür aber vier Essays pro Heft. So schön diese in der Regel waren, Badguy würde sie streichen und statt dessen mehr Technical Reports aufnehmen. Oder besser noch: Die Zahl der Reviews pro Heft von bisher 2 auf 6 anheben, denn die bringen noch mehr Zitierungen.

Ebenso hatte Badguy spitz bekommen, dass die Zahl der Zitierungen in etwa proportional zu der Länge der einzelnen Artikel ist. Er würde also die Short Communications rausschmeißen und für die Artikel mehr Text — und damit zitierbaren „Content“ — verlangen. Seine einfache Rechnung: Weniger, aber längere Artikel, die zugleich jeder für sich häufiger zitiert werden — damit müsste der Impact-Faktor sofort einen Sprung machen. 

Badguy blieb auch nicht verborgen, dass die „Herren der Impact-Faktoren“ nur Artikel, Reviews und Notes für die Gesamtzahl der Artikel eines Journals berücksichtigten — „Citable Items“ nannten sie diese. Meeting Reports, Editorials und Correspondence-Briefe dagegen zählten sie nicht, obwohl deren Zitierungen wiederum in den Impact-Faktor eingingen. Eigentlich nicht zu verstehen, für Badguy war aber klar: Möglichst viele Meeting Reports, eine große Correspondence-Rubrik und knackige Editorials — das bringt noch mal zusätzlichen Schub.

Und dann hatte Badguy noch eine besondere Idee: Zweimal im Jahr wollte er eine Nomenklatur-Konferenz einberufen, deren Ergebnisse natürlich umgehend in Molecular Blabology erscheinen würden. Die bringen — das ist bekannt — wahnsinnig viele Zitierungen, da sämtliche nachfolgenden Originalarbeiten im betreffenden Feld diese zitieren müssen. 

Schnell hatte Badguy also ein feines „Maßnahmenbündel“ geschnürt. Der „Umbau“ würde zwar noch ein kleine Weile dauern. Aber dann wollte Badguy doch mal sehen, ob er dieses European Journal of Molecular Blabology nicht doch bald… 

——-

Tatsächlich nur Fiktion? Weit weg von der Realität?

Grafik: iStock / Jossdim

Zehn ketzerische Gebote zur wunderbaren Welt der Leistungsorientierten Mittelvergabe (LOM)

4. Oktober 2018 von Laborjournal

(Den folgenden Beitrag bekam unsere Redaktion unaufgefordert zugeschickt. Der Autor ist der Redaktion bekannt.)


"Every valuable human being
must be a radical and a rebel,
for what he must aim at
is to make things better than they are."

Niels Henrik David Bohr
(Dänischer Physiker, 1885-1962, Physik-Nobelpreis 1922)

 

Vor 14 Jahren konzipierte und propagierte die DFG die sogenannte Leistungsorientierte Mittel­ver­gabe (LOM) und entließ sie als groß angelegten Freilandversuch in die medizinische For­schungs­landschaft. Oder besser gesagt: Sie ließ sie auf die Forscher in den Medizinischen Fakultäten los.

Bei der LOM konkurrieren in der Regel die verschiedenen Institute einer Fakultät um einen fixen Geldtopf. Das heißt, wenn Institut A nach irgendwelchen Kriterien, deren Sinn zumindest zweifelhaft ist, besser „produziert“ als Institut B, dann bekommt Institut B weniger Geld zugeteilt. Auch innerhalb einzelner Institute werden in vielen Fällen Kollegen direkt miteinander verglichen — sowohl in der Forschung, wie auch teilweise in der Lehre (wo der dominante Parameter allerdings häufig Quantität ist). Typischerweise spielen Impact-Faktoren von Zeitschriften eine wesentliche Rolle bei der LOM-Berechnung von „Forschungsleistungen“, obwohl deren Eignung zur Evaluation von Instituten und Einzelpersonen inzwischen selbst von Top-Journalen wie Nature oder Science klar verneint wird.

Dennoch haben viele Fakultäten die LOM-Richtlinie der DFG geflissentlich umgesetzt, ohne dass nachfolgend jemals geklärt wurde, ob sie wirklich sinnvoll ist — das heißt, ob ein messbarer positiver Effekt erzielt wird. Ob die LOM nützlich war bzw. ist, oder ob sie vielleicht vielmehr insbesondere das kollegiale Klima vergiftet, bleibt daher bis heute ungeklärt. Was aber auf jeden Fall erreicht wurde, ist, dass mehr Verwaltungspersonal zur Datenbankpflege et cetera benötigt wird. Die Relation von Forschern zu Verwaltern verschiebt sich zu Ungunsten der Forschung.

Nachfragen an die DFG mit der Bitte um Stellungnahme über mögliche Hinweise zum belegbaren Nutzen (oder Schaden) der Impact-Faktor-basierten LOM zeigen deutlich, dass die DFG sich bis auf Weiteres nicht ihrer Verantwortung für die Folgen der LOM stellt — ja sogar, dass sie auch in absehbarer Zukunft keine rigorose Evaluation durchführen will, obwohl ihr die Problematik sehr wohl bewußt ist.

Wenn man das dennoch ändern möchte, darf man also nicht weiter stillhalten. Deshalb nachfolgend eine ketzerische Liste von zehn LOM-Geboten zur wohlfeilen Reflexion. Sie könnte leicht noch länger sein, aber die Zahl 10 ist ja so schön biblisch — und 10 Gebote sollten letztlich mehr als genug sein, um potenziell LOM-induzierte Denkweisen des Homo laborensis nonsapiens darzustellen:x

Die 10 Gebote der LOM


  1. Du sollst den Kollegen vom Nachbar-Institut nicht helfen, in hochrangigen Journalen zu publizieren — vor allem, wenn die Gefahr besteht, dass sie in der LOM an Deinem Institut vorbei ziehen könnten.
  2. Du sollst Deinen LOM-Mitbewerbern nur solche Experimente vorschlagen, die viel Zeit kosten und letztendlich möglichst nicht funktionieren.
  3. Du sollst die Drittmittel-Anträge Deiner lokalen Kollegen nur oberflächlich kritisieren und eklatante Schwachstellen nicht aufdecken. Ihr Erfolg ist Dein LOM-Verlust!
  4. Du sollst Verbund-Initiativen nur gerade soweit unterstützen, wie sie Dir selbst nützen. Erfolge in diesem Bereich bringen den leitenden Kollegen in der Regel viele LOM-Punkte — was wiederum heißt, dass Du schlechter aussiehst.
  5. Du sollst in Berufungskommissionen dafür sorgen, dass in Nachbar-Instituten möglichst zweitklassige Kollegen angeheuert werden. Deren LOM-Schwäche wird Deine LOM-Stärke.
  6. Wenn Du eine Core Facility leitest, sorge dafür, dass vor allem die Kollegen Deines Instituts, am meisten aber Deine eigenen Leute von den sauteuren Gerätschaften profitieren.
  7. Du sollst Gutachtern bei Begehungen unauffällig subtile Hinweise zuspielen, die Deine LOM-Konkurenten in schlechterem Licht darstellen. Auch nonverbale Kommunikation kann hier wahre Wunder wirken.
  8. Falls Review-Artikel LOM-fähig sind, hau‘ möglichst viel davon raus! Selbst wenn deren echter „Nährwert“ oft äußerst limitiert ist, ersetzen sie doch für die LOM-Kalkulation wunderbar die deutlich mühsameren und kreativeren Originalartikel.
  9. Du sollst Kontrollexperimente und Wiederholungen von Experimenten auf ein absolutes Minimum beschränken, da diese nichts zur LOM beitragen.
  10. Du sollst Deine Ergebnisse in möglichst viele Artikel aufspalten, da dies zu einer Optimierung Deiner LOM-Punkte beiträgt.

 

In diesem Sinne, liebe Kollegen, freuen wir uns alle auf weitere Dekaden in der wunderbaren Welt der LOM. Für weitere kreative Ideen, wie man bei der LOM als Sieger vom Platz geht, einfach abends mal eine schöne Serie anschauen — zum Beispiel das gute alte Dallas mit J.R. Ewing oder auch House of Cards.

Illustration: iStock / kmlmtz66

x

Was tun mit Mediziner-Habil und Dr. med.?

16. November 2017 von Laborjournal

In unserem aktuellen Heft 11/2017 schreiben wir ab Seite 16 unter der Überschrift „Mediziner-Habil durch Erbsenzählen“ über den Gemischtwarenladen, als der sich die hiesigen  Medizinischen Fakultäten präsentieren, wenn es darum geht, wie sie den Journal Impact-Faktor in ihre Habilitationskritierien hinein rechnen. Vielleicht war es bei dem Thema nicht zu vermeiden — aber ganz am Ende des Artikels werden schließlich Stimmen laut, dass man die Mediziner-Habilitation doch einfach ganz abschaffen und den Dr. med. zumindest stark vereinfachen könne. Konkret heißt es dort:

Unser E-Mail-Schreiber […] zieht folgendes Fazit: „Man schaffe Promotion und Habilitation in der Medizin endlich ab.“ Und quasi als Zugabe formuliert er — wenn auch etwas süffisant — einen einfachen Zwei-Punkte-Vorschlag, wie man dahin kommen könnte:

„1) Statt Promotion soll jeder Mediziner einen Dr. med. bekommen, der ein Erstautor-Paper nachweisen kann. Das zeigt doch ausreichend, dass der junge Doktor sich auch mal in eine wissenschaftliche Fragestellung verirrt hat. Alles, was sonst für die Wissenschaft wichtig ist, sollte ja bereits in einem guten Studium gelehrt worden sein. Und selbstständig wissenschaftlich arbeiten, lernt man während einer medizinischen Doktorarbeit in der Regel sowieso nicht, sondern ist nur der Gratis-Pipettierheini.

2) Statt der Habilitation gäbe es flächendeckend einen Professorentitel, wenn man zehn Paper geschafft hat — davon fünf als Erst- oder Letztautor. Dazu käme dann lediglich noch eine festzulegende Zahl von Semesterwochenstunden an Lehre, welche die Studierenden noch als ausreichend gut evaluieren müssten.“

Man stelle sich vor, wie entlastend das für unsere schuftenden Ärzte wäre, schließt er. All die gesparte Zeit käme den Patienten, der Familie — und vielleicht ja auch einer guten Lehre enorm entgegen.

Bleibt zum Abschluss noch der Kommentar eines Professors an einer deutschen Uniklinik, den wir um seine Meinung dazu baten. Dessen Antwort:

„Ich denke, eine globale Sicht auf die Dinge hilft hier weiter. Viele Länder kennen den Dr. med. für Ärzte gar nicht — eine Habilitation schon gar nicht. Und die Patienten sterben deswegen auch nicht früher, sofern genug Geld im System ist.

Man könnte also sicher auch hierzulande die Voraussetzungen schaffen, um die Habilitation zu streichen. Will man aber doch an der Habilitation festhalten — was ich befürchte, da man die Leute damit wunderbar am Nasenring hat –, ist es in keiner Weise angemessen, die Publikationen nur nach Anzahl beziehungsweise Journal Impact-Faktoren zu bewerten.“

Zum „Dr. med.“ erhielten wir daraufhin folgende Zuschrift:

Dr. med. oder nicht? Zur laufenden Diskussion um den Doktortitel für Mediziner.

Ich mache folgenden Vorschlag:

Alle Mediziner, die ihr Examen bestehen, dürfen sich „Doktor“ nennen. Sie werden im Beruf sowieso mit Herr/Frau Doktor angesprochen. „Doktor“ wäre hier also eine Berufsbezeichnung, kein Titel.

Alle diejenigen, die eine „qualifizierte“ Arbeit anfertigen, können sich einer Prüfungskommission stellen, in der auch Naturwissenschaftler vertreten sind — und sich in herkömmlicher Weise bewerten lassen. Wer eine entsprechend gute Note erhält, der darf dann den Titel „Dr. med.“ führen.

Weitere Äußerungen, Meinungen und Vorschläge zum Thema „Habil und Dr. med. in der Medizin“?

x

Die Lance Armstrongs der Tour de Science

3. Februar 2016 von Laborjournal

Und wieder ein Zitat aus einer E-Mail an unsere Redaktion. Ein Bio-Emeritus im aktiven Unruhestand prangert darin mit deutlichen Worten einige „Unsitten“ im aktuellen Forschungsbetrieb an:

Da die Zahl der für das öffentliche und private Leben relevanten Skandale meine Fähigkeit zu kotzen weit überfordert […], bemühe ich mich schon seit einiger Zeit um eine gewisse pragmatische Rangordnung. Im Hinblick auf Wissenschaftsskandale heißt das für mich, dass ich nach den Lance Armstrongs der internationalen Tour de Science und vor allem nach den Strukturen frage, die diesen Figuren zur Verfügung stehen.

Da komme ich dann auf Fragen zum Wahnsinn der Impact Faktoren und CNS-Publikationen als Kriterium wissenschaftlicher Befähigung. CNS hat nichts mit Gehirn zu tun, sondern steht für Cell, Nature, Science — und damit gleichsam für den Glauben an die Weisheit der Editoren von Journalen, deren Hauptziel darin besteht, den Impact Faktor ihres Journals zu steigern oder wenigstens zu halten.

Ich beschäftige mich weiter mit dem Problem, was alles „behind the scenes“ passiert und offenbar möglich ist. Ich frage mich, warum ich immer wieder auf Arbeiten stoße, die in High Impact-Journalen veröffentlicht wurden und die völlig perfekt erscheinen — abgesehen davon, dass sich die Hauptergebnisse nicht reproduzieren lassen.

Ich frage mich, warum viele Wissenschaftler das Gefühl haben, dass man in einem Manuskript die — oftmals ja leider berechtigten — eigenen Sorgen wegen der Grenzen der verwendeten Methoden, beispielsweise aufgrund unerwünschter, schwer zu kontrollierender Artefakte, besser gar nicht erst andiskutieren sollte.

Ich frage mich, warum es üblich scheint, Ergebnisse besser wegzulassen, die nicht ins Schema der perfekten Reproduzierbarkeit passen und die möglicherweise die Beweisführung für oder gegen eine bestimmte Hypothese untergraben könnten.

Ich frage mich, wie es dazu kommt, dass heute umgehend immer nur nach einem molekularen Mechanismus gefragt wird, selbst wenn die phänomenologischen Grundlagen des untersuchten biologischen  Systems noch weitgehend ungeklärt sind.

Ich frage mich, wie das Begutachtungssystem verändert werden sollte — und vor allen Dingen, wie es öffentlich gemacht werden kann. Ich für meinen Teil habe seit etwa einem Jahr begonnen, alle meine Zeitschriftengutachten mit meinem Namen zu zeichnen.

Ich frage mich, wie es kommt, dass Gutachter ihren Auftrag dahingehend missbrauchen, dass sie die Autoren eingereichter Arbeiten zwingen, eine To-do-Liste abzuarbeiten, nach der die geforderten zusätzlichen Experimente gar nichts mehr mit notwendigen Kontrollen zu tun haben, sondern lediglich willkürliche Erweiterungen nach dem Geschmack des Gutachters darstellen.

Fragen, die viele zwar schon lange kennen — die deswegen aber nicht aufhören zu schmerzen. Antworten und Meinungen dazu, wie immer, direkt unten als Kommentar zu diesem Blog-Beitrag, oder auch per E-Mail an redaktion@laborjournal.de.

(Foto: Fotolia/erkamit)

x

Journals weisen Kunden ab — und sind stolz drauf

20. Januar 2015 von Laborjournal

In seinen Autoren-Richtlinien schreibt Nature, dass es nur 7 bis 8 % der jährlich eingereichten Manuskripte tatsächlich ins gedruckte Heft schaffen.

Bei Science dagegen erblicken nach eigenen Angaben weniger als 7 % der eingereichten Manuskripte das Licht der Publikation.

Ähnlich schwierig kommt man ins British Medical Journal, das umgekehrt eine Rejection Rate von 93 % angibt.

Doch es geht noch knauseriger: The Lancet druckt gerade mal jedes zwanzigste Manuskript ab, und auch das New England Journal of Medicine macht unter der Überschrift „What to expect“ gnadenlos klar:

We publish only the top 5% of the 5,000 research submissions we receive each year.

Mit Annahmequoten von 15 % nehmen sich dagegen etwa Cell und Cancer Research  fast schon großzügig aus.

Auf gleichem Level stand vor kurzem auch das Journal of Cell Biology — allerdings schien die Tendenz damals schon fallend:

[…] our acceptance rate continues to fall (currently at an incredibly selective ~15%)

Interessanterweise beteuern all diese Edelblätter immer wieder in trauter Einigkeit, dass sie ja keineswegs plusminus 90 % Schrott-Manuskripte geschickt bekommen. Vielmehr müssen sie zu ihrem extremen Bedauern all diese wunderschönen „1B-Arbeiten“ leider deswegen ablehnen, weil sie eben nur begrenzt Platz im gedruckten Heft haben. Wäre dies nicht der Fall, dann… ja, dann…

Warum haben dann aber manche E-Journale ähnlich hohe Ablehnungsraten?

Klar, die sogenannten Mega-Journals nicht — PLoS ONE nimmt knapp 70 %der Manuskripte an, Peer J ebenfalls zwischen 60 bis 70 %. Hier stehen ja auch bewusst „lockerere“ Konzepte im Hintergrund — wie Peer J es etwa beschreibt:

[…] journals that ask peer reviewers to judge the merits of a manuscript based solely on the soundness of its methodology and conclusions, rather than novelty or expected impact.

Bei eLife geht’s dann aber mit nur noch 25 % angenommenen Manuskripten wieder scharf runter. Und mit PLoS Biology und PLoS Medicine, die sich beide mit Ablehnungsraten von über 90 % rühmen, ist man dann endgültig wieder auf dem Niveau der altehrwürdigen, gedruckten Edelblätter angekommen.

Geht es denen — im Umkehrschluss des obigen Peer J-Zitats — mit der unverändert scharfen Selektion doch vor allem um das Zurechtkneten eines hohen Impact-Faktors? Nicht wenige vermuten es (siehe etwa hier).

Wenn aber all die abgelehnten Manuskripte tatsächlich so gut sind, wie alle beteuern — dann wird die ganze Absurdität dieses hochgezüchteten Selektionsprozesses durch die erwähnten E-Journals mit ihrem praktisch unbegrenzten Publikationsplatz nochmals eine Umdrehung weiter getrieben. Eine Absurdität, die der ehemalige Chief Editor des British Medical Journals, Richard Smith, vor einiger Zeit in seinem Blog-Post „Why not auction your paper?“ sehr treffend folgendermaßen zuspitzte:

High impact journals have high rejection rates (over 90 %) and are proud of it. Who else apart from editors boast about how many customers they reject?

„Vorab Online“ verzerrt Impact-Faktoren

21. Januar 2013 von Laborjournal

Journals greifen ja mitunter zu allen möglichen Tricks, um ihre Impact-Faktoren (IF) zu erhöhen — zu lauteren, unlauteren und zu welchen, die irgendwie dazwischen liegen.

Ein solcher Trick eröffnete sich durch die Einführung, Artikel vorab online zu veröffentlichen, bevor sie in print erscheinen. Man nehme zunächst etwa Journal A, das dies nicht tut. Dessen IF des Jahres 2012 berechnet sich bekanntlich daraus, wie oft sämtliche Artikel des Journals aus den Jahren 2010 und 2011 insgesamt im darauf folgenden Jahr , also 2012, zitiert worden sind. Diesen Wert teilt man durch die Gesamtzahl der Artikel aus 2010/11 — und erhält den IF 2012.

Schauen wir uns im Vergleich Zeitschrift B an. Diese stellt schon seit geraumer Zeit die Artikel sofort nach Annahme durch die Gutachter online. Diesen Beitrag weiterlesen »