Die netten Gutachter…

25. April 2016 von Laborjournal

x

 

(Zeichnung entnommen aus „Forscher Ernst“ von Rafael Florés)

x

Journals weisen Kunden ab — und sind stolz drauf

20. Januar 2015 von Laborjournal

In seinen Autoren-Richtlinien schreibt Nature, dass es nur 7 bis 8 % der jährlich eingereichten Manuskripte tatsächlich ins gedruckte Heft schaffen.

Bei Science dagegen erblicken nach eigenen Angaben weniger als 7 % der eingereichten Manuskripte das Licht der Publikation.

Ähnlich schwierig kommt man ins British Medical Journal, das umgekehrt eine Rejection Rate von 93 % angibt.

Doch es geht noch knauseriger: The Lancet druckt gerade mal jedes zwanzigste Manuskript ab, und auch das New England Journal of Medicine macht unter der Überschrift „What to expect“ gnadenlos klar:

We publish only the top 5% of the 5,000 research submissions we receive each year.

Mit Annahmequoten von 15 % nehmen sich dagegen etwa Cell und Cancer Research  fast schon großzügig aus.

Auf gleichem Level stand vor kurzem auch das Journal of Cell Biology — allerdings schien die Tendenz damals schon fallend:

[…] our acceptance rate continues to fall (currently at an incredibly selective ~15%)

Interessanterweise beteuern all diese Edelblätter immer wieder in trauter Einigkeit, dass sie ja keineswegs plusminus 90 % Schrott-Manuskripte geschickt bekommen. Vielmehr müssen sie zu ihrem extremen Bedauern all diese wunderschönen „1B-Arbeiten“ leider deswegen ablehnen, weil sie eben nur begrenzt Platz im gedruckten Heft haben. Wäre dies nicht der Fall, dann… ja, dann…

Warum haben dann aber manche E-Journale ähnlich hohe Ablehnungsraten?

Klar, die sogenannten Mega-Journals nicht — PLoS ONE nimmt knapp 70 %der Manuskripte an, Peer J ebenfalls zwischen 60 bis 70 %. Hier stehen ja auch bewusst „lockerere“ Konzepte im Hintergrund — wie Peer J es etwa beschreibt:

[…] journals that ask peer reviewers to judge the merits of a manuscript based solely on the soundness of its methodology and conclusions, rather than novelty or expected impact.

Bei eLife geht’s dann aber mit nur noch 25 % angenommenen Manuskripten wieder scharf runter. Und mit PLoS Biology und PLoS Medicine, die sich beide mit Ablehnungsraten von über 90 % rühmen, ist man dann endgültig wieder auf dem Niveau der altehrwürdigen, gedruckten Edelblätter angekommen.

Geht es denen — im Umkehrschluss des obigen Peer J-Zitats — mit der unverändert scharfen Selektion doch vor allem um das Zurechtkneten eines hohen Impact-Faktors? Nicht wenige vermuten es (siehe etwa hier).

Wenn aber all die abgelehnten Manuskripte tatsächlich so gut sind, wie alle beteuern — dann wird die ganze Absurdität dieses hochgezüchteten Selektionsprozesses durch die erwähnten E-Journals mit ihrem praktisch unbegrenzten Publikationsplatz nochmals eine Umdrehung weiter getrieben. Eine Absurdität, die der ehemalige Chief Editor des British Medical Journals, Richard Smith, vor einiger Zeit in seinem Blog-Post „Why not auction your paper?“ sehr treffend folgendermaßen zuspitzte:

High impact journals have high rejection rates (over 90 %) and are proud of it. Who else apart from editors boast about how many customers they reject?

Undurchsichtige Stiftung?

4. Juli 2014 von Kommentar per Email

Kürzlich erhielt die Laborjournal-Redaktion eine E-Mail, in der der Verfasser die Begutachtungspolitik der Else Kröner-Fresenius-Stiftung folgendermaßen kritisiert:

Ich habe mit dem Begutachtungsverfahren der Else Kröner-Fresenius-Stiftung äußerst negative Erfahrungen gemacht.

Zwei meiner im Abstand von etwa 12 Monaten eingereichten Anträge zu unterschiedlichen wissenschaftlichen Fragestellungen wurden bereits nach jeweils 2-monatiger Bearbeitungszeit abgelehnt. In der schriftlichen Mitteilung wurde mir empfohlen, die Ablehnungsgründe telefonisch abzufragen, was ich auch tat. Die Antworten waren aber nichtssagend: Es wurden formale Gründe genannt (der Antrag sei zu lang; der Antrag sei teilweise zu deskriptiv). Als wesentlicher Grund wurde jedoch auf eine zu niedrige Priorität in einem wie auch immer gearteten Vorbegutachtungsverfahren hingewiesen.

Ich möchte erwähnen, dass die Stiftung äußerst detaillierte Projektbeschreibungen einfordert. Es müssen beispielsweise ein bewilligter Tierversuchsantrag oder ein von der Ethikkommission genehmigter Antrag vorliegen. Die Vorbereitung solcher Anträge ist zeitraubend und relativ teuer.

Es wäre interessant zu erfahren, wie das Begutachtungsverfahren bei der Stiftung strukturiert ist. Bei der DFG ist dies mittlerweile absolut transparent und nachvollziehbar. Es werden ausführliche schriftliche Gutachten verschickt, die die Empfehlungen des zuständigen Panels (deren Mitglieder demokratisch gewählt werden und namentlich auf der Homepage erscheinen) beinhalten.

Es wäre schade, falls die Else Kröner-Fresenius-Stiftung ihre Mittel unabhängig von den üblichen Vorgaben der Peer-Review-Praxis verteilen würde und stattdessen einem nicht definierten „Bauchgefühl“ anonymer Gutachter folgt. In Zeiten knapper Ressourcen sollte dies bei einer finanzstarken Stiftung vermieden werden.

Ich würde mich sehr freuen, falls Sie dieser Frage nachgehen könnten und dadurch weiteren Antragstellern ähnlicher Ärger eventuell erspart werden könnte.

Möchte dazu jemand weitere Erfahrungen mitteilen? Entweder direkt im Kommentarfenster unten oder direkt an redaktion@laborjournal.de.

Autoren am Rande des Nervenzusammenbruchs (23)

14. Februar 2014 von Laborjournal

Gerade am Telefon folgende interessante Geschichte gehört:

Forscherin hatte mit ihren Leuten eine Studie abgeschlossen, deren Ergebnisse sie für „bahnbrechend“ hielt — sowohl, was gewisse zelluläre Steuermechanismen anging, wie auch in ihrer klinischen Bedeutung. Auch das Manuskript hielt sie für überaus gelungen (was ja keineswegs automatisch der Fall ist, nur weil man gute Daten hat). Doch die Enttäuschung kam prompt: Der Editor des Edelblatts, welches sie für die Veröffentlichung ausgewählt hatte, schickte das Manuskript schnöde wieder zurück. Abgelehnt, ohne überhaupt zum Review geschickt worden zu sein!

Der Editor hatte das Manuskript offenbar nur kurz überflogen — und entschieden, dass es nicht mal einen Peer Review wert war. Warum? — fragte sich unsere Forscherin. Waren die Daten doch nicht so gut, wie sie gedacht hatte? Enthielten die Schlussfolgerungen logische Fehler? Hatte sie mit der Bedeutung der Resultate für das gesamte Feld übertrieben? Oder war es vielleicht „nur“ schlecht geschrieben? Es musste ja wohl etwas Offensichtliches sein, dass der Editor es umgehend wieder zurückschickte. Aber diesen „offensichtlichen“ Grund hätte der Editor doch wenigstens mitteilen können. Das wäre doch ein wichtiges und konstruktives Feedback gewesen.

Immer wieder drehten diese und ähnliche Gedanken ihre Kreise im Kopf der Forscherin — bis sie den Entschluss fasste, den Editor in dieser Angelegenheit nochmals anzuschreiben. Höflich erklärte sie in dem Schreiben noch einmal kurz und klar, warum sie ihre Ergebnisse für so wichtig hielt — und warum das Paper daher ihrer Meinung nach genau in dieses Journal passen würde. Nur um schließlich darum zu bitten, ihr kurz mitzuteilen, was genau die Editoren dazu bewogen hatte, das Manuskript nicht einmal begutachten zu lassen. Schließlich könne ihr eine entsprechende „handfeste“ Rückmeldung enorm helfen, das Manuskript zu verbessern — wenn auch wohl für ein anderes Journal.

Die Antwort kam eine Woche später — und ließ unsere Forscherin endgültig den Glauben an das Peer Review-System verlieren: „We cannot give you any feedback as the paper had not been sent out for review.“

„Da soll noch einer die Forschungsförderung verstehen…“

11. Dezember 2012 von Laborjournal

Aus der Reihe „Spontane Interviews, die es nie gab — die aber genau so hätten stattfinden können”. Heute: Prof. K. Eingeld, Applikatiologisches Institut Universität Unvollstädt.

LJ: Hallo, Herr Eingeld, schlechte Laune?

Eingeld: Allerdings.

LJ: Was ist passiert?

Eingeld: Antrag abgelehnt. Zum zweiten Mal.

LJ: Zweimal dasselbe Projekt?

Eingeld: Exakt.

LJ: Was lief schief?

Eingeld: Ach, beim ersten Mal waren alle Gutachter eigentlich begeistert. Jedenfalls von der Wissenschaft. Diesen Beitrag weiterlesen »

Titelschacherei

23. Oktober 2012 von Laborjournal

Wie sahne ich mit meinen Artikeln möglichst viele Zitierungen ab? Eine Frage, die sich Forscher sicherlich nicht gerade selten stellen. Kein Wunder, dass einige sogar versuchen, mit mehr oder weniger wissenschaftlichen Methoden belastbare Antworten darauf zu finden. Über eine frische Studie, nach der offenbar eine leicht höhere Wahrscheinlichkeit auf das eine oder andere zusätzliche Zitat besteht, wenn die Gutachter das Manuskript im ersten Durchgang ablehnen, berichteten wir beispielsweise erst vor kurzem im Laborjournal-Blog.

Etwas, das man selbst besser im Griff hat als die Entscheidung der Gutachter, sind die Titel der eigenen Werke. Seit einigen Jahren weiß man in diesem Zusammenhang etwa, dass humorige Überschriften bezüglich nachfolgender Zitierraten offenbar eher von Nachteil sind (J. Inform. Sci. 34: 680-7). Insbesondere Artikel mit vermeintlich richtig witzigen Titeln, so die Autoren, würden  im Schnitt vergleichsweise deutlich weniger zitiert. Diesen Beitrag weiterlesen »

Peer Review macht Paper besser

16. Oktober 2012 von Laborjournal

Anekdoten über die Ineffizienz und Willkür des Peer-Review-Systems gibt es massenweise. Dennoch scheint die klassische Begutachtung vor Veröffentlichung die biowissenschaftliche Literatur insgesamt tatsächlich zu verbessern — wenigstens ein bisschen. Zu diesem Ergebnis kommt eine kürzlich veröffentlichte Mammutstudie französischer Ökologen um Vincent Calgagno (Science, Publ. Online 11. Okt. 2012, DOI: 10.1126/science.1227833).

Mit entsprechenden Datenbanken und Software zur Hand „meta-analysierten“ die Autoren insgesamt 80.748 Artikel der Jahre 2006 bis 2008 aus 923 biowissenschaftlichen Zeitschriften, recherchierten deren jeweilige „Submission History“ — und konstruierten aus den Daten ein „Netzwerk der Manuskriptflüsse“. Diesen Beitrag weiterlesen »

Förderung nur bei „Nature-Niveau“?

21. August 2012 von Kommentar per Email

(Kürzlich erhielten wir den unten folgenden Erfahrungsbericht zum Thema DFG-Anträge. Wir haben ihn anonymisiert und überarbeitet — und stellen das Thema hiermit zur Diskussion.)

Mit großem Interesse habe ich Ihren Artikel „Außer Kontrolle“ in Laborjournal 6/2012, S. 21-25, über die Forschungsförderung der DFG gelesen. Aus diesem Grund möchte ich Ihnen meine Situation und Erfahrungen mit der DFG schildern.

Ich war mehrere Jahre wissenschaftliche Mitarbeiterin in einem biochemischen Institut; zur Zeit bin ich in der Position als Vertretungsprofessorin bis voraussichtlich Ende September 2012 eingestellt. Seit einigen Jahren versuche ich für meine Forschung Drittmittel einzuwerben, was bis auf eine Ausnahme leider erfolglos war. 2009 stellte ich schließlich wieder einen Antrag auf Sachbeihilfe bei der DFG (inklusive Beantragung meiner eigenen Stelle). Ich hatte gehofft, dass der Antrag diesmal genehmigt wird, da er auf schon veröffentlichten Daten, unter anderem im Journal of Cell Science, basierte und ich weiterhin eine interessante, neue In vivo-Methode in Deutschland etablieren wollte. Die finanziellen Mittel für die Geräte, die dafür notwendig sind, wurden mir zuvor von meiner Universität im Rahmen eines Antrags auf „Einrichtung einer eigenen Arbeitsrichtung“ genehmigt.

Im September 2010 erhielt ich den Bescheid über die Ablehnung des Antrags, obwohl die Gutachten grundsätzlich eine Förderung empfohlen haben. Diesen Beitrag weiterlesen »