„Schreiben? — Ich hasste jede Minute davon“

24. Juni 2021 von Laborjournal

Wer verbringt eigentlich mehr Zeit mit Schreiben? Wissenschaftler oder Wissen­schafts­jour­na­lis­ten?

Klingt blöd – aber der sich diese Frage vor einiger Zeit tatsächlich stellte, war unser Chefredakteur. Zwar rechnet wohl kaum einer Wissenschaftler – ganz im Gegensatz zu Journalisten – zur sogenannten „schreibenden Zunft“. Dennoch las er zuletzt einige Dinge, die ihn darüber zum Grübeln brachten.

Es ging los mit dem Bericht eines Industrie-Forschers, der in einem Blog-Beitrag auf seine Zeit als Harvard-Wissenschaftler zurückblickte. Darin schrieb er:

Die größte Überraschung war, wieviel Zeit ich damit verbringen musste, überhaupt Fördergelder zu bekommen. Ich schätze, dass etwa 40 Prozent meiner Zeit für die Jagd nach Förderung draufgingen – entweder direkt (Anträge schreiben) oder indirekt (Firmenbesuche, Vorträge, Netzwerke pflegen). Es war eine riesige Zeitinvestition, die nicht immer direkt zu meiner Forschungsarbeit beitrug. Sie diente nur dazu, die Räder überhaupt am Laufen zu halten.

40 Prozent! Auf exakt die gleiche Zahl kam schon 2007 eine entsprechende Studie der US-Regierung, die der Scientific American später in seinem Artikel Dr. No Money folgendermaßen zusammenfasste:

Öffentliche und private Fördergelder zu beantragen, ist zu einem zeitfressenden Monster geworden. 2007 ermittelte eine Studie der US-Regierung, dass Universitätsforscher etwa 40 Prozent ihrer Zeit in den entsprechenden bürokratischen Labyrinthen verbringen. Und in Europa ist die Situation nicht besser.

Sicher, das ist nicht alles direkte Schreibarbeit – aber auch der Journalist muss ja erst recherchieren, bevor er schreiben kann. Und überhaupt betreffen die 40 Prozent ja nur die Förderanträge. Unser Wissenschaftler hat dann noch kein Paper-Manuskript geschrieben – keinen Forschungsbericht, kein Gutachten, kein Gremienpapier, nicht mal eine E-Mail,…  Diesen Beitrag weiterlesen »

Gezwitscherte Paper-Probleme

28. April 2021 von Laborjournal

Can tweets be used to detect problems early with scientific papers? A case study of three retracted COVID-19/SARS-CoV-2 papers – so lautet der Titel eines frischen Scientometrics-Papers von Robin Haunschild und Lutz Bornmann, beide Forschungsevaluations- und Bibliometrie-Spezialisten bei der Max-Planck-Gesellschaft. Ob man methodische Fehler, Daten-Irrtümer, falsche Interpretationen oder gar gezielte Manipulationen in Forschungsartikeln aufgrund entsprechender Hinweise auf Twitter womöglich frühzeitig erkennen könne, wollten sie also wissen.

Übersetzt fassen sie im Abstract als Ergebnis zusammen:

[…] In dieser Fallstudie analysierten wir Tweet-Texte von drei zurückgezogenen Publikationen über COVID-19 […] und deren Retraction Notices. Hinsichtlich einer dieser Publikationen fanden wir keine Frühwarnzeichen in Tweet-Texten, dagegen fanden wir aber Tweets, die bereits kurz nach dem jeweiligen Veröffentlichungsdatum Zweifel an der Gültigkeit der beiden anderen Publikationen aufkommen ließen.

Und sie schlagen daher vor:

Eine Erweiterung unserer aktuellen Arbeit könnte zu einem Frühwarnsystem führen, das die wissenschaftliche Gemeinschaft auf Probleme mit bestimmten Publikationen aufmerksam macht. Andere Quellen, wie beispielsweise Blogs oder Post-Publication-Peer-Review-Seiten könnten in ein solches Frühwarnsystem einbezogen werden. Die in dieser Fallstudie vorgeschlagene Methodik sollte daher anhand größerer Publikationsmengen validiert werden – und zudem Publikationen als Kontrollgruppe enthalten, die nicht zurückgezogen wurden.

Damit unterfüttern die beiden Autoren das, was unser „Wissenschaftsnarr“ in seiner Laborjournal-Kolumne vor einem halben Jahr folgendermaßen als Beobachtung preisgab:

[…] Die spannendsten und besten Reviews finden sich aber derzeit ohnehin erst nach der betreffenden Publikation – seien es Preprints oder reguläre Artikel. Und diese finden inzwischen vor allem in den sozialen Medien statt. Auf gewisse Weise wurde mittlerweile auch die gründliche Qualitätskontrolle dorthin ausgelagert: Fast alle manipulierten oder sonstwie betrügerischen Arbeiten wurden zuletzt von skeptischen Lesern exponiert und dann via Twitter, PubPeer oder Blogs in den internationalen Diskurs gebracht. Und insbesondere wurden auch viele der COVID-19-Preprints letztlich auf diese Weise vom „Schwarm“ ge-reviewt.

Gerade in der Forschung finden ja nicht wenige Twitter und Co. „eher nervig“. Von solcher Art „Gezwitscher“ könnten wir uns aber dennoch alle sicherlich mehr wünschen.

Weitere Beobachtungen oder Meinungen dazu?

Ralf Neumann

 

Peer Review überflüssig, Preprint ist bestätigt

12. Februar 2020 von Laborjournal

Es dauert einfach zu lange! So lautet ein Standardvorwurf an das klassische Peer-Review-Verfahren. Und das ist nur zu verständlich. Denn es ärgert tatsächlich, dass es manchmal ein ganzes Jahr dauert, bis man nach allem Hin und Her zwischen Editoren, Reviewern und Autoren die längst vorhandenen Ergebnisse end­lich lesen kann. „Frisch“ sind sie dann schon lange nicht mehr — gerade angesichts des heut­zu­tage maximal beschleunigten Forschungs­trei­bens.

Das Dilemma ist also offensichtlich: Einerseits sollen frische Resultate schnellstmöglich in den wissenschaftlichen Erkenntnisfluss gelangen — andererseits will man aber auch an einer Quali­täts­kon­trolle vor deren offizieller Präsentation festhalten.

Hier allerdings bilden bekanntermaßen Preprints schon länger eine Lösung. Sobald Forscher ihre Manuskripte fertig haben, stellen sie diese umgehend online — etwa auf speziellen PreprintServern wie arXiv oder bioRxiv —, sodass jeder die Ergebnisse während des laufenden Peer Reviews schon mal Open Access einsehen kann.

Doch ganz problemfrei ist das auch nicht. Eine Frage ist etwa, ob man Preprints überhaupt zitieren kann? Schließlich sind sie zu diesem Zeitpunkt ja in aller Regel noch unbegutachtet.

Aus diesem Grund untersagten die meisten Journals erst einmal, dass die Autoren Preprints in den Referenzlisten ihrer eingereichten Manuskripte zitieren. Doch da diese inzwischen auch mit di­gi­ta­len Identifikationssystemen à la Digital Object Identifier (DOI) oder arXiv Identifier versehen werden, lassen viele Journals dies heute zu.

So mancher Forscher scheint dagegen jedoch weiterhin Probleme mit dem Zitieren von Preprints zu haben. Vor kurzem berichtete etwa einer in einem Forum, dass er erfolgreich eine Methode angewendet habe, die bis dahin lediglich auf einem Preprint-Server einzusehen war. Laut seinem Verständnis handelte es sich demnach um eine „unpublizierte Methode“, welche die Qua­li­täts­kon­trolle (noch) nicht bestanden hatte. Und als solche wollte er sie eben nicht zitieren.

Wen aber dann, denn seine Methode war es ja nicht?

Wie er das Problem letztlich löste, ist nicht bekannt. Interessant war aber der folgende Kom­men­tar dazu im Forum:

Ist die erfolgreiche Anwendung der Methode in einem ganz anderen Projekt nicht eine viel bessere Qualitätskontrolle, als wenn zwei Reviewer sie einfach nur durchlesen? Ist damit vielmehr nicht sogar bewiesen, dass sie funktioniert?

Wahre Worte! Falls das Methoden-Manuskript also immer noch in der Begutachtungsschleife irgendeines Journals rotiert: Eigentlich braucht’s das jetzt nicht mehr.

Ralf Neumann

(Foto: ASAPbio)

Hauptsache, man braucht Förderanträge!

17. Dezember 2019 von Laborjournal

Was wäre, wenn jeder Forscher einfach erstmal Geld bekäme? Ganz ohne Antrag, geschweige denn Peer Review? So wie einst­mals Otto Warburg, der lediglich schrieb: „Ich benötige 10.000 Mark. Otto Warburg“. Und sie tatsächlich bekam.

„Ja ja, träum‘ weiter“, mögen jetzt viele denken. Doch gemach, blättern wir hierzu ruhig mal in ein etwas älteres Heft von Accountability in Research — und reiben uns angesichts einer kanadischen Studie ungläubig die Augen (Band 16(1), S. 13-40). Da teilen uns die Autoren mit, dass ein sogenannter „Direct Baseline Discovery Grant“ des Natural Science and Engineering Research Council Canada (NSERC) im Durchschnitt 30.000 kanadische Dollar wert ist. Und dem setzen sie entgegen, was der ganze Prozess des Antragschreibens samt anschließender Bewilligung oder Ablehnung (!) durch Peer Review — nach Arbeitszeit et cetera bemessen — insgesamt kostet: nämlich satte 40.000 kanadische Dollar pro Antrag.

Selbst nach mehrmaligem Augenreiben bleibt somit das Fazit: Ein abgelehnter Antrag verbrät 10.000 Dollar mehr, als das Projekt bei Bewilligung überhaupt bekommen könnte. Da muss doch was faul sein! Und natürlich brauchen die Autoren auch keine höhere Mathematik um zu folgern, dass der NSERC sogar noch Geld sparen würde, wenn er jedem „qualifizierten Forscher“ den 30.000-Dollar-Baseline Grant einfach auf Anfrage direkt in die Hand drücken würde.

Sicher, 30.000 Dollar sind für diejenigen, die materialaufwändige Forschung betreiben, nicht viel. Dennoch spekulieren die Autoren, dass durch solcherart „effizientere“ Verteilung von Fördermitteln deutlich mehr und bessere Forschung laufen könnte — insbesondere im „Critical-Idea-or-Discovery“-Stadium. Wenn dann die ersten Ergebnisse tatsächlich vielversprechend wären, hätte man immerhin schon etwas in der Hand, um nachfolgend einen größeren — und natürlich begutachteten — Grant zu beantragen.

Bleibt noch die Frage, ob nach diesem Schema nicht Hinz und Kunz Geld bekommen könnten — und eben nicht nur „qualifizierte Forscher“. Dazu lediglich folgender Blog-Kommentar eines Forschers:

Bei jedem Karriereschritt, bei jedem einzelnen Paper werden wir immer wieder neu evaluiert. So sorgfältig und eindringlich, dass man uns doch irgendwann einmal genau in diesem einen Punkt trauen können sollte — nämlich dann, wenn wir neue Forschung anpacken.

Ralf Neumann

[Addendum: Fairerweise muss abschließend noch erwähnt werden, dass ein kanadischer Physiker die Kalkulation des Arbeitsaufwands von 40.000 kanadischen Dollar pro Antrag nachfolgend als viel zu hoch kritisierte (Accountability in Research 16(4): 229-31). Ein weiteres Paper dagegen kalkulierte für die Bearbeitung von Forschungsanträgen in Australien ähnlich hohe Ausgaben (BMJ Open 2013;3:e002800).]

 

Besser als begutachtet

26. November 2019 von Laborjournal

Warum „Forscher Ernst“ wohl bald ein Freund von Post-Publication-Peer-Review sein wird…

(Jede Menge weiterer Labor-Abenteuer von „Forscher Ernst“ gibt es hier. Zeichnungen von Rafael Flores.)

x

Peer Review und die Bewahrung des Status quo

19. November 2019 von Laborjournal

Peer Review hat einige Probleme. Eines, das zunächst einmal ganz trivial klingt, ist, dass Peer Review nur dort funktioniert, wo es auch wirkliche Peers gibt. Kann das in den Wissenschaften überhaupt nahtlos der Fall sein? Gibt es tatsächlich immer und überall solche „ebenbürtige Experten“? Ganz sicher nicht.

Fragen wir daher zunächst einmal: Wer ist „Experte“? Klar — jemand, der sich in einem bestimmten Gebiet besonders gut auskennt. Was zunächst bedeutet, dass ein Peer vor allem den Status quo eines Gebietes umfassend kennt. Womöglich hat er bei dessen Etablierung sogar entscheidend mitgeholfen.

Jetzt dreht sich aber Wissenschaft nicht nur um den Status quo — nicht mal vor allem um den Status quo. Vor allem geht es in der Wissenschaft um das, was jenseits des Status quo liegt. Neue Pfade beschreiten, Licht ins Dunkel bringen, Horizonte erweitern, zu neuen Ufern aufbrechen — das sind die Metaphern, die beschreiben, was vor allem Ziel der Wissenschaft ist. Oder, schlichter formuliert: Neue Erkenntnisse gewinnen.

Das Paradoxon dabei ist nun, dass es da, wo einer erstmals Neuland beschreitet, keine Experten geben kann. Das heißt zwar nicht, dass jeder Experte des Status quo grundsätzlich nicht mehr adäquat bewerten kann, was er von jenseits der bekannten Grenzen seines Gebietes zu hören bekommt. Aber es ist natürlich ungleich schwieriger zu beurteilen, ob jemand tatsächlich Handfestes oder totalen Blödsinn aus absolutem Neuland berichtet. Und da die Experten des Status quo auch gerne Bewahrer des Status quo sind, kippen sie auch mal das Kind mit dem Bade aus, wenn sie vermeintlich allzu abenteuerliche Berichte abschmettern.

Beispiele gibt es genug, wie letztlich richtige Ergebnisse und Schlussfolgerungen teilweise sehr lange brauchten, um sich gegen den „Experten“-Mainstream durchzusetzen: Barabara McClintocks springende Gene, Stanley Prusiners Prionen, die Helicobacter-Geschichte,… — alles Fälle, bei denen die Peers seinerzeit schlichtweg unfähig oder unwillig waren, grundlegend Neues und Richtiges zu erkennen.

Nicht zuletzt deshalb zog kürzlich der Soziologe Steve Fuller das Fazit: „Peer Review funktioniert bei ‚normaler Wissenschaft‘, hat aber auch die Macht, radikale Ideen zu unterdrücken.“

Ralf Neumann

 

Wie ambitioniert hätten Sie’s denn gerne…?

6. November 2019 von Laborjournal

Und schon wieder beschleicht „Forscher Ernst“ ein Gefühl von Gutachter-Willkür…

(Jede Menge weiterer Labor-Abenteuer von „Forscher Ernst“ gibt es hier. Zeichnungen von Rafael Flores.)

x

Wenn Umfragen plötzlich zählen

16. Oktober 2019 von Laborjournal

Gewöhnlich geben Naturwissenschaftler nicht viel auf Ergebnisse, die mit Fragebögen erhoben sind. Objektive Ergebnisse seien damit nicht möglich, ist deren klares Urteil. Zu befangen (biased) seien die „Versuchsobjekte“, zu viele nicht messbare Faktoren gingen in die Antworten ein. Mit ein Hauptgrund, weswegen „echte“ Wissenschaftler klassischen Fragebogen-Disziplinen wie Psychologie oder Soziologie allenfalls mit Argwohn begegnen.

Komisch ist allerdings, dass sie derlei Kritik offenbar komplett ausblenden, wenn ihnen die Ergebnisse solcher Umfragen gut in den Kram passen. Dann zeigt sich wie kaum irgendwo sonst, dass Naturwissenschaftler eben auch nur Menschen sind. „Seht ihr, hab’ ich doch schon immer gesagt“, heißt es dann aus deren Mündern. „Hier habt ihr es jetzt schwarz auf weiß“.

Gut zu beobachten war dieses Phänomen vor einiger Zeit anlässlich einer Umfrage zum Thema Gutachtertum (Sci. Eng. Ethics 14, S. 305). Drei US-Autoren hatten eine ordentliche Anzahl Life-Science-Forscher über ihre Erfahrungen mit Peer Review befragt. Die Ergebnisse:

  • Mindestens ein Reviewer war inkompetent, erfuhren 61,8 Prozent der Befragten.
  • Mindestens ein Reviewer war voreingenommen (biased!), bemängelten 50,5 Prozent.
  • Gutachter verlangten, unnötige Referenzen in die Publikation aufzunehmen — 22,7 Prozent.
  • Kommentare der Gutachter enthielten persönliche Angriffe — 17,7 Prozent….
  • … Bis hin zu Vertraulichkeitsbruch der Gutachter (6,8 Prozent) beziehungsweise unerlaubter Übernahme von Ideen, Daten oder Methoden aus dem Manuskript (5 Prozent).

Alles das also, worüber so gut wie jeder Forscher immer wieder wettert — jetzt mit fetten Zahlen dahinter. Solche Umfragen zählen natürlich.

Zumal es ja auch bei der Begutachtung von Förderanträgen genügend „Evidenz“ für die Unzulänglichkeiten des Peer Review gibt. Denn wie war das noch mit dem Kollegen Müller, der kürzlich ins Ausland gewechselt war? Mit dem gleichen Antrag, den die DFG vor zwei Jahren komplett abgelehnt hatte, bekam er jetzt dort die höchste Zuwendung der aktuellen Förderperiode.

Oder der Sonderforschungsbereich (SFB) vom Kollegen Schlacht? Wurde damals ebenfalls abgelehnt. Ein Jahr später jedoch waren sämtliche Einzelprojekte des einstmals erfolglosen SFB über das Normalverfahren bewilligt.

Oder Nachwuchsmann Starz. Bekam mit seinem Projektantrag von der DFG kein Stipendium und wurde dann — glücklicherweise, muss man im Nachhinein sagen — über EU-Töpfe finanziert. Und jetzt ziert sein Paper die Titelseite von Current Biology und wurde bereits breit in der internationalen Presse vorgestellt.

Doch halt, das sind ja quasi Einzelfallstudien (Case Studies)! Und die zählen bei „echten“ Naturwissenschaftlern schließlich auch nur wenig.

Ralf Neumann

Gutachter-Statistik

9. Oktober 2019 von Laborjournal

Unser „Forscher Ernst“ bekommt den Gutachter-Blues…

(Jede Menge weiterer Labor-Abenteuer von „Forscher Ernst“ gibt es hier.)

x

Die Geschichte eines idealen Peer Review

19. August 2019 von Laborjournal

Ist das Gutachterwesen via Peer Review am Ende? Viele sehen es so. Langsam, intransparent und unzuverlässig sei das klassische Peer-Review-Verfahren, meinen sie — und ange­sichts der Möglichkeiten des Internets sowieso nicht mehr zeitgemäß. Vom Missbrauchs-Potenzial ganz zu schwei­gen. Abschaffen solle man es daher, fordern sie. Ein jeder veröffentliche ohne Vorab-Begutachtung, was er habe — die Community würde schon schnell und kompetent darüber urteilen.

Dazu die folgende, wahre Peer-Review-Geschichte:

Ein der Redaktion gut bekannter Forscher schickte in seinen frühen Jahren das fertige Manuskript eines Kooperationsprojekts an das Journal seiner Wahl — und wartete… Es dauerte etwa drei Monate, bis die Nachricht des Editorial Office eintraf, inklusive den Urteilen und Kommentaren zweier anonymer Gutachter.

Reviewer No. 1 machte es kurz. Sehr kurz. In zwei Sätzen schrieb er sinngemäß: „Gutes Paper. Genau so veröffentlichen.“ Natürlich war dies das erhoffte Ergebnis, aber trotzdem war unser Forscher nicht wirklich glücklich über diese Art und Weise. Tatsächlich kroch ihm ein Gefühl der Enttäuschung in die Eingeweide: „Nur zwei Sätze? Keine Kommentare zum Inhalt? Hat der das Manuskript überhaupt gelesen?“

Plötzlich hatte unser Forscher einen Verdacht. „Könnte es sein, dass Reviewer No. 1 Professor Schneider ist? Vor über dreißig Jahren war er einer der Pioniere des gesamten Feldes, ist aber heute schon längst im Ruhestand…“ Es sprachen einige Indizien dafür. Aber eigentlich war es auch egal. Diesen Beitrag weiterlesen »

Info
Info
Info

Info

Info

Für impfbegleitende Studien und Tests Daten und Wissen generieren. Mit Elecsys ® Anti-SARS-CoV-2 S. mehr

Info

Info

Info

INTEGRA Biosciences gibt Ihnen die Chance eines von 20 VIAFLO-Mehrkanal-Pipettensets zu gewinnen mehr

Info