Die Geister des Peer Review

8. Mai 2019 von Laborjournal

Hand auf’s Herz, liebe Profs und Gruppenleiter: Wer von euch hat schon mal einen Postdoc oder anderen Mitarbeiter der eigenen AG ein Manuskript begutachten lassen, das ihm zum Peer Review geschickt wurde — und das Gutachten am Ende gänzlich unter eigenem Namen an den Journal-Editor zurückgeschickt? Rein statistisch müsste sich jetzt eigentlich jeder Zweite ertappt fühlen — jedenfalls, wenn man das Ergebnis einer aktuellen Befragung von Nachwuchsforschern durch US-Forscher mal herumdreht: Knapp die Hälfte von fünfhundert befragten Early Career Researchers gab darin an, bereits als Ghostwriter im Namen des Chefs einen Peer Review verfasst zu haben — ohne dass den Journal-Editoren deren Autorenschaft offenbart wurde (. Die große Mehrheit von ihnen kam aus den Life Sciences.

In der gleichen Umfrage verurteilten achtzig Prozent der Befragten diese Praxis der verschwie­genen Review-(Ko)-Autoren. Warum aber kommt es trotzdem zu derart vielen GhostwriterReviews?

Die Zielrichtung dieser Frage muss man vorab genauer erklären. Diesen Beitrag weiterlesen »

Für ein paar Referenzen mehr…

25. April 2019 von Laborjournal

Es war einmal ein Editor. Dies war er noch nicht lange, denn er war noch ein sehr junger Forscher. Umso stolzer machte ihn seine erste Berufung in ein Editorial Board. Schließlich durfte er das durchaus als unmittelbare Wertschätzung seiner Forschungsarbeiten deuten. Und als Aufnahme in einen gewissen, wie auch immer gearteten „Club“.

Jetzt stand sein erstes Treffen mit dem gesamten Board an, bei dem wie in jedem Jahr die Editorial Policy kritisch geprüft sowie die Schwerpunkte neu fokussiert wurden. Unser junger Mann war beeindruckt von der Routine, mit der die erfahrenen Forscher und langjährigen Editoren die Dinge auf den Punkt brachten. Alles war so, wie er es sich vorgestellt hatte.

Vor allem publikationsethisch schien unserem jungen Editor alles einwandfrei. Das war ihm besonders wichtig in diesen Tagen des „Publish or perish“ und der immer aggressiveren Konkurrenz zwischen den Journalen. „Nein, alles auf einem guten Weg hier“, dachte er. „Und ich bin dabei.“

Blieb nur noch das Abschluss-Bankett. Bei diesem nahm ihn plötzlich der Chief Editor persönlich beiseite. Diesen Beitrag weiterlesen »

Journal-Tuning

3. April 2019 von Laborjournal

Wir recherchieren gerade einen Fall, in dem ein Journal seinen Impact-Faktor offenbar auf unlautere Weise aufgeblasen hat — konkret durch übermäßiges Selbstzitieren. Dabei fiel uns ein, dass wir mal vor Jahren in einem fiktiven Stück beschrieben hatten, wie ein Chief Editor den Impact-Faktor „seines“ Journals auch ohne unlautere Mittel deutlich nach oben treiben könnte. Wir stellen es daher hier nochmals zur Diskussion:

——-

Zwanzig Jahre waren es bald, die Badguy nun Herausgeber von Molecular Blabology war. Eine Zeit, in der er viele Veränderungen erlebte. Vor allem in den letzten Jahren.

Lange war der „Chief Editor“ ein ungeheuer befriedigender Job gewesen. Immerhin war Molecular Blabology die offizielle Zeitschrift der größten blabologischen Fachgesellschaft der Welt — und vielen galt sie auch als die beste. Klar dass auch Badguy selbst im Licht der Zeitschrift erstrahlte, war er damit doch unzweifelhaft ein wichtiger und mächtiger Mann in der Szene.

Lange konnte er dieses Gefühl genießen — bis die Journal-Impact-Faktoren aufkamen. Und die bereiteten ihm eine herbe Überraschung: Molecular Blabology war in der Kategorie „Blabology and Gabblistics“ völlig unerwartet nur auf Platz sechs. Fünf Journals hatten bessere Impact-Faktoren. Und was das Schlimmste war: Auf Platz eins rangierte mit dem European Journal of Molecular Blabology ausgerechnet das Organ der konkurrierenden europäischen Fachgesellschaft.

Doch Badguy konnte nicht nur genießen, er konnte auch anpacken. Schnell wusste er bescheid, wie die Impact-Faktoren berechnet wurden — und bald hatte er auch einige Schwachstellen ausgekundschaftet, die er auf dem Weg zu einem besseren Faktor gnadenlos auszuschlachten gedachte.

Fallstudien und Essays bringen im Schnitt bei weitem nicht so viele Zitierungen wie Originalarbeiten und Technical Reports, hatte Badguy schnell herausgefunden. Zwar brachte Molecular Blabology keine Fallstudien, dafür aber vier Essays pro Heft. So schön diese in der Regel waren, Badguy würde sie streichen und statt dessen mehr Technical Reports aufnehmen. Oder besser noch: Die Zahl der Reviews pro Heft von bisher 2 auf 6 anheben, denn die bringen noch mehr Zitierungen.

Ebenso hatte Badguy spitz bekommen, dass die Zahl der Zitierungen in etwa proportional zu der Länge der einzelnen Artikel ist. Er würde also die Short Communications rausschmeißen und für die Artikel mehr Text — und damit zitierbaren „Content“ — verlangen. Seine einfache Rechnung: Weniger, aber längere Artikel, die zugleich jeder für sich häufiger zitiert werden — damit müsste der Impact-Faktor sofort einen Sprung machen. 

Badguy blieb auch nicht verborgen, dass die „Herren der Impact-Faktoren“ nur Artikel, Reviews und Notes für die Gesamtzahl der Artikel eines Journals berücksichtigten — „Citable Items“ nannten sie diese. Meeting Reports, Editorials und Correspondence-Briefe dagegen zählten sie nicht, obwohl deren Zitierungen wiederum in den Impact-Faktor eingingen. Eigentlich nicht zu verstehen, für Badguy war aber klar: Möglichst viele Meeting Reports, eine große Correspondence-Rubrik und knackige Editorials — das bringt noch mal zusätzlichen Schub.

Und dann hatte Badguy noch eine besondere Idee: Zweimal im Jahr wollte er eine Nomenklatur-Konferenz einberufen, deren Ergebnisse natürlich umgehend in Molecular Blabology erscheinen würden. Die bringen — das ist bekannt — wahnsinnig viele Zitierungen, da sämtliche nachfolgenden Originalarbeiten im betreffenden Feld diese zitieren müssen. 

Schnell hatte Badguy also ein feines „Maßnahmenbündel“ geschnürt. Der „Umbau“ würde zwar noch ein kleine Weile dauern. Aber dann wollte Badguy doch mal sehen, ob er dieses European Journal of Molecular Blabology nicht doch bald… 

——-

Tatsächlich nur Fiktion? Weit weg von der Realität?

Grafik: iStock / Jossdim

Zeigt her eure Ideen!

28. März 2019 von Laborjournal

Was macht einen guten Forscher generell aus? Mal ganz plakativ: Er sollte offene Probleme erkennen, die richtigen Fragen sowie plausible Hypothesen dazu formulieren — und insbesondere Ideen generieren, wie man dieHypothesen und Fragen auf elegante Weise testen und beantworten könnte.

Das Dumme dabei ist: Jemand, der wirklich gut in alledem ist, wird viel mehr Ideen produzieren, als er tatsächlich in konkreten Projekten verfolgen — geschweige denn zur „Erkenntnisreife“ bringen kann. Das ist die Kehrseite der immer engeren, zugleich aber immer aufwendigeren Spezialisierung der letzten Jahrzehnte. (Nicht umsonst kursiert zu diesem Dilemma schon lange der Spruch: „Wir erfahren immer mehr über immer weniger — und das wiederum mit immer höherem Aufwand.“)

Nehmen wir etwa Max Perutz, der bekanntlich die allermeiste Zeit seines Forscherlebens ausschließlich — und sehr erfolgreich — an Hämoglobin arbeitete. Glaubt jemand tatsächlich, dieser brillante Forscher hätte nur gute „Hämoglobin-Ideen“ gehabt? Sicher nicht. Die meisten davon hat er jedoch nicht weiter verfolgen können, weil sein Hämoglobin-Projekt schon sämtliche finanziellen, technischen und personellen Ressourcen komplett beanspruchte. Also wird Perutz die große Mehrheit seiner guten Ideen wie Sand zwischen den Fingern zerronnen sein — sofern er nicht mit der einen oder anderen davon jemand anderen anstecken konnte.

Und so wird es womöglich auch heute vielen gehen. Sie werden selbst erfahren haben, dass nur wenige ihrer initialen Ideen am Ende tatsächlich in ein Projektmünden — weil es unter den Zwängen des aktuellen Systems „gerade einfach nicht realisierbar ist“. Schade eigentlich! Und nicht auszudenken, wie viele überaus fruchtbare Körner da heranwachsen, die dann doch unbemerkt vertrocknen.

Der US-Physiker David Harris sah es vor vier Jahren offenbar genauso, als er sagte: „Gute Wissenschaftler haben in der Regel viel mehr Ideen, als sie verwerten können. Es wäre besser, wenn sie diese mit anderen teilen könnten.“ Zu eben diesem Zweck gründete er 2015 das Journal of Brief Ideas. „Citable ideas in fewer than 200 words“ sollte man dort wenigstens zur Diskussion stellen können.

Sicher keine schlechte Idee. Leider scheint es, als hätte sie bis heute nicht wirklich gezündet. Oder vielleicht doch? Woanders und auf andere Weise?

Ralf Neumann

Grafik: iStock / kutubQ

Gebt uns bitte mehr Wörter!

10. Januar 2019 von Laborjournal

Ob bei Paper-Manuskripten oder Konferenzen — überall werden einem strenge Limits für Sprechzeiten oder Wörterzahlen gesetzt. Die Autorin des folgenden Gastbeitrags hat sich gerade ganz besonders darüber geärgert…

Okay, vielleicht ist es mein ganz persönliches Problem. Denn ja, ich gebe zu: Bereits in der Schule habe ich mit Vorliebe ausschweifend Gedichte interpretiert und mit Freude lange Diskussionen über biologische Fragestellungen verfasst. Und dennoch, mit zunehmender Reife habe ich mittlerweile auch etwas gegen Geschwafel und unnötige Repetitionen oder Füllwörter — sei es in Text- oder Sprechform — und versuche diese grundlegend zu vermeiden. Auch ist es klar, dass man zur besseren Verständlichkeit und „Verdaulichkeit“ für Außenstehende komplexe Sachverhalte in klare, präzise und eindeutige kurze Sätze fassen (können) sollte — zumal dies überdies den Eindruck von besonderer Kompetenz in dem jeweiligen Gebiet vermittelt.

Dennoch befinde ich mich diesbezüglich gerade in einem Zwiespalt. Und bin zunehmend frustrierter.

In Journal Clubs beschweren wir uns über Publikationen, bei denen unserer Meinung nach unerhörterweise wichtige Details „nirgendwo erwähnt werden — nein, auch nicht in den Supplements!“. Ebenso ärgern wir uns bei der Etablierung oder Optimierung von Methoden und Fragestellungen über all die Publikationen, in denen Zellzahlen, Konzentrationen, Antikörper-IDs, usw. nicht oder nur unzureichend angegeben werden. Im Gegensatz dazu bricht Freude aus, wenn wir tatsächlich eine komplette Doktorarbeit (!) zu dem gewünschten Thema im Netz finden, mit der man nun endlich Schritt für Schritt sämtliche Abläufe und Details komplett nachvollziehen kann.

Wir alle arbeiten an komplexen Themen und Fragestellungen. Und um diese einem Außenstehenden ausreichend erklären zu können, bedarf es nun mal eines Mindestmaßes an Zeit oder Worten. Aber nein, gerade wir jüngeren Wissenschaftler bekommen auf Fachkonferenzen ganze drei, fünf oder — welch’ ein Glück! — zehn Minuten zur Verfügung gestellt, um unser Projekt und unsere Ergebnisse vorzustellen (oder gar uns selbst und unsere Kompetenzen?).

Sicherlich, man sollte diese Präsentationen als „Teaser“ verstehen, in denen man kurz und knackig auf sich aufmerksam macht — das Interesse weckt, um dann in der darauffolgenden Pause oder Poster-Session auf mehr und konkretere Resonanz zu hoffen. Wenn es aber um Publikationen geht, frustriert mich die Lage endgültig.

Natürlich kann ich mein Manuskript kürzen, indem ich Aussagen sinnvoll konkretisiere oder aber mit List und Tücke (etwa Bindestrichen…) die Wortzahl künstlich drücke. Aber allem ist irgendwo eine Grenze gesetzt. Und so sehe ich mich letztlich gezwungen, Details im Material- und Methodenteil rauszustreichen, da dies alles ja offenbar „Common Knowledge“ sei. Oder ich verbitte mir jeden tieferen Gedankengang oder Einblick in meine Daten, nur um der lieben Wörter willen.

Irgendwann befinde ich mich dann an dieser kritischen Grenze, ab der sich mein Manuskript durch weiteres Kürzen zwar mehr und mehr der gewünschten Wortzahl nähert, es mit jedem Wort aber auch an Stärke, an Tiefe und letztlich an lebensnotwendiger Substanz verliert. Und ich beginne mich zu fragen, ob und wo ich wohl jemals genug Zeit bekommen werde und genug Wörter verwenden werden darf, um die viele Arbeit, die ich geleistet habe, in angemessenem Maße darlegen zu dürfen? Inklusive all meiner daraus resultierenden Daten sowie den zu Grunde liegenden wichtigen Details und Erkenntnissen. Oder muss ich dafür eigens einen YouTube-Kanal einrichten beziehungsweise extra ein Buch schreiben (quasi eine weitere Dissertation)?

Doch was bleibt mir anderes übrig? Ich beuge mich dem Druck, denn Publikationen „sind alles, was zählt“ — sagen „sie“. Und so sitze ich hier und kürze mein Manuskript, von 4.000 Wörtern auf 3.000, auf 2.500 Wörter,… — ganz nach dem Geschmack des jeweiligen Journals. Und die ganze Zeit trauere ich jedem Absatz, jedem einzelnen Wort hinterher, das doch so wichtig gewesen wäre, um von vorne bis hinten eine verständliche, nachvollziehbare und reproduzierbare Geschichte zu erzählen…

Britta Klein
Institut für Anatomie und Zellbiologie der Universität Gießen

Von verdienten aber verschwiegenen Co-Autoren

4. Dezember 2018 von Laborjournal

Schau mal an! Wieder eine E-Mail eines… — nun ja, verärgerten Nachwuchsforschers. Be­schwert sich, dass er nicht als Co-Autor mit auf das jüngste Paper seiner Gruppe genommen wurde. Totaler Skandal, weil er das natürlich klar verdient gehabt hätte — mehr noch als der konkrete Zweitautor. Ob wir das nicht öffentlich machen könnten. Solches Unrecht gehöre schließlich mal an den Pranger gestellt. Und nein — ihm selbst könne nix mehr passieren, da er inzwischen die Gruppe gewechselt habe. Aber sauer sei er natürlich immer noch…

Etwa ein Dutzend solcher E-Mails bekommen wir im Jahr. Einige Male haben wir tatsächlich nachgefragt. Und stets war „der Fall“ kaum objektiv darstellbar. Bisweilen schien es sogar ziemlich plausibel, warum der „Kläger“ letztlich nicht mit auf dem besagten Paper stand.

Dabei werden offenbar tatsächlich die Nachwuchsforscher vom Postdoc bis zum Master-Studenten mit am ehesten aus den Autorenlisten draußen gelassen. Zumindest war dies eines der Ergebnisse einer Umfrage der beiden US-Soziologen John Walsh und Sahra Jabbehdari aus dem Jahr 2017. Und die hatten dazu in den USA einige Leute mehr befragt als wir hier: Am Ende konnten sie die Angaben von 2.300 Forschern zu deren eigenen Publikationen auswerten (Sci. Technol. Human Values 42(5): 872-900).

Machen wir’s kurz:

» Nach Walsh und Jabbehdari listete ein Drittel der Artikel aus Biologie, Physik und Sozialwissenschaften mindestens einen „Gastautor“ mit auf, dessen Beitrag die Anforderungen für eine Co-Autorenschaft eigentlich nicht erfüllte. Angesichts von Ehren- und Gefälligkeits-Autorschaften wie auch ganzen Co-Autor-Kartellen war ein solch hoher Anteil womöglich zu erwarten.

» Viel erstaunlicher dagegen mutet jedoch der noch höhere Anteil an Artikeln an, auf denen ein oder mehrere Co-Autoren verschwiegen wurden, die wegen ihres Beitrags zur Studie eigentlich mit aufgelistet gehört hätten. Die befragten Forscher gaben an, dass hinter ganzen 55 Prozent ihrer Artikel noch mindestens ein weiterer „Geister-Autor“ gestanden hätte. Biologie und Medizin lagen genau in diesem Schnitt, während Ingenieurs-, Umwelt- und Agrarwissenschaften noch deutlich höher lagen. Den niedrigsten Anteil an „Geister-Autoren“ ermittelten die Verfasser mit 40 Prozent für die Mathematik und Computerwissenschaften.

» Und wer wurde hierbei bevorzugt „verschwiegen“? Neben Technischen Angestellten interes­san­ter­wei­se eher Postdocs als „Graduate Students“, also Doktoranden und Master-Studenten. In der Medizin lag der Anteil der Postdocs unter den „Verschwiegenen“ etwa bei 28 Prozent gegenüber 16 Prozent „Graduate Students“; in der Biologie betrug dasselbe Verhältnis 21 gegenüber 15 Prozent.

In der Summe heißt das also, dass in den Autorenzeilen jeder fünften Veröffentlichung aus den Medizin- und Biowissenschaften mindestens ein Nachwuchsforscher fehlt, der die Nennung eigentlich verdient gehabt hätte. Sicher lässt sich einwerfen, dass die gleiche Befragung in Europa womöglich andere Zahlen liefern würde. Aber würden Sie, liebe Leser, eine Voraussage wagen, in welche Richtung sich die geschilderten US-Verhältnisse dann verschieben könnten?

Wir meinen, angesichts der Bedeutung, die Co-Autorenschaften heutzutage für wissenschaftliche Karrieren haben, liefern bereits die US-Zahlen alleine ziemlich verstörende Erkenntnisse. Und für uns daher ein Grund mehr, um E-Mails wie der oben erwähnten tatsächlich nachzugehen.

Ralf Neumann

Zeichnung: Rafael Florés

Monolog vor dem Paperschreiben

18. Oktober 2018 von Laborjournal

„Okay, erstmal kurz nachdenken! Wie pack ich’s jetzt an? Wie schreibe ich all das nette Zeug jetzt auf?

Dass ich das alles nicht so bringen kann, wie es sich wirklich abgespielt hat, ist klar. Die ganzen Irrungen und Wirrungen, die Umwege, Rückbesinnungen und Neustarts, bis wir endlich am Ziel waren — da wird der Leser ja wahnsinnig.

Warum also die Einzelteile nicht neu ordnen und das Ganze wie einen Thriller aufziehen? Zuerst beschreibe ich die Reise unseres kleinen Trupps zum Ort des Geschehens (und illustriere sie in Fig. 1), um dann dort eingehend die Umgebung zu erkunden (Fig. 2). Dabei stoßen wir natürlich — Trommelwirbel! — zielsicher auf ein ziemlich unerwartetes und dunkles Mysterium (Fig. 3).

Mit allen Mitteln der Kunst untersuchen wir den rätselhaften Ort — und sammeln tatsächlich einen Hinweis nach dem anderen, was hier eigentlich vor sich gehen könnte (Fig. 4 A bis H). Bis wir an den Punkt kommen, an dem wir innehalten und versuchen, all diese Hinweise zu einem sinnvollen Muster zu ordnen (Fig. 5 A bis D). Und dabei fällt es uns plötzlich wie Schuppen von den Augen, so dass wir — nochmal Tata! — die logische Antwort auf unser Mysterium schließlich glasklar vor uns liegen sehen (Fig. 6).

Zum endgültigen Abrunden der Story bleibt dann nur noch der Epilog, der das finale Fazit noch mal schön klar zusammenfasst (Fig. 7). Et violá!“

(… Kurzes Innehalten, dann weiter…)

„Hm… Klingt zwar gut, keine Frage. Allerdings… Ich befürchte, dass wohl nur die Allerwenigsten mein ausgefeiltes Präsentationskonzept inklusive perfekt arrangiertem Spannungsaufbau überhaupt registrieren werden. Denn wie mache ich es denn selbst als Leser? Bei der wenigen Zeit, die man für die Literatur hat? Eigentlich läuft es doch immer etwa so:

Ich schaue mir jedes Paper gerade mal bis zur Fig. 1 an, höchstens bis zur Fig. 2. Da muss es mich schon ganz schön packen, dass ich mir mehr anschaue… Was eigentlich nie passiert, da die Auflösung ja sowieso schon vorne im Abstract steht. Also schaue ich mir lieber schnell das nächste Paper an… und das nächste… und das nächste….

Vielleicht sollte ich es also doch lieber andersherum aufziehen und den großen Clou der Story gleich vorne in die Fig. 1 stecken. Dann würden all die potenziellen „Schnellgang-Drüberschauer“ vielleicht wenigstens die Hauptbotschaft mitnehmen. Und wer aus irgendeinem Grund dennoch weiter liest, bekommt dann eben noch die ganzen Hintergründe dazu…

Hm… Ich glaube, so mach‘ ich’s! Man muss am Ende eben doch nach dem gehen, wie die Leute ticken, die man erreichen will.“

Ralf Neumann

x

Von Daten, die in Schubladen verstauben

17. September 2018 von Laborjournal

Haben Sie auch noch jede Menge Daten in der sprichwörtlichen Schublade liegen? Daten, die schon lange eine nette, kleine „Story“ ergeben würden — wenn man sie nur mal in Manuskriptform bringen würde?

Wie bitte, in Ihrer Schublade schlummert Stoff für mehrere solcher kleinen, aber feinen Manuskripte? Oder in ihrem Regal?…

Keine Angst, Sie sind nicht allein.

Schon vor einiger Zeit stellte eine englische Forscherin den Kollegen in ihrem (leider nicht mehr existenten) Blog im Prinzip dieselbe Frage: „Stellt Euch vor, ihr bekommt keine Fördergelder mehr und könnt Euch einzig darauf konzentrieren, alle vorhandenen Daten zusammenzuschreiben — für wie lange hättet Ihr noch „Stoff“?“ Und sie meinte damit nicht das Umschreiben bereits eingereichter Manuskripte; es ging ihr vielmehr um die vielen, praktisch publikationssreif abgeschlossenen (Seiten-)Projekte, die bislang dennoch nie wirklich oben auf dem Schreibtisch gelandet waren.

Heraus kam, dass dieses Phänomen den meisten Forschern, die schon länger im Geschäft sind, offenbar wohlbekannt ist: Die Mehrzahl der Antworten lag zwischen drei und fünf Jahren.

Drei bis fünf Jahre lang könnte der Durchschnitts-Seniorforscher also noch Manuskripte schreiben — allein mit den Daten, die er längst schon hat. Da er diese Zeit aber beileibe nicht nur mit Paperschreiben verbringen kann, werden wohl jede Menge dieser interessanten kleinen (und hin und wieder vielleicht sogar großen) Geschichten niemals veröffentlicht. „Survival of the fittest results“ nennt die Autorin das treffend.

Woher aber kommt der entsprechende Selektionsdruck? Wohl daher, dass das Publikations-dominierte Belohnungssystem dem Forscher die folgende Zwickmühle beschert hat: Will er seinen Job gut machen, sollte er stets seine Resultate sorgfältig prüfen, hart nach alternativen Erklärungen fahnden und sie immer mit der aktuellen Literatur abgleichen. Das allerdings kostet Zeit. Wenn Forscher X aber zu viel Zeit mit diesen Dingen „vertrödelt“, riskiert er, als unproduktiv abgestempelt zu werden. Und dann kann es schnell schwer werden, weiterhin Fördergelder zu bekommen.

Also bunkert Forscher X das weniger dringende Material in der Schublade und schreibt lieber erstmal den nächsten Antrag — nicht zuletzt auch, um das Hauptprojekt der Gruppe weiter am Laufen zu halten. Wird dieser dann bewilligt, muss er natürlich umgehend die beantragten Projekte auch machen. Mit den resultierenden Daten muss er gleich wieder Paper schreiben, damit er frische Argumente für den nächsten Folgeantrag hat… — und so geht das Spiel in die nächste Runde

Und während diese Mühle unerbittlich weiter läuft, versinkt das, was er in der Schublade bunkert, tiefer und tiefer im Staub.

Wer weiß, wie viele kleine Schätze mit etwas weniger Antragsdruck von dort geborgen werden könnten..

Ralf Neumann

Foto: iStock / Paperkites

x

Der „Fake Science-Skandal“ – eine Meinung!

25. Juli 2018 von Laborjournal

Nach langer und aufwendiger Recherche eines Journalisten-Konsortiums von Süddeutscher Zeitung, WDR und NDR haben die betreffenden Medien kürzlich ihre Beiträge zum Thema Pseudojournale und schlechte Wissenschaft veröffentlicht. Was darauf folgte, ist der aktuelle „Skandal“ um sogenannte „Fake Science“. Oder auch #fakescience.

Was ich dabei nicht verstehe, ist, warum der Hochschulverband, die Universitäten und Wissenschaftsorganisationen es unterlassen, die mangelhafte Recherche des Konsortiums zu kritisieren. Stattdessen übt man sich in Selbstkritik, kritisiert Wissenschaftler und weist nur sehr vorsichtig darauf hin, dass ja nicht alle Publikationen in sogenannten „Raubtier-Journalen“ (predatory journals) Fälschungen sein müssen. In vorauseilendem Gehorsam schreibt die Präsidentin der Universität Marburg alle Wissenschaftler an, die in vermeintlichen „Raubtier-Journalen“ publiziert haben und verlangt eine Rechtfertigung — ohne jeden Hinweis auf wissenschaftliches Fehlverhalten in Form von gefälschten Daten.

Was ist überhaupt ein „Raubtier-Journal“?

Eins, das Publikationsgebühren nimmt? Nein, das machen fast alle seriösen Journale.

Eins, das keinen Impact-Factor (IF) angibt? Nein, manche seriöse Journale verzichten ausdrücklich auf die Angabe des stark kritisierten IF.

Eins, das kein beziehungsweise ein schlechtes Peer Reviewing hat? Woher sollen die Wissenschaftler das wissen, wenn das Journal behauptet, dass ein Peer Review stattfindet?

Eins, dass Wissenschaftler anschreibt und zu Publikationen auffordert? Das ist lästig und verstopft den E-Mail Ordner. Aber nein, das tun solide Journals bisweilen auch!

Der Übergang von soliden Journalen zu „Raubtieren“ ist fließend. Große Verlage geben sowohl Qualitäts-Journals als auch minderwertige Zeitschriften heraus, die zumindest im Graubereich der „Raubtiere“ liegen. Der (leider noch immer) renommierte Elsevier-Verlag „verkauft“ das beliebte „Scopus-Indexing“ an alle möglichen Zeitschriften, die sehr viel irrelevante Papers mit unzureichenden Daten publizieren. Das sind meist keine Fälschungen, sehr oft aber Publikationen von schlechter Qualität oder mit Daten von geringem allgemeinen Interesse (gegen letzteres ist nichts einzuwenden!).

Was ist schlechtes oder fehlendes Peer Reviewing? Wenn sich eine Zeitschrift eine Gruppe „großzügiger“ Gutachter hält, die allen „Junk“ durchwinken? Oder wenn der Editor alleine entscheidet, ein Manuskript anzunehmen? Als Geschäftsmodell ist das gewiss unmoralisch — aber die Autoren wissen das (meistens) nicht. Und: „großzügige“ Gutachter findet man auch mehr oder weniger häufig bei renommierten Journalen. Ich erinnere mich, dass ein Manuskript bei einer sehr (!) renommierten amerikanischen Zeitschrift innerhalb von fünf Stunden (einschließlich zwei Reviews) angenommen wurde. Das Paper war gut, aber die Begutachtung war — vorsichtig ausgedrückt — etwas oberflächlich.

Die „weltweite“ Betrachtung von „Raubtier-Journalen“ verzerrt vermutlich die Untersuchung — wohl vor allem, weil eine ordentliche Definition fehlt. In vielen weniger entwickelten Ländern gibt es eine Unmenge wissenschaftlicher Zeitschriften, die viele minderwertige sowie schlecht oder gar nicht überprüfte Daten veröffentlichen. Teilweise sind sie staatlich subventioniert, teilweise durch Scopus „geadelt“ — alle nehmen, für europäische Verhältnisse, moderate Publikationsgebühren. Im Gutachtergremium sitzen meist einige gute Wissenschaftler aus den USA, Europa oder Japan.

 

Ich habe selbst ein Jahr lang im Editorial Board einer solchen Zeitschrift gesessen, die von einer der Top-Universitäten Indonesiens herausgegeben wurde. Nachdem alle Manuskripte, die ich zu begutachten hatte, trotz meiner Ablehnung unverändert publiziert wurden, bin ich zurückgetreten. Sind das „Raubtiere“? Nach meiner Ansicht nicht. Es sind schlechte Zeitschriften, und sie publizieren viel „Junk“ — aber das wird leider von den dortigen Wissenschaftssystemen (inklusive dem Wissenschaftsministerium) ausdrücklich gefordert!

Muss man einem deutschen Wissenschaftler, der im Rahmen einer Zusammenarbeit auf einem Paper in einer minderwertigen Zeitschrift steht (nicht unbedingt einem minderwertigen Paper!), einen Vorwurf machen?

Die Autoren berichten vom tragischen Fall der Krebspatientin Miriam Pielhau, die falschen Studien zum Opfer gefallen ist. „Miriam war eine Krebsexpertin“, wird gesagt. Nein, war sie nicht! Wissenschaftliche Publikationen sind für ein Fachpublikum geschrieben, und Fachexperten können solche Arbeiten auch beurteilen. „Laien-Experten“ können das nicht. Frau Pielhau wäre der Fake-Therapie, die in Deutschland nicht zugelassen ist, nicht zum Opfer gefallen, wenn sie wirkliche Experten gefragt und sich auf die Zulassungsordnung in Deutschland verlassen hätte.

Eine gewisse Schuld tragen aber auch die Medien, die in Talkshows Nicht-Fachleute als Experten präsentieren und ihnen Raum für wissenschaftlich zweifelhafte Statements geben. So entsteht der Eindruck, dass jeder der googeln kann, innerhalb kürzester Zeit zum Fachexperten wird.

Süddeutsche, NDR und WDR implizieren, dass (fast) alle Artikel in „Raubtier-Journalen“ Fälschungen sind oder Interessen der Industrie vertreten. In „Exklusiv im Ersten“ wird berichtet, dass sie 170.000 Paper „ausgewertet“ haben. Wie viele davon wirklich Fälschungen sind, haben sie nicht untersucht. Gehen wir von ein bis zwei Prozent deutscher Publikationen in sogenannten „Raubtier-Journalen“ aus. Wie viele davon sind „Fake“ (enthalten gefälschte Daten), „Junk“ (enthalten schlechte Daten) — und wie viele enthalten korrekte Daten von geringem allgemeinem Interesse, die man nicht in einem Top-Journal unterbringen kann? Die Autoren bleiben die Antwort schuldig, berichten aber über einen „Skandal“. Der Anteil an „echtem Fake“ wird vermutlich im unteren Promillebereich liegen.

Fake-Konferenzen dagegen sind meist gut getarnte Geldschneiderei, aber inzwischen kennt man die Masche. Die im Film gezeigte „Weltkonferenz“ mit schätzungsweise dreißig Teilnehmern ist eigentlich ein gutes Zeichen: Darauf fällt kaum noch jemand herein.

Es ist jedoch auffällig, dass die öffentlichen Medien weit überproportional schlechter oder gefälschter Forschung zum Opfer fallen — unabhängig davon, ob sie in renommierten Zeitschriften oder in mutmaßlichen „Raubtier-Journalen“ steht. Bisweilen schaffen es sogar „Pseudo-Daten“ ohne jeden wissenschaftlichen Hintergrund in die Schlagzeilen. Das schlimmste Beispiel ist eine „wissenschaftliche“ Facebook-Publikation, die von einer politischen Partei inszeniert wurde. Ohne Recherche wurde sie in viele sogenannte Qualitätsmedien aufgenommen. Auf Anfrage antwortete ein Journalist dazu: „Das ist eine zuverlässige Quelle, eine Recherche war nicht erforderlich.“ Geht’s noch! Sollte man nicht gerade von Wissenschaftsjournalisten erwarten, dass sie recherchieren, die Glaubwürdigkeit eines Artikels überprüfen und zuverlässige Experten kennen, die sie befragen können.

Ganz zweifellos ist die Wissenschaft zur Selbstkontrolle verpflichtet. Wissenschaftliches Fehlverhalten wird von Universitäten, Forschungsinstituten und den Förderinstitutionen sorgfältig untersucht und gegebenenfalls geahndet. Ob neben Ombudsleuten und Ethikkommissionen eine weitere „Publikationspolizei“ erforderlich und hilfreich ist, möchte ich bezweifeln. Zumindest in den Naturwissenschaften gibt es zwar einen gewaltigen Publikationsdruck, Publikationen in minderwertigen Zeitschriften sind jedoch weder für die wissenschaftliche Karriere noch für die Einwerbung von Fördergeldern förderlich.

Sicher, der Markt an wissenschaftlichen Zeitschriften ist sehr unübersichtlich geworden. Der Publikationsdruck ist hoch, aber es wird auch exponentiell mehr Wissen produziert. Soll man den Publikationsmarkt daher regulieren? Ich hielte das für einen fatalen Eingriff in die Wissenschaftsfreiheit. Es gibt viele großartige Beispiele dafür, wie sich Wissenschaft selbst reguliert, wie Daten angezweifelt werden und dann mit mehr oder mit besseren Experimenten bestätigt oder falsifiziert werden — ohne dass jemand gefälscht oder betrogen hat. Und es gibt viele Experimente, mit denen tatsächlich spektakuläre (aber falsche) Publikationen experimentell widerlegt wurden. Von den Medien werden die spektakulären Ergebnisse indes allzu gerne aufgegriffen, ihre Falsifizierung aber leider zu oft ignoriert.

Ist es Paranoia? Oder könnte es sein, dass von einem dringend reformbedürftigen Wissenschaftsjournalismus die Glaubwürdigkeit von Wissenschaft durch Skandalisierung grundsätzlich diskreditiert werden soll? Wenn es so viel „Fake Science“ gibt, dann ist Wissenschaft doch nichts anderes als eine Meinung unter vielen, die gleichberechtigt neben Homöopathie, alternativer Medizin und biodynamischem Landbau steht — und eine flache Erde ist ebenso eine Hypothese wie der Globus.

„Fake Science“ ist eine Verallgemeinerung. Der Journalismus hat sich massiv gegen den Begriff „Lügenpresse“ gewehrt, weil er einige wenige Falschinformationen in den öffentlichen Medien auf die gesamte Branche extrapoliert. Wenn Journalisten jetzt den Begriff „Fake Science“ erfinden, ist das dann in Ordnung?

Wolfgang Nellen

 

(Wolfgang Nellen war bis 2015 Professor für Genetik an der Universität Kassel und ist seitdem Gastprofessor an der Brawijaya University in Malang, Indonesien. Von 2011 bis 2014 war er Präsident des Verbandes Biologie, Biowissenschaften und Biomedizin in Deutschland, VBIO e. V.)

 

Reproduzierbarkeitskrise? — Selber schuld!

13. Juni 2018 von Laborjournal

(Zugegeben, der folgende Text erschien bereits in etwas anderer Form als Editorial unserer Print-Ausgabe 10/2014. Kürzlich versicherte uns jedoch ein Leser, dass sich bis heute nichts an der Brisanz des Inhalts geändert habe — und dass es durchaus Sinn mache, ihn nochmals zu reproduzieren. Womit wir beim Thema wären…)

 

Die Forschung hat ein Reproduzierbarkeitsproblem. Mehrere Handvoll Studien zum Thema sind inzwischen publiziert — allesamt mit dem ernüchternden Ergebnis, dass die Autoren jeweils weit über die Hälfte speziell ausgewählter Studien nicht „nachkochen“ konnten (LJ 3/2014: 18-23). Und bekanntlich gilt ja nur als robustes wissenschaftliches Resultat, was unabhängig in Oslo, Osaka, Ouadougou oder wo auch immer reproduziert werden kann.

Doch nicht nur die Reproduzierbarkeit macht Sorgen. Seit 2005 mahnt der inzwischen berühmt-berüchtigte US-Epidemiologe John Ioannidis unermüdlich, dass die Mehrzahl der Forschungsergebnisse falsch sei — und zwar schlichtweg wegen lausiger und somit unhaltbarer Statistik (siehe auch unser Interview mit Ioannidis in Lab Times 4/2014: 30-33). „Why Most Published Research Findings Are False“ lautete damals der Titel seines aufsehenerregenden Papers in PLoS ONE (Bd. 2(8): e124).

Seitdem ist er nicht allein geblieben. Erst kürzlich griff etwa der Berliner Neurologe Ulrich Dirnagl das Thema in unserem Jubiläumsheft „20 Jahre Laborjournal“ mit einer eigenen Analyse auf (LJ 7-8/2014: 38-41). „Sind die meisten Forschungsergebnisse tatsächlich falsch?“, fragte er in Anlehnung an Ioannidis in der Überschrift. Und gab die Antwort bereits im Vorspann: „Leider ja — Bias und schlechte Statistik fluten viele Paper mit falsch positiven Resultaten.“

Bias, schlechte Statistik, Reproduzierbarkeitsmangel — all dies zusammen ergibt schnell ein übel riechendes Gebräu, über dem man leicht naserümpfend diagnostizieren kann: „Der Patient Wissenschaft ist wirklich krank.“ Doch worin könnte die Therapie bestehen? Man kann es drehen und wenden, wie man will — man landet immer wieder bei den Autoren und ihren Pflichten. Die folgenden zwei, gar nicht mal ganz neuen Studien sollen dies unterstreichen…       Diesen Beitrag weiterlesen »

Information 1


Information 2


Information 2


Info

Info

INTEGRA bietet Ihnen die Chance, eine von 100 PIPETBOY acu 2 Pipettierhilfen zu gewinnen. Erfahren Sie hier wie! mehr

Info

Info

Exakte und re­pro­du­zier­bare Daten sind Vor­aus­set­zung für erfolgreiches Publizieren. Erfahren Sie mehr! mehr

Info

Info

Die Zellkultureinsätze Insert 2in1 können in 6-, 12- oder 24-well Platten stehend und hängend verwendet werden. mehr

Info

Info

The Cubis© II platform is the only lab balance with fully customizable hardware, software, and connectivity. mehr

Info

Info

Im September 1991 wanderten zwei Touristen in den Ötztaler Alpen, als sie die Leiche eines Mannes fanden. mehr