Monolog vor dem Paperschreiben

18. Oktober 2018 von Laborjournal

„Okay, erstmal kurz nachdenken! Wie pack ich’s jetzt an? Wie schreibe ich all das nette Zeug jetzt auf?

Dass ich das alles nicht so bringen kann, wie es sich wirklich abgespielt hat, ist klar. Die ganzen Irrungen und Wirrungen, die Umwege, Rückbesinnungen und Neustarts, bis wir endlich am Ziel waren — da wird der Leser ja wahnsinnig.

Warum also die Einzelteile nicht neu ordnen und das Ganze wie einen Thriller aufziehen? Zuerst beschreibe ich die Reise unseres kleinen Trupps zum Ort des Geschehens (und illustriere sie in Fig. 1), um dann dort eingehend die Umgebung zu erkunden (Fig. 2). Dabei stoßen wir natürlich — Trommelwirbel! — zielsicher auf ein ziemlich unerwartetes und dunkles Mysterium (Fig. 3).

Mit allen Mitteln der Kunst untersuchen wir den rätselhaften Ort — und sammeln tatsächlich einen Hinweis nach dem anderen, was hier eigentlich vor sich gehen könnte (Fig. 4 A bis H). Bis wir an den Punkt kommen, an dem wir innehalten und versuchen, all diese Hinweise zu einem sinnvollen Muster zu ordnen (Fig. 5 A bis D). Und dabei fällt es uns plötzlich wie Schuppen von den Augen, so dass wir — nochmal Tata! — die logische Antwort auf unser Mysterium schließlich glasklar vor uns liegen sehen (Fig. 6).

Zum endgültigen Abrunden der Story bleibt dann nur noch der Epilog, der das finale Fazit noch mal schön klar zusammenfasst (Fig. 7). Et violá!“

(… Kurzes Innehalten, dann weiter…)

„Hm… Klingt zwar gut, keine Frage. Allerdings… Ich befürchte, dass wohl nur die Allerwenigsten mein ausgefeiltes Präsentationskonzept inklusive perfekt arrangiertem Spannungsaufbau überhaupt registrieren werden. Denn wie mache ich es denn selbst als Leser? Bei der wenigen Zeit, die man für die Literatur hat? Eigentlich läuft es doch immer etwa so:

Ich schaue mir jedes Paper gerade mal bis zur Fig. 1 an, höchstens bis zur Fig. 2. Da muss es mich schon ganz schön packen, dass ich mir mehr anschaue… Was eigentlich nie passiert, da die Auflösung ja sowieso schon vorne im Abstract steht. Also schaue ich mir lieber schnell das nächste Paper an… und das nächste… und das nächste….

Vielleicht sollte ich es also doch lieber andersherum aufziehen und den großen Clou der Story gleich vorne in die Fig. 1 stecken. Dann würden all die potenziellen „Schnellgang-Drüberschauer“ vielleicht wenigstens die Hauptbotschaft mitnehmen. Und wer aus irgendeinem Grund dennoch weiter liest, bekommt dann eben noch die ganzen Hintergründe dazu…

Hm… Ich glaube, so mach‘ ich’s! Man muss am Ende eben doch nach dem gehen, wie die Leute ticken, die man erreichen will.“

Ralf Neumann

x

Von Daten, die in Schubladen verstauben

17. September 2018 von Laborjournal

Haben Sie auch noch jede Menge Daten in der sprichwörtlichen Schublade liegen? Daten, die schon lange eine nette, kleine „Story“ ergeben würden — wenn man sie nur mal in Manuskriptform bringen würde?

Wie bitte, in Ihrer Schublade schlummert Stoff für mehrere solcher kleinen, aber feinen Manuskripte? Oder in ihrem Regal?…

Keine Angst, Sie sind nicht allein.

Schon vor einiger Zeit stellte eine englische Forscherin den Kollegen in ihrem (leider nicht mehr existenten) Blog im Prinzip dieselbe Frage: „Stellt Euch vor, ihr bekommt keine Fördergelder mehr und könnt Euch einzig darauf konzentrieren, alle vorhandenen Daten zusammenzuschreiben — für wie lange hättet Ihr noch „Stoff“?“ Und sie meinte damit nicht das Umschreiben bereits eingereichter Manuskripte; es ging ihr vielmehr um die vielen, praktisch publikationssreif abgeschlossenen (Seiten-)Projekte, die bislang dennoch nie wirklich oben auf dem Schreibtisch gelandet waren.

Heraus kam, dass dieses Phänomen den meisten Forschern, die schon länger im Geschäft sind, offenbar wohlbekannt ist: Die Mehrzahl der Antworten lag zwischen drei und fünf Jahren.

Drei bis fünf Jahre lang könnte der Durchschnitts-Seniorforscher also noch Manuskripte schreiben — allein mit den Daten, die er längst schon hat. Da er diese Zeit aber beileibe nicht nur mit Paperschreiben verbringen kann, werden wohl jede Menge dieser interessanten kleinen (und hin und wieder vielleicht sogar großen) Geschichten niemals veröffentlicht. „Survival of the fittest results“ nennt die Autorin das treffend.

Woher aber kommt der entsprechende Selektionsdruck? Wohl daher, dass das Publikations-dominierte Belohnungssystem dem Forscher die folgende Zwickmühle beschert hat: Will er seinen Job gut machen, sollte er stets seine Resultate sorgfältig prüfen, hart nach alternativen Erklärungen fahnden und sie immer mit der aktuellen Literatur abgleichen. Das allerdings kostet Zeit. Wenn Forscher X aber zu viel Zeit mit diesen Dingen „vertrödelt“, riskiert er, als unproduktiv abgestempelt zu werden. Und dann kann es schnell schwer werden, weiterhin Fördergelder zu bekommen.

Also bunkert Forscher X das weniger dringende Material in der Schublade und schreibt lieber erstmal den nächsten Antrag — nicht zuletzt auch, um das Hauptprojekt der Gruppe weiter am Laufen zu halten. Wird dieser dann bewilligt, muss er natürlich umgehend die beantragten Projekte auch machen. Mit den resultierenden Daten muss er gleich wieder Paper schreiben, damit er frische Argumente für den nächsten Folgeantrag hat… — und so geht das Spiel in die nächste Runde

Und während diese Mühle unerbittlich weiter läuft, versinkt das, was er in der Schublade bunkert, tiefer und tiefer im Staub.

Wer weiß, wie viele kleine Schätze mit etwas weniger Antragsdruck von dort geborgen werden könnten..

Ralf Neumann

Foto: iStock / Paperkites

x

Der „Fake Science-Skandal“ – eine Meinung!

25. Juli 2018 von Laborjournal

Nach langer und aufwendiger Recherche eines Journalisten-Konsortiums von Süddeutscher Zeitung, WDR und NDR haben die betreffenden Medien kürzlich ihre Beiträge zum Thema Pseudojournale und schlechte Wissenschaft veröffentlicht. Was darauf folgte, ist der aktuelle „Skandal“ um sogenannte „Fake Science“. Oder auch #fakescience.

Was ich dabei nicht verstehe, ist, warum der Hochschulverband, die Universitäten und Wissenschaftsorganisationen es unterlassen, die mangelhafte Recherche des Konsortiums zu kritisieren. Stattdessen übt man sich in Selbstkritik, kritisiert Wissenschaftler und weist nur sehr vorsichtig darauf hin, dass ja nicht alle Publikationen in sogenannten „Raubtier-Journalen“ (predatory journals) Fälschungen sein müssen. In vorauseilendem Gehorsam schreibt die Präsidentin der Universität Marburg alle Wissenschaftler an, die in vermeintlichen „Raubtier-Journalen“ publiziert haben und verlangt eine Rechtfertigung — ohne jeden Hinweis auf wissenschaftliches Fehlverhalten in Form von gefälschten Daten.

Was ist überhaupt ein „Raubtier-Journal“?

Eins, das Publikationsgebühren nimmt? Nein, das machen fast alle seriösen Journale.

Eins, das keinen Impact-Factor (IF) angibt? Nein, manche seriöse Journale verzichten ausdrücklich auf die Angabe des stark kritisierten IF.

Eins, das kein beziehungsweise ein schlechtes Peer Reviewing hat? Woher sollen die Wissenschaftler das wissen, wenn das Journal behauptet, dass ein Peer Review stattfindet?

Eins, dass Wissenschaftler anschreibt und zu Publikationen auffordert? Das ist lästig und verstopft den E-Mail Ordner. Aber nein, das tun solide Journals bisweilen auch!

Der Übergang von soliden Journalen zu „Raubtieren“ ist fließend. Große Verlage geben sowohl Qualitäts-Journals als auch minderwertige Zeitschriften heraus, die zumindest im Graubereich der „Raubtiere“ liegen. Der (leider noch immer) renommierte Elsevier-Verlag „verkauft“ das beliebte „Scopus-Indexing“ an alle möglichen Zeitschriften, die sehr viel irrelevante Papers mit unzureichenden Daten publizieren. Das sind meist keine Fälschungen, sehr oft aber Publikationen von schlechter Qualität oder mit Daten von geringem allgemeinen Interesse (gegen letzteres ist nichts einzuwenden!).

Was ist schlechtes oder fehlendes Peer Reviewing? Wenn sich eine Zeitschrift eine Gruppe „großzügiger“ Gutachter hält, die allen „Junk“ durchwinken? Oder wenn der Editor alleine entscheidet, ein Manuskript anzunehmen? Als Geschäftsmodell ist das gewiss unmoralisch — aber die Autoren wissen das (meistens) nicht. Und: „großzügige“ Gutachter findet man auch mehr oder weniger häufig bei renommierten Journalen. Ich erinnere mich, dass ein Manuskript bei einer sehr (!) renommierten amerikanischen Zeitschrift innerhalb von fünf Stunden (einschließlich zwei Reviews) angenommen wurde. Das Paper war gut, aber die Begutachtung war — vorsichtig ausgedrückt — etwas oberflächlich.

Die „weltweite“ Betrachtung von „Raubtier-Journalen“ verzerrt vermutlich die Untersuchung — wohl vor allem, weil eine ordentliche Definition fehlt. In vielen weniger entwickelten Ländern gibt es eine Unmenge wissenschaftlicher Zeitschriften, die viele minderwertige sowie schlecht oder gar nicht überprüfte Daten veröffentlichen. Teilweise sind sie staatlich subventioniert, teilweise durch Scopus „geadelt“ — alle nehmen, für europäische Verhältnisse, moderate Publikationsgebühren. Im Gutachtergremium sitzen meist einige gute Wissenschaftler aus den USA, Europa oder Japan.

 

Ich habe selbst ein Jahr lang im Editorial Board einer solchen Zeitschrift gesessen, die von einer der Top-Universitäten Indonesiens herausgegeben wurde. Nachdem alle Manuskripte, die ich zu begutachten hatte, trotz meiner Ablehnung unverändert publiziert wurden, bin ich zurückgetreten. Sind das „Raubtiere“? Nach meiner Ansicht nicht. Es sind schlechte Zeitschriften, und sie publizieren viel „Junk“ — aber das wird leider von den dortigen Wissenschaftssystemen (inklusive dem Wissenschaftsministerium) ausdrücklich gefordert!

Muss man einem deutschen Wissenschaftler, der im Rahmen einer Zusammenarbeit auf einem Paper in einer minderwertigen Zeitschrift steht (nicht unbedingt einem minderwertigen Paper!), einen Vorwurf machen?

Die Autoren berichten vom tragischen Fall der Krebspatientin Miriam Pielhau, die falschen Studien zum Opfer gefallen ist. „Miriam war eine Krebsexpertin“, wird gesagt. Nein, war sie nicht! Wissenschaftliche Publikationen sind für ein Fachpublikum geschrieben, und Fachexperten können solche Arbeiten auch beurteilen. „Laien-Experten“ können das nicht. Frau Pielhau wäre der Fake-Therapie, die in Deutschland nicht zugelassen ist, nicht zum Opfer gefallen, wenn sie wirkliche Experten gefragt und sich auf die Zulassungsordnung in Deutschland verlassen hätte.

Eine gewisse Schuld tragen aber auch die Medien, die in Talkshows Nicht-Fachleute als Experten präsentieren und ihnen Raum für wissenschaftlich zweifelhafte Statements geben. So entsteht der Eindruck, dass jeder der googeln kann, innerhalb kürzester Zeit zum Fachexperten wird.

Süddeutsche, NDR und WDR implizieren, dass (fast) alle Artikel in „Raubtier-Journalen“ Fälschungen sind oder Interessen der Industrie vertreten. In „Exklusiv im Ersten“ wird berichtet, dass sie 170.000 Paper „ausgewertet“ haben. Wie viele davon wirklich Fälschungen sind, haben sie nicht untersucht. Gehen wir von ein bis zwei Prozent deutscher Publikationen in sogenannten „Raubtier-Journalen“ aus. Wie viele davon sind „Fake“ (enthalten gefälschte Daten), „Junk“ (enthalten schlechte Daten) — und wie viele enthalten korrekte Daten von geringem allgemeinem Interesse, die man nicht in einem Top-Journal unterbringen kann? Die Autoren bleiben die Antwort schuldig, berichten aber über einen „Skandal“. Der Anteil an „echtem Fake“ wird vermutlich im unteren Promillebereich liegen.

Fake-Konferenzen dagegen sind meist gut getarnte Geldschneiderei, aber inzwischen kennt man die Masche. Die im Film gezeigte „Weltkonferenz“ mit schätzungsweise dreißig Teilnehmern ist eigentlich ein gutes Zeichen: Darauf fällt kaum noch jemand herein.

Es ist jedoch auffällig, dass die öffentlichen Medien weit überproportional schlechter oder gefälschter Forschung zum Opfer fallen — unabhängig davon, ob sie in renommierten Zeitschriften oder in mutmaßlichen „Raubtier-Journalen“ steht. Bisweilen schaffen es sogar „Pseudo-Daten“ ohne jeden wissenschaftlichen Hintergrund in die Schlagzeilen. Das schlimmste Beispiel ist eine „wissenschaftliche“ Facebook-Publikation, die von einer politischen Partei inszeniert wurde. Ohne Recherche wurde sie in viele sogenannte Qualitätsmedien aufgenommen. Auf Anfrage antwortete ein Journalist dazu: „Das ist eine zuverlässige Quelle, eine Recherche war nicht erforderlich.“ Geht’s noch! Sollte man nicht gerade von Wissenschaftsjournalisten erwarten, dass sie recherchieren, die Glaubwürdigkeit eines Artikels überprüfen und zuverlässige Experten kennen, die sie befragen können.

Ganz zweifellos ist die Wissenschaft zur Selbstkontrolle verpflichtet. Wissenschaftliches Fehlverhalten wird von Universitäten, Forschungsinstituten und den Förderinstitutionen sorgfältig untersucht und gegebenenfalls geahndet. Ob neben Ombudsleuten und Ethikkommissionen eine weitere „Publikationspolizei“ erforderlich und hilfreich ist, möchte ich bezweifeln. Zumindest in den Naturwissenschaften gibt es zwar einen gewaltigen Publikationsdruck, Publikationen in minderwertigen Zeitschriften sind jedoch weder für die wissenschaftliche Karriere noch für die Einwerbung von Fördergeldern förderlich.

Sicher, der Markt an wissenschaftlichen Zeitschriften ist sehr unübersichtlich geworden. Der Publikationsdruck ist hoch, aber es wird auch exponentiell mehr Wissen produziert. Soll man den Publikationsmarkt daher regulieren? Ich hielte das für einen fatalen Eingriff in die Wissenschaftsfreiheit. Es gibt viele großartige Beispiele dafür, wie sich Wissenschaft selbst reguliert, wie Daten angezweifelt werden und dann mit mehr oder mit besseren Experimenten bestätigt oder falsifiziert werden — ohne dass jemand gefälscht oder betrogen hat. Und es gibt viele Experimente, mit denen tatsächlich spektakuläre (aber falsche) Publikationen experimentell widerlegt wurden. Von den Medien werden die spektakulären Ergebnisse indes allzu gerne aufgegriffen, ihre Falsifizierung aber leider zu oft ignoriert.

Ist es Paranoia? Oder könnte es sein, dass von einem dringend reformbedürftigen Wissenschaftsjournalismus die Glaubwürdigkeit von Wissenschaft durch Skandalisierung grundsätzlich diskreditiert werden soll? Wenn es so viel „Fake Science“ gibt, dann ist Wissenschaft doch nichts anderes als eine Meinung unter vielen, die gleichberechtigt neben Homöopathie, alternativer Medizin und biodynamischem Landbau steht — und eine flache Erde ist ebenso eine Hypothese wie der Globus.

„Fake Science“ ist eine Verallgemeinerung. Der Journalismus hat sich massiv gegen den Begriff „Lügenpresse“ gewehrt, weil er einige wenige Falschinformationen in den öffentlichen Medien auf die gesamte Branche extrapoliert. Wenn Journalisten jetzt den Begriff „Fake Science“ erfinden, ist das dann in Ordnung?

Wolfgang Nellen

 

(Wolfgang Nellen war bis 2015 Professor für Genetik an der Universität Kassel und ist seitdem Gastprofessor an der Brawijaya University in Malang, Indonesien. Von 2011 bis 2014 war er Präsident des Verbandes Biologie, Biowissenschaften und Biomedizin in Deutschland, VBIO e. V.)

 

Reproduzierbarkeitskrise? — Selber schuld!

13. Juni 2018 von Laborjournal

(Zugegeben, der folgende Text erschien bereits in etwas anderer Form als Editorial unserer Print-Ausgabe 10/2014. Kürzlich versicherte uns jedoch ein Leser, dass sich bis heute nichts an der Brisanz des Inhalts geändert habe — und dass es durchaus Sinn mache, ihn nochmals zu reproduzieren. Womit wir beim Thema wären…)

 

Die Forschung hat ein Reproduzierbarkeitsproblem. Mehrere Handvoll Studien zum Thema sind inzwischen publiziert — allesamt mit dem ernüchternden Ergebnis, dass die Autoren jeweils weit über die Hälfte speziell ausgewählter Studien nicht „nachkochen“ konnten (LJ 3/2014: 18-23). Und bekanntlich gilt ja nur als robustes wissenschaftliches Resultat, was unabhängig in Oslo, Osaka, Ouadougou oder wo auch immer reproduziert werden kann.

Doch nicht nur die Reproduzierbarkeit macht Sorgen. Seit 2005 mahnt der inzwischen berühmt-berüchtigte US-Epidemiologe John Ioannidis unermüdlich, dass die Mehrzahl der Forschungsergebnisse falsch sei — und zwar schlichtweg wegen lausiger und somit unhaltbarer Statistik (siehe auch unser Interview mit Ioannidis in Lab Times 4/2014: 30-33). „Why Most Published Research Findings Are False“ lautete damals der Titel seines aufsehenerregenden Papers in PLoS ONE (Bd. 2(8): e124).

Seitdem ist er nicht allein geblieben. Erst kürzlich griff etwa der Berliner Neurologe Ulrich Dirnagl das Thema in unserem Jubiläumsheft „20 Jahre Laborjournal“ mit einer eigenen Analyse auf (LJ 7-8/2014: 38-41). „Sind die meisten Forschungsergebnisse tatsächlich falsch?“, fragte er in Anlehnung an Ioannidis in der Überschrift. Und gab die Antwort bereits im Vorspann: „Leider ja — Bias und schlechte Statistik fluten viele Paper mit falsch positiven Resultaten.“

Bias, schlechte Statistik, Reproduzierbarkeitsmangel — all dies zusammen ergibt schnell ein übel riechendes Gebräu, über dem man leicht naserümpfend diagnostizieren kann: „Der Patient Wissenschaft ist wirklich krank.“ Doch worin könnte die Therapie bestehen? Man kann es drehen und wenden, wie man will — man landet immer wieder bei den Autoren und ihren Pflichten. Die folgenden zwei, gar nicht mal ganz neuen Studien sollen dies unterstreichen…       Diesen Beitrag weiterlesen »

Verstehen wir uns noch?

9. Januar 2018 von Laborjournal

Denn sie wissen nicht, was sie tun. — Viele dürfte diese Zeile unmittelbar an den gleichnamigen Filmklassiker mit James Dean erinnern. Heute könnte sie jedoch auch für einen großen Teil biomedizinischer Forschung gelten.

Wobei man hier ein klein wenig wie folgt präzisieren müsste: „Denn sie wissen nicht mehr, was der andere tut.“ Bittere Konsequenz dessen, dass in vielen Gebieten die einzelnen Veröffentlichungen immer komplexer werden.

Ein besonders eindrückliches Beispiel dafür schilderte kürzlich Dorothy Bishop von der Oxford University in ihrem „BishopBlog“. In dem entsprechenden Beitrag klagt sie, dass sie die Publika­tionen ihrer Kollegen immer weniger versteht, sobald sie auch nur ein klein wenig über ihren eigenen Tellerrand hinausschaut. Sie schreibt:

Für eine Art Meta-Analyse über die Anwendung bestimmter statistischer Methoden studierte ich zuletzt eine Reihe von neurowissenschaftlichen Artikeln“, schreibt sie. „Einige davon musste ich stundenlang lesen und wieder lesen, bis ich endlich verstan­den hatte, welches überhaupt die statistisch relevantesten Ergebnisse waren.

Und dann schwenkt sie auf den eigentlich beunruhigenden Punkt um:

Mir scheint daher, dass in manchen Feldern die Zahl der Kollegen, die derart komplexe Paper überhaupt noch umfassend und kompetent begutachten können, extrem zusammenschnurrt.

Selbst gute und engagierte Editoren würden daher irgendwann kaum noch Reviewer mit voll­um­fäng­lich ausreichender Expertise auftreiben können. Und umgekehrt würde es den meisten immer stärker widerstreben, solch hochkomplexe Studien zu prüfen, wenn sie derart viel Substanz jenseits der eigenen Expertise enthalten.

Und Frau Bishop ist mit solchen Befürchtungen keineswegs allein. Bereits 2013 fragte Diethard Tautz, Direktor am Plöner Max-Planck-Institut für Evolutionsbiologie, in einem Essay für Labor­journal:

Lesen wir noch, was andere schreiben? Ja, verstehen wir uns überhaupt noch?

Und er erzählte folgendes Beispiel:

Ich musste kürzlich so ein „Big Data“-Paper für ein angesehenes Journal begutachten. Es hatte 60 Autoren und präsentierte ein Feuerwerk an intelligenten Auswertungen, Statistiken und Modellierungen. Etwas seltsam war der modulare Aufbau. Die einzelnen Teile des Papers waren offensichtlich von unterschiedlichen Autoren geschrieben worden, jeder ein Spezialist für sein Feld mit einem eigenen Sprachstil und wenig Bezug zu den anderen Modulen. An ein paar ‚Kleinigkeiten‘ wie fehlenden Übergängen und unvollständigen Sätzen war zu erkennen, dass die meisten der Autoren offen­sicht­lich ihr eigenes Paper nicht vollständig gelesen haben konnten — denn zumindest einem von den 60 hätte so etwas doch auffallen müssen. Haben auch Autoren gar keine Zeit mehr zum Lesen oder ist das der Beginn der Sprachverwirrung? Auch als Gutachter konnte ich nur einen Teil kompetent begutachten, den Rest nur auf Plausibilität prüfen. Und ich vermute, dass es den anderen Gutachtern ebenso ging.

Und er schloss:

Natürlich wurde es publiziert — und ich darf annehmen, dass es so gut wie keinen Leser mehr gibt, der wirklich alles davon versteht. Wenn das so weiter geht, dann sind wir bald nahe an dem Punkt,… dass keiner des andern Sprache verstehe!

Wobei das letztere Zitat jetzt nicht aus der Filmwelt kommt.

Ralf Neumann

 

Das Recht am Peer Review

4. Juli 2017 von Laborjournal

Nette Geschichte, die Pandelis Perakakis auf seiner Academic Website über seinen Kollegen Angel Correa vom Brain, Mind & Behaviour Research Center der Universität Granada notiert hat. Dieser hatte von einem Elsevier-Editor die Einladung erhalten, ein eingereichtes Manuskript für eines ihrer Journals zu begutachten. Correa schrieb zurück, dass er dies gerne tun würde — allerdings unter einer Bedingung: Würde das Paper am Ende zur Veröffentlichung akzeptiert, sollte das Journal seinen Review in der gleichen Ausgabe mit veröffentlichen — als „Kommentar“ oder wie auch immer, aber auf jeden Fall frei zugänglich via Open Access.

Correa lieferte auch eine Begründung dafür. Als Wissenschaftler im Staatsdienst habe er entschieden, seine Arbeitszeit nicht völlig selbstlos in das Interesse von Journals zu investieren, die privatwirtschaftliche Zwecke verfolgen.

Der Editor antwortete daraufhin zunächst schnippisch, dass er Correas Entscheidung, nicht mehr am Scientific Process teilzunehmen, sehr bedauere. In einer zweiten Mail schob er jedoch nach, dass er nach seiner Auffassung gerade als Staatsbediensteter die Verpflichtung habe, der Peer Review-Anfrage nachzukommen. Dies nicht nur, weil auch seine Institution dafür zahle, dass dessen Verlag einen ordentlichen Peer Review-Prozess organisiert und durchführt — sondern weil die Wissenschaftsgemeinde schlichtweg auf diese Art funktioniere. Schließlich erwarte er ja auch, dass seine Paper von Peers begutachtet werden.

Correa bemühte daraufhin zunächst einige Höflichkeitsfloskeln, um dann zu folgendem Schluss zu kommen: „Ich denke, es würde meiner Selbstverpflichtung zu Open Science auch Genüge tun, wenn ich als Autor des Peer Reviews die Rechte daran behalte, so dass ich diesen selbst veröffentlichen kann — vorausgesetzt natürlich, das Manuskript wird veröffentlicht. Geben Sie mir also bitte bescheid, ob Ihr Journal in diesem Fall die Verwertungsrechte bei mir, also dem Autor des Reviews, belässt.“

Eine Antwort darauf blieb bis heute aus.

Ralf Neumann

(Illustr.: Fotolia)

x

Wozu Journals?

10. November 2016 von Laborjournal

 

dustbook3

 

Es ist und bleibt interessant, immer wieder mal in unseren alten Ausgaben zu blättern. Nicht nur, aber auch, um zu sehen, wie sich gewisse Dinge in der Zwischenzeit entwickelt haben.

Kürzlich etwa blieb ich an folgendem Text unserer „Inkubiert“-Kolumne aus Heft 4/2000 (!) hängen:

Wozu braucht man Fach-Journale? Vor allem doch wohl als Vehikel von Information. Allerdings ist da das Internet mittlerweile schneller, billiger, einfacher und vielseitiger. So gesehen erfüllen die Fachblätter also ihre primäre Aufgabe inzwischen nicht mehr optimal. Allenfalls als glorifizierte Listen von Leseempfehlungen taugen sie noch. Womit wir direkt bei der nächsten Frage wären: Braucht man noch ein System des Vorab-Peer Review? Zumal doch gerade auf dem gut gedüngten Boden des anonymen Peer Review-Systems die menschlichen Schwächen der Gutachter oftmals allzu üppig wuchern. Warum also nicht gleich einfach alles unmittelbar und direkt im Internet publizieren — allenfalls durch eine grobe Vorab-Kontrolle von blankem Unsinn freigehalten? Beurteilt nicht sowieso jeder Forscher selbst die Artikel, die ihn interessieren — ob von Gutachtern empfohlen oder nicht? Was ein echter Forscher ist, sollte dies jedenfalls alleine können. Herrliche Diskussionen direkt im Anhang an die einzelnen Artikel könnten sich entwickeln. Nachlesbar und gezeichnet. Ein Artikel wäre nicht nur Information, sondern auch Anstoß zur Debatte. Jedenfalls die guten unter ihnen. Und daran wiederum würde man sie erkennen. Ja, ja — jetzt schreien wieder einige, dass unter solchen Bedingungen doch am Ende jeder Schrott publiziert würde. Hmm? Ohne Journals publiziert vielleicht tatsächlich nur, wer wirklich etwas Neues hat. Und schielt nicht vorrangig danach, durch Publikation in prestigeträchtigen Journals Impact-Punkte zu sammeln.

Scheint es nur mir so, dass wir heute, 16 Jahre später, in dieser Diskussion immer noch weitgehend auf demselben Stand sind?

x

Oder vielleicht ist ja auch das die Zukunft des offenen Post-Publication-Peer-Review?…

22. März 2016 von Laborjournal

x

(Zeichnung entnommen aus “Forscher Ernst” von Rafael Florés)

Ist das die Zukunft des offenen Post-Publication-Peer-Review?…

10. März 2016 von Laborjournal

(Zeichnung entnommen aus „Forscher Ernst“ von Rafael Florés)

Nicht ganz frei von Horror, diese Vorstellung. Oder?

x

Paper zurückgezogen — und wen soll ich jetzt zitieren?

11. Dezember 2015 von Laborjournal

Schon seit einiger Zeit muss der Zürcher Pflanzenforscher Olivier Voinnet ein Paper nach dem anderen wegen inkorrekter Abbildungen zurückziehen oder zumindest großflächig korrigieren. Zwischenstand sind momentan zwölf „Corrections“ und sieben „Retractions“.

Dennoch sticht die letzte Retraction heraus. Mitte November zog The Plant Journal den Artikel „An enhanced transient expression system in plants based on suppression of gene silencing by the p19 protein of tomato bushy stunt virus“ in Übereinkunft mit den Autoren Olivier Voinnet, Susana Rivas, Pere Mestre und David Baulcombe vollends zurück, nachdem sie ihn bereits im Juni erstmals korrigiert hatten. Das jedoch ist nicht wirklich der Punkt. Viel erstaunlicher ist die Tatsache, dass der Artikel bis dahin bereits über 900-mal zitiert worden war.

Was heißt das?

Der Artikel beschreibt erstmals eine neue und einfache Methode zur effektiven Steigerung der transienten Expression von eingebrachten Fremdgenen in Pflanzen. Basis dafür ist die Ko-Transfektion mit dem Gen für das Virusprotein P19, welches allgemein das posttranslationale Gene Silencing in Pflanzenzellen hemmt. Das P19-System steigert also die Expression des Fremdgens, indem es die natürliche Expressionsbremse der Pflanzenzelle blockiert.

Über 900 Zitierungen, wie gesagt. Die muss es doch großteils dafür gegeben haben, dass trotz der unzulässig manipulierten Abbildungen die Methode funktioniert. Und tatsächlich twitterte Sophien Kamoun, Laborleiter am Sainsbury Lab in Norwich/UK:

Das scheint also tatsächlich nicht die Frage. Allerdings ergibt sich daraus ein ganz anderes Problem, das Dmitri Nusinow vom Donald Danforth Plant Science Center in Creve Coer, Missouri/USA, via Twitter folgendermaßen ausdrückt:

 

Berechtigte Frage — denn schließlich gilt ein zurückgezogenes Paper per definitionem als augenblicklich aus dem Scientific Record gelöscht. Wen sollen die zahlreichen P19-Anwender also künftig zitieren? Die Erstbeschreibung der Methode gilt — aus guten Gründen! — als gelöscht. Woanders steht sie offensichtlich nicht in ausreichendem Detail beschrieben, da alle nachfolgenden Anwender — zu Recht — auf die Erstbeschreibung verwiesen.

Soll man sich jetzt also darauf einigen, stattdessen einen der ersten Anwender zu zitieren? Wohl kaum — denn zum einen stünde die Methode dort auch nicht vollständig drin, und zum anderen bekäme der betreffende Artikel auf diese Art sicher viel mehr Zitierungen als er tatsächlich verdient. Oder erklärt man die Methode einfach zum allgemeinen Wissen, das man nicht mehr zu zitieren braucht — und muss wegen der Details trotzdem weiter in das zurückgezogene Paper schielen, weil sie ja nirgendwo sonst aufgeschrieben stehen.

Eigentlich müsste jemand die Methode nochmals „neu“ mit allen Details veröffentlichen — vielleicht ja sogar noch mit einigen neuen. Das wäre dann zwar ordnungsgemäß zitierbar, aber wie oben schon gesagt: Ordnungsgemäß verdiente Zitierungen wären das nicht.

Hmm — hat vielleicht jemand einen anderen Vorschlag?

Information 1


Information 2


Information Q1


Information 4


Information 5


Information Q2


Information 7





Information 8