Für ein paar Referenzen mehr…

25. April 2019 von Laborjournal

Es war einmal ein Editor. Dies war er noch nicht lange, denn er war noch ein sehr junger Forscher. Umso stolzer machte ihn seine erste Berufung in ein Editorial Board. Schließlich durfte er das durchaus als unmittelbare Wertschätzung seiner Forschungsarbeiten deuten. Und als Aufnahme in einen gewissen, wie auch immer gearteten „Club“.

Jetzt stand sein erstes Treffen mit dem gesamten Board an, bei dem wie in jedem Jahr die Editorial Policy kritisch geprüft sowie die Schwerpunkte neu fokussiert wurden. Unser junger Mann war beeindruckt von der Routine, mit der die erfahrenen Forscher und langjährigen Editoren die Dinge auf den Punkt brachten. Alles war so, wie er es sich vorgestellt hatte.

Vor allem publikationsethisch schien unserem jungen Editor alles einwandfrei. Das war ihm besonders wichtig in diesen Tagen des „Publish or perish“ und der immer aggressiveren Konkurrenz zwischen den Journalen. „Nein, alles auf einem guten Weg hier“, dachte er. „Und ich bin dabei.“

Blieb nur noch das Abschluss-Bankett. Bei diesem nahm ihn plötzlich der Chief Editor persönlich beiseite. Diesen Beitrag weiterlesen »

„Fälschungen sind immer schlimm, aber seinen Daten haben wir schon länger nicht getraut“

20. März 2019 von Laborjournal

Auch in der Wissenschaft gibt es den sogenannten „Flurfunk“ — und das ist auch gut so! Wie gut, davon bekamen wir eine Ahnung in einem Gespräch, das wir vor einiger Zeit im Rahmen einer Recherche führten — und das ging etwa so:

x

LJ: „Herr Professor X, wie sehr schaden die jüngst aufgeflogenen Datenfälschungen des Kollegen Y Ihrem Feld?“

Prof. X: „Gar nicht. Wir haben schon lange bewusst vermieden, auf Ys Daten aufzubauen.“

„Das klingt, als hätten Sie seinen Daten schon vorher nicht getraut.“

Prof. X: „Exakt.“

„Aber der Aufschrei war doch riesig, als die Fälschungen bekannt wurden.“

Prof. X: „Sicher. Geschrien haben allerdings nur die Anderen. Uns ‚Insider‘ hat das überhaupt nicht überrascht. Wir wissen eben viel mehr, als in den Journalen steht. Wie woanders auch, haben wir ein gut funktionierendes Untergrund-Netzwerk. Und da wird früh Alarm geschlagen.“

„Wie muss man sich das vorstellen?“

Prof. X: „Nun ja, wenn jemand die Daten eines Kollegen nicht reproduzieren kann, dann weiß das ziemlich schnell jeder im Feld. Was meinen Sie denn, welches das ‚Flurthema‘ schlechthin auf jeder Konferenz ist? Ich sage es Ihnen: Welche Daten sind robust, und welche sind es nicht; und welcher Forscher macht solides Zeug, und wer nicht.“

„Und bei Y war die Sache schon lange klar?“

Prof. X: „Genau. Wir hatten ihn bereits unter Verdacht, als er die ersten ‚spektakulären‘ Resultate anbrachte. Der eine konnte dies nicht reproduzieren, der andere hatte jenes schon lange vorher vergeblich versucht, ein Dritter hatte ‚etwas mitbekommen‘,… und so weiter. Glauben Sie mir: Wenn sich Leute schon richtig lange mit bestimmten Dingen beschäftigt haben, erkennen sie solche ‚Probleme‘ ziemlich schnell.“

„Also viel Rauch um Nichts?“

Prof. X: „Forschungsfälschung ist immer schlimm, keine Frage. Doch meist richtet sie nicht den Schaden an, den viele befürchten, da die unmittelbar Betroffenen aufgrund der geschilderten Mechanismen sowieso schon lange vorsichtig waren. Laut schreien tun nur andere — vor allem diejenigen, die immer gleich den ganzen Wissenschaftsbetrieb in Gefahr sehen.“

x

Okay, wahrscheinlich trifft das nicht für jeden Fall von Forschungsfälschung zu. Wir können uns beispielsweise noch gut erinnern, wie die internationale Pflanzenforscher-Gemeinde zuerst ungläubig und dann zunehmend schockiert reagierte, als nach und nach die Mauscheleien in den Publikationen ihres Zürcher Kollegen Olivier Voinnet aufflogen.

Aber dennoch: Wir wünschen weiterhin guten Flurfunk! Sei es auf Konferenzen oder anderswo.

Ralf Neumann

Illustr.: CoolCLIPS

Von verdienten aber verschwiegenen Co-Autoren

4. Dezember 2018 von Laborjournal

Schau mal an! Wieder eine E-Mail eines… — nun ja, verärgerten Nachwuchsforschers. Be­schwert sich, dass er nicht als Co-Autor mit auf das jüngste Paper seiner Gruppe genommen wurde. Totaler Skandal, weil er das natürlich klar verdient gehabt hätte — mehr noch als der konkrete Zweitautor. Ob wir das nicht öffentlich machen könnten. Solches Unrecht gehöre schließlich mal an den Pranger gestellt. Und nein — ihm selbst könne nix mehr passieren, da er inzwischen die Gruppe gewechselt habe. Aber sauer sei er natürlich immer noch…

Etwa ein Dutzend solcher E-Mails bekommen wir im Jahr. Einige Male haben wir tatsächlich nachgefragt. Und stets war „der Fall“ kaum objektiv darstellbar. Bisweilen schien es sogar ziemlich plausibel, warum der „Kläger“ letztlich nicht mit auf dem besagten Paper stand.

Dabei werden offenbar tatsächlich die Nachwuchsforscher vom Postdoc bis zum Master-Studenten mit am ehesten aus den Autorenlisten draußen gelassen. Zumindest war dies eines der Ergebnisse einer Umfrage der beiden US-Soziologen John Walsh und Sahra Jabbehdari aus dem Jahr 2017. Und die hatten dazu in den USA einige Leute mehr befragt als wir hier: Am Ende konnten sie die Angaben von 2.300 Forschern zu deren eigenen Publikationen auswerten (Sci. Technol. Human Values 42(5): 872-900).

Machen wir’s kurz:

» Nach Walsh und Jabbehdari listete ein Drittel der Artikel aus Biologie, Physik und Sozialwissenschaften mindestens einen „Gastautor“ mit auf, dessen Beitrag die Anforderungen für eine Co-Autorenschaft eigentlich nicht erfüllte. Angesichts von Ehren- und Gefälligkeits-Autorschaften wie auch ganzen Co-Autor-Kartellen war ein solch hoher Anteil womöglich zu erwarten.

» Viel erstaunlicher dagegen mutet jedoch der noch höhere Anteil an Artikeln an, auf denen ein oder mehrere Co-Autoren verschwiegen wurden, die wegen ihres Beitrags zur Studie eigentlich mit aufgelistet gehört hätten. Die befragten Forscher gaben an, dass hinter ganzen 55 Prozent ihrer Artikel noch mindestens ein weiterer „Geister-Autor“ gestanden hätte. Biologie und Medizin lagen genau in diesem Schnitt, während Ingenieurs-, Umwelt- und Agrarwissenschaften noch deutlich höher lagen. Den niedrigsten Anteil an „Geister-Autoren“ ermittelten die Verfasser mit 40 Prozent für die Mathematik und Computerwissenschaften.

» Und wer wurde hierbei bevorzugt „verschwiegen“? Neben Technischen Angestellten interes­san­ter­wei­se eher Postdocs als „Graduate Students“, also Doktoranden und Master-Studenten. In der Medizin lag der Anteil der Postdocs unter den „Verschwiegenen“ etwa bei 28 Prozent gegenüber 16 Prozent „Graduate Students“; in der Biologie betrug dasselbe Verhältnis 21 gegenüber 15 Prozent.

In der Summe heißt das also, dass in den Autorenzeilen jeder fünften Veröffentlichung aus den Medizin- und Biowissenschaften mindestens ein Nachwuchsforscher fehlt, der die Nennung eigentlich verdient gehabt hätte. Sicher lässt sich einwerfen, dass die gleiche Befragung in Europa womöglich andere Zahlen liefern würde. Aber würden Sie, liebe Leser, eine Voraussage wagen, in welche Richtung sich die geschilderten US-Verhältnisse dann verschieben könnten?

Wir meinen, angesichts der Bedeutung, die Co-Autorenschaften heutzutage für wissenschaftliche Karrieren haben, liefern bereits die US-Zahlen alleine ziemlich verstörende Erkenntnisse. Und für uns daher ein Grund mehr, um E-Mails wie der oben erwähnten tatsächlich nachzugehen.

Ralf Neumann

Zeichnung: Rafael Florés

Reproduzierbarkeitskrise? — Selber schuld!

13. Juni 2018 von Laborjournal

(Zugegeben, der folgende Text erschien bereits in etwas anderer Form als Editorial unserer Print-Ausgabe 10/2014. Kürzlich versicherte uns jedoch ein Leser, dass sich bis heute nichts an der Brisanz des Inhalts geändert habe — und dass es durchaus Sinn mache, ihn nochmals zu reproduzieren. Womit wir beim Thema wären…)

 

Die Forschung hat ein Reproduzierbarkeitsproblem. Mehrere Handvoll Studien zum Thema sind inzwischen publiziert — allesamt mit dem ernüchternden Ergebnis, dass die Autoren jeweils weit über die Hälfte speziell ausgewählter Studien nicht „nachkochen“ konnten (LJ 3/2014: 18-23). Und bekanntlich gilt ja nur als robustes wissenschaftliches Resultat, was unabhängig in Oslo, Osaka, Ouadougou oder wo auch immer reproduziert werden kann.

Doch nicht nur die Reproduzierbarkeit macht Sorgen. Seit 2005 mahnt der inzwischen berühmt-berüchtigte US-Epidemiologe John Ioannidis unermüdlich, dass die Mehrzahl der Forschungsergebnisse falsch sei — und zwar schlichtweg wegen lausiger und somit unhaltbarer Statistik (siehe auch unser Interview mit Ioannidis in Lab Times 4/2014: 30-33). „Why Most Published Research Findings Are False“ lautete damals der Titel seines aufsehenerregenden Papers in PLoS ONE (Bd. 2(8): e124).

Seitdem ist er nicht allein geblieben. Erst kürzlich griff etwa der Berliner Neurologe Ulrich Dirnagl das Thema in unserem Jubiläumsheft „20 Jahre Laborjournal“ mit einer eigenen Analyse auf (LJ 7-8/2014: 38-41). „Sind die meisten Forschungsergebnisse tatsächlich falsch?“, fragte er in Anlehnung an Ioannidis in der Überschrift. Und gab die Antwort bereits im Vorspann: „Leider ja — Bias und schlechte Statistik fluten viele Paper mit falsch positiven Resultaten.“

Bias, schlechte Statistik, Reproduzierbarkeitsmangel — all dies zusammen ergibt schnell ein übel riechendes Gebräu, über dem man leicht naserümpfend diagnostizieren kann: „Der Patient Wissenschaft ist wirklich krank.“ Doch worin könnte die Therapie bestehen? Man kann es drehen und wenden, wie man will — man landet immer wieder bei den Autoren und ihren Pflichten. Die folgenden zwei, gar nicht mal ganz neuen Studien sollen dies unterstreichen…       Diesen Beitrag weiterlesen »

Was ist faul an diesem Bild?

23. Oktober 2017 von Laborjournal

Es scheint leider traurige Gewissheit: In den letzten Jahren haben die Mauscheleien in den Abbildungen von Originalveröffentlichungen deutlich zugenommen. Der redliche Wissenschaftler ist daher wahrlich nicht schlecht beraten, möglichst auch den eigenen Blick für etwaige „Seltsamkeiten“ in Paper-Abbildungen zu schärfen. Denn andernfalls könnte solch ein „Trugbild“ womöglich auch das eigene Projekt irgendwann auf die falsche Fährte führen.

Wir von Laborjournal wollen bei der Schärfung der entsprechenden Sinne helfen — und stellen daher zum nun folgenden Bild die Frage: „Was ist daran wohl faul?“

x

Das Bild stammt aus dieser Originalveröffentlichung in Clinical Cancer Research. Uns ist nicht bekannt, ob das offensichtliche „Missgeschick“ inzwischen irgendwelche Konsequenzen nach sich gezogen hat. Zurückgezogen oder korrigiert ist das Paper jedenfalls bis heute nicht. Genauso wenig haben die Autoren bisher erklärt, wie der „Fauxpas“ zustande kam.

Und wer jetzt immer noch nicht weiß, was genau „faul“ ist an der Abbildung, bitte hier auf PubPeer nachschauen. Dort wurde erstmals darauf hingewiesen, dass hier etwas abgebildet ist, was sich so wie gezeigt einfach nicht „sauber“ abgespielt haben kann.

x

Vertrauenssache Peer Review

29. September 2017 von Laborjournal

Mitarbeiter der Annals of Internal Medicine stellten vorletzte Woche auf dem International Congress for Peer Review and Scientific Publication die Ergebnisse einer ziemlich interessanten Befragung vor. Deren Thema: Missbrauch von eingereichten Manuskripten durch Peer Reviewer (Originaltitel: Misuse of Received Manuscripts by Peer Reviewers: A Cross-sectional Survey).

Als Resultat halten sie zunächst einmal fest:

A total of 1431 of 3275 invited reviewers (44%) returned the survey […] Nearly half indicated having reviewed and published more than 50 manuscripts and having mentored others in peer review. Reasons reported for agreeing to review included keeping up to date in a research field (957/1417 [68%]), a sense of obligation to peer review (1316/1417 [93%]), …

So weit, so gut. Mit dem nächsten Grund, warum die Befragten die Manuskripte zur Begutachtung annehmen, wird es dann allerdings schon etwas kniffliger:

… and to know what competitors are doing (190/1417 [13%]).

Aha — ganze 13 Prozent der Befragten gaben also zu, Manuskripte vor allem deswegen zur Begutachtung anzunehmen, weil es ein guter Weg sei, sich darüber zu informieren, was die Konkurrenz so treibt. Da man derlei aber selbst in anonymen Umfragen aus selbstwertdienlichen Gründen nicht wirklich gerne preisgibt, dürften die 13 Prozent die tatsächliche Realität sogar noch schmeichelhaft abbilden.

Doch es kommt noch besser:

One hundred sixty-nine of 1417 (12%) had agreed to review manuscripts from authors with whom they had conflicts of interest; of these, 61 (36%) did so without informing the journal’s editor. One hundred fifty-three of 1413 (11%) showed manuscripts to colleagues without seeking permission.

Diese Art „Schindluder-Verhalten“ gibt man in diesem Zusammenhang sicher noch weniger gerne zu. Mit der Folge, dass die „Dunkelziffern“ für diese Art Missbrauch von anvertrauten Manuskripten nochmals höher ausfallen dürften.

Gleiches gilt natürlich auch für das letzte vorgestellte Ergebnis der Befragung:

Twenty-six of 1414 (2%; 95% CI, 1%-3%) indicated having used the information in a reviewed manuscript for personal or academic benefit prior to the paper’s publication. Such reported use included using what was learned to alter one’s own research plans, speeding up journal submission of one’s own work related to the subject of the manuscript being reviewed, and copying some part of the reviewed manuscript for one’s own work.

Okay, das sind zwar nur zwei Prozent — aber dennoch heißt das zusammen mit den anderen, bereits genannten Ergebnissen schlichtweg, dass das Vertrauensverhältnis zwischen Autoren und Gutachtern, auf dem das gesamte Peer-Review-System fußt, offenbar deutlich öfter gebrochen wird, als einem lieb sein kann.

Entsprechend schreiben die Autoren dann auch in ihrer Conclusion:

Trust that reviewers will treat manuscripts received for peer review as confidential communications is an essential tenet of peer review. Although self reported and of uncertain generalizability, these results suggest that breaches of this trust do occur. Larger studies involving multiple journals should be considered to assess the generalizability of these results and to inform targeted educational initiatives aimed at promoting the highest ethical standards among peer reviewers.

Kommentare, Meinungen oder gar eigene Erlebnisse zu potenziellem Peer-Review-Missbrauch nehmen wir gerne entgegen. Entweder direkt hier über das unten folgende Kommentarfenster, oder auch diskreter via Mail an die Laborjournal-Redaktion.

Danke für eure Forschungspläne!

4. September 2017 von Laborjournal

x

(Vor kurzem erhielten wir folgende, von uns hier anonymisierte E-Mail:…)

———-

„Ich bin Postdoc an der Uni […], und derzeit von Drittmitteln bezahlt […], die Ende 2017 auslaufen. Daher habe ich mich im März auf eine Stelle […] beworben, die als „Full time tenure-track research position […]“ ausgeschrieben war. Für die Bewerbung musste man neben dem CV auch einen Research Plan beilegen, der ein für die folgenden Jahre anvisiertes Forschungsprogramm überzeugend darlegt.

Am 1. Juni, also mehr als zwei Monate nach Ende der Bewerbungsfrist, fragte ich sehr höflich nach, ob man denn schon etwas über den Status der Bewerbung sagen könne. Ich habe bis heute keine Antwort bekommen.

Diese Woche erfuhr ich von einem Kollegen, der sich ebenfalls auf die Stelle beworben hat, dass die Stelle überhaupt nicht mehr mit einem Postdoc besetzt werden wird und man stattdessen Doktoranden einstellen will. Diese Information hat mein Kollege von einem Mitarbeiter des „Zielinstitutes“ inoffiziell erhalten.

Mein Verdacht ist nun, dass die Verantwortlichen die Stelle bewusst attraktiv ausgeschrieben haben, um von den eingehenden Bewerbungen die Ideen der eingereichten Forschungspläne abzugreifen. Zu diesem Plan würde gehören, dann doch keinen Postdoc dauerhaft auf die Stelle zu setzen, sondern die Arbeit stattdessen von nicht langfristig angestellten Doktoranden machen zu lassen. Die Anleitungen hierzu finden sich ja in den eingereichten Forschungsplänen (zumindest war mein Forschungsplan so gestaltet).

Am besten finde ich dazu noch, dass ein Mitarbeiter des Zielinstituts sich mit meinem Kollegen (derjenige, von dem ich die Sache inoffiziell erfahren habe) getroffen hat, um eine mögliche Kooperation über das in dessen Forschungsplan vorgeschlagene Projekt zu besprechen!

Ich habe natürlich keine Beweise dafür, dass das geschilderte Vorgehen bewusst so geplant worden ist. Neben der Stelle, auf die ich mich beworben habe, wurden noch zwei oder drei weitere Stellen (ebenso mit tenure track) vom besagten Institut ausgeschrieben. Ob sie inzwischen besetzt sind, weiß ich nicht.

Ich will ja nicht jammern, aber vielleicht lohnt es sich, hier einmal nachzuforschen. Vielleicht ist das aber auch gängige Praxis, und ich habe es bisher nur nicht gewusst. Was meinen Sie […] dazu?“

———-

Tja, was meinen unsere Leser dazu? Selbst mal etwas Ähnliches erlebt? Und kann es tatsächlich Methode haben, auf diese Weise Forschungsideen und experimentelle Konzepte zu klauen? Antworten bitte unten im Kommentarfenster, oder direkt an unsere Redaktion unter redaktion@laborjournal.de.

x

Stellen-Schnappen mit Mauschel-Publikationen

23. Juni 2017 von Laborjournal

Anfang der Woche schrieben wir auf Laborjournal online über Datenmanipulationen in acht Veröffentlichungen von Karl Lenhard Rudolph, dem wissenschaftlichen Direktor des Leibniz-Instituts für Alternsforschung — Fritz-Lipmann-Institut (FLI) in Jena. Später am gleichen Tag berichtete auch Retraction Watch unter dem Titel „German institute sanctions director after finding him guilty of misconduct“ darüber.

Interessant ist hier der Kommentar No. 2 unter dem Artikel. Dieser macht aufmerksam auf Jianwei Wang, der als Ko-Autor auf vier der acht inkriminierten Veröffentlichungen der Gruppe von Rudolph erscheint — davon dreimal als Erstautor. Nicht ohne säuerlichen Beigeschmack schreibt der Kommentator, dass Wang sich in der Zwischenzeit einen guten Job an der Tsinghua University gesichert habe. Man muss kein Hellseher sein, um sich auszumalen, dass die vier Mauschel-Publikationen aus seiner FLI-Zeit sicher eine entscheidende Rolle beim Zuschlag für die PI-Stelle gespielt hatten.

Dieses Muster des Stellen-Schnappens mit mehr als zweifelhaften Publikationen hatten wir erst in unserem Maiheft am Fall der Ex-Kölner Mitochondrien-Forscherin Tina Wenz thematisiert. Damals schrieben wir:

[…] kurz vor Bekanntwerden der Fälschungsvorwürfe auf PubPeer war sie von der Universität zu Köln als Wissenschaftlerin zu Boehringer Ingelheim gewechselt.

Interessant indes, wie man dort auf die Enthüllungen reagierte. Auf Anfrage des Blogs Retraction Watch antwortete ein Unternehmenssprecher Ende letzten Jahres, dass Tina Wenz die volle Verantwortung für jegliches Fehlverhalten in ihrem Kölner Labor übernommen habe. Ferner jedoch habe Boehringer Ingelheim volles Vertrauen in die Qualität der Forschungsarbeiten seiner Mitarbeiter — auch vor dem Hintergrund, dass die Integrität und Validität von Forschungsdaten in der Firma höchste Priorität genießen.

Natürlich kann eine Firma beschäftigen, wen immer sie will. Das Zeichen jedoch, das Boehringer Ingelheim damit vor allem an Nachwuchsforscher aussendet, ist fatal. Denn verallgemeinert heißt das: „Daten zurechtbiegen ist nicht schlimm. Und wenn es dann noch ein klein wenig dauert, bis sie dir auf die Schliche kommen, hast du womöglich sogar schon deine Karriere gesichert.“

Wer weiß, wie viele noch auf guten Stellen sitzen, die sie einst nach diesem faulen Muster ergattert haben?

Ralf Neumann

(Illustr.: freshidea / Fotolia)

Die Lance Armstrongs der Tour de Science

3. Februar 2016 von Laborjournal

Und wieder ein Zitat aus einer E-Mail an unsere Redaktion. Ein Bio-Emeritus im aktiven Unruhestand prangert darin mit deutlichen Worten einige „Unsitten“ im aktuellen Forschungsbetrieb an:

Da die Zahl der für das öffentliche und private Leben relevanten Skandale meine Fähigkeit zu kotzen weit überfordert […], bemühe ich mich schon seit einiger Zeit um eine gewisse pragmatische Rangordnung. Im Hinblick auf Wissenschaftsskandale heißt das für mich, dass ich nach den Lance Armstrongs der internationalen Tour de Science und vor allem nach den Strukturen frage, die diesen Figuren zur Verfügung stehen.

Da komme ich dann auf Fragen zum Wahnsinn der Impact Faktoren und CNS-Publikationen als Kriterium wissenschaftlicher Befähigung. CNS hat nichts mit Gehirn zu tun, sondern steht für Cell, Nature, Science — und damit gleichsam für den Glauben an die Weisheit der Editoren von Journalen, deren Hauptziel darin besteht, den Impact Faktor ihres Journals zu steigern oder wenigstens zu halten.

Ich beschäftige mich weiter mit dem Problem, was alles „behind the scenes“ passiert und offenbar möglich ist. Ich frage mich, warum ich immer wieder auf Arbeiten stoße, die in High Impact-Journalen veröffentlicht wurden und die völlig perfekt erscheinen — abgesehen davon, dass sich die Hauptergebnisse nicht reproduzieren lassen.

Ich frage mich, warum viele Wissenschaftler das Gefühl haben, dass man in einem Manuskript die — oftmals ja leider berechtigten — eigenen Sorgen wegen der Grenzen der verwendeten Methoden, beispielsweise aufgrund unerwünschter, schwer zu kontrollierender Artefakte, besser gar nicht erst andiskutieren sollte.

Ich frage mich, warum es üblich scheint, Ergebnisse besser wegzulassen, die nicht ins Schema der perfekten Reproduzierbarkeit passen und die möglicherweise die Beweisführung für oder gegen eine bestimmte Hypothese untergraben könnten.

Ich frage mich, wie es dazu kommt, dass heute umgehend immer nur nach einem molekularen Mechanismus gefragt wird, selbst wenn die phänomenologischen Grundlagen des untersuchten biologischen  Systems noch weitgehend ungeklärt sind.

Ich frage mich, wie das Begutachtungssystem verändert werden sollte — und vor allen Dingen, wie es öffentlich gemacht werden kann. Ich für meinen Teil habe seit etwa einem Jahr begonnen, alle meine Zeitschriftengutachten mit meinem Namen zu zeichnen.

Ich frage mich, wie es kommt, dass Gutachter ihren Auftrag dahingehend missbrauchen, dass sie die Autoren eingereichter Arbeiten zwingen, eine To-do-Liste abzuarbeiten, nach der die geforderten zusätzlichen Experimente gar nichts mehr mit notwendigen Kontrollen zu tun haben, sondern lediglich willkürliche Erweiterungen nach dem Geschmack des Gutachters darstellen.

Fragen, die viele zwar schon lange kennen — die deswegen aber nicht aufhören zu schmerzen. Antworten und Meinungen dazu, wie immer, direkt unten als Kommentar zu diesem Blog-Beitrag, oder auch per E-Mail an redaktion@laborjournal.de.

(Foto: Fotolia/erkamit)

x

Paper zurückgezogen — und wen soll ich jetzt zitieren?

11. Dezember 2015 von Laborjournal

Schon seit einiger Zeit muss der Zürcher Pflanzenforscher Olivier Voinnet ein Paper nach dem anderen wegen inkorrekter Abbildungen zurückziehen oder zumindest großflächig korrigieren. Zwischenstand sind momentan zwölf „Corrections“ und sieben „Retractions“.

Dennoch sticht die letzte Retraction heraus. Mitte November zog The Plant Journal den Artikel „An enhanced transient expression system in plants based on suppression of gene silencing by the p19 protein of tomato bushy stunt virus“ in Übereinkunft mit den Autoren Olivier Voinnet, Susana Rivas, Pere Mestre und David Baulcombe vollends zurück, nachdem sie ihn bereits im Juni erstmals korrigiert hatten. Das jedoch ist nicht wirklich der Punkt. Viel erstaunlicher ist die Tatsache, dass der Artikel bis dahin bereits über 900-mal zitiert worden war.

Was heißt das?

Der Artikel beschreibt erstmals eine neue und einfache Methode zur effektiven Steigerung der transienten Expression von eingebrachten Fremdgenen in Pflanzen. Basis dafür ist die Ko-Transfektion mit dem Gen für das Virusprotein P19, welches allgemein das posttranslationale Gene Silencing in Pflanzenzellen hemmt. Das P19-System steigert also die Expression des Fremdgens, indem es die natürliche Expressionsbremse der Pflanzenzelle blockiert.

Über 900 Zitierungen, wie gesagt. Die muss es doch großteils dafür gegeben haben, dass trotz der unzulässig manipulierten Abbildungen die Methode funktioniert. Und tatsächlich twitterte Sophien Kamoun, Laborleiter am Sainsbury Lab in Norwich/UK:

Das scheint also tatsächlich nicht die Frage. Allerdings ergibt sich daraus ein ganz anderes Problem, das Dmitri Nusinow vom Donald Danforth Plant Science Center in Creve Coer, Missouri/USA, via Twitter folgendermaßen ausdrückt:

 

Berechtigte Frage — denn schließlich gilt ein zurückgezogenes Paper per definitionem als augenblicklich aus dem Scientific Record gelöscht. Wen sollen die zahlreichen P19-Anwender also künftig zitieren? Die Erstbeschreibung der Methode gilt — aus guten Gründen! — als gelöscht. Woanders steht sie offensichtlich nicht in ausreichendem Detail beschrieben, da alle nachfolgenden Anwender — zu Recht — auf die Erstbeschreibung verwiesen.

Soll man sich jetzt also darauf einigen, stattdessen einen der ersten Anwender zu zitieren? Wohl kaum — denn zum einen stünde die Methode dort auch nicht vollständig drin, und zum anderen bekäme der betreffende Artikel auf diese Art sicher viel mehr Zitierungen als er tatsächlich verdient. Oder erklärt man die Methode einfach zum allgemeinen Wissen, das man nicht mehr zu zitieren braucht — und muss wegen der Details trotzdem weiter in das zurückgezogene Paper schielen, weil sie ja nirgendwo sonst aufgeschrieben stehen.

Eigentlich müsste jemand die Methode nochmals „neu“ mit allen Details veröffentlichen — vielleicht ja sogar noch mit einigen neuen. Das wäre dann zwar ordnungsgemäß zitierbar, aber wie oben schon gesagt: Ordnungsgemäß verdiente Zitierungen wären das nicht.

Hmm — hat vielleicht jemand einen anderen Vorschlag?

Information 1


Information 2


Info

Info

Mit dem HandyStep® Touch bringt BRAND® den Touchscreen auch für handgehaltene Geräte ins Labor. mehr

Info

Info

cobas® pro integrated solutions – das neue System von Roche für den Serumarbeitsplatz. mehr

Info

Info

Die WLAN-Funktion der Olympus Kamera ermöglicht ein interaktives Zusammen­arbeiten der Studierenden. mehr