Von verdienten aber verschwiegenen Co-Autoren

4. Dezember 2018 von Laborjournal

Schau mal an! Wieder eine E-Mail eines… — nun ja, verärgerten Nachwuchsforschers. Be­schwert sich, dass er nicht als Co-Autor mit auf das jüngste Paper seiner Gruppe genommen wurde. Totaler Skandal, weil er das natürlich klar verdient gehabt hätte — mehr noch als der konkrete Zweitautor. Ob wir das nicht öffentlich machen könnten. Solches Unrecht gehöre schließlich mal an den Pranger gestellt. Und nein — ihm selbst könne nix mehr passieren, da er inzwischen die Gruppe gewechselt habe. Aber sauer sei er natürlich immer noch…

Etwa ein Dutzend solcher E-Mails bekommen wir im Jahr. Einige Male haben wir tatsächlich nachgefragt. Und stets war „der Fall“ kaum objektiv darstellbar. Bisweilen schien es sogar ziemlich plausibel, warum der „Kläger“ letztlich nicht mit auf dem besagten Paper stand.

Dabei werden offenbar tatsächlich die Nachwuchsforscher vom Postdoc bis zum Master-Studenten mit am ehesten aus den Autorenlisten draußen gelassen. Zumindest war dies eines der Ergebnisse einer Umfrage der beiden US-Soziologen John Walsh und Sahra Jabbehdari aus dem Jahr 2017. Und die hatten dazu in den USA einige Leute mehr befragt als wir hier: Am Ende konnten sie die Angaben von 2.300 Forschern zu deren eigenen Publikationen auswerten (Sci. Technol. Human Values 42(5): 872-900).

Machen wir’s kurz:

» Nach Walsh und Jabbehdari listete ein Drittel der Artikel aus Biologie, Physik und Sozialwissenschaften mindestens einen „Gastautor“ mit auf, dessen Beitrag die Anforderungen für eine Co-Autorenschaft eigentlich nicht erfüllte. Angesichts von Ehren- und Gefälligkeits-Autorschaften wie auch ganzen Co-Autor-Kartellen war ein solch hoher Anteil womöglich zu erwarten.

» Viel erstaunlicher dagegen mutet jedoch der noch höhere Anteil an Artikeln an, auf denen ein oder mehrere Co-Autoren verschwiegen wurden, die wegen ihres Beitrags zur Studie eigentlich mit aufgelistet gehört hätten. Die befragten Forscher gaben an, dass hinter ganzen 55 Prozent ihrer Artikel noch mindestens ein weiterer „Geister-Autor“ gestanden hätte. Biologie und Medizin lagen genau in diesem Schnitt, während Ingenieurs-, Umwelt- und Agrarwissenschaften noch deutlich höher lagen. Den niedrigsten Anteil an „Geister-Autoren“ ermittelten die Verfasser mit 40 Prozent für die Mathematik und Computerwissenschaften.

» Und wer wurde hierbei bevorzugt „verschwiegen“? Neben Technischen Angestellten interes­san­ter­wei­se eher Postdocs als „Graduate Students“, also Doktoranden und Master-Studenten. In der Medizin lag der Anteil der Postdocs unter den „Verschwiegenen“ etwa bei 28 Prozent gegenüber 16 Prozent „Graduate Students“; in der Biologie betrug dasselbe Verhältnis 21 gegenüber 15 Prozent.

In der Summe heißt das also, dass in den Autorenzeilen jeder fünften Veröffentlichung aus den Medizin- und Biowissenschaften mindestens ein Nachwuchsforscher fehlt, der die Nennung eigentlich verdient gehabt hätte. Sicher lässt sich einwerfen, dass die gleiche Befragung in Europa womöglich andere Zahlen liefern würde. Aber würden Sie, liebe Leser, eine Voraussage wagen, in welche Richtung sich die geschilderten US-Verhältnisse dann verschieben könnten?

Wir meinen, angesichts der Bedeutung, die Co-Autorenschaften heutzutage für wissenschaftliche Karrieren haben, liefern bereits die US-Zahlen alleine ziemlich verstörende Erkenntnisse. Und für uns daher ein Grund mehr, um E-Mails wie der oben erwähnten tatsächlich nachzugehen.

Ralf Neumann

Zeichnung: Rafael Florés

Reproduzierbarkeitskrise? — Selber schuld!

13. Juni 2018 von Laborjournal

(Zugegeben, der folgende Text erschien bereits in etwas anderer Form als Editorial unserer Print-Ausgabe 10/2014. Kürzlich versicherte uns jedoch ein Leser, dass sich bis heute nichts an der Brisanz des Inhalts geändert habe — und dass es durchaus Sinn mache, ihn nochmals zu reproduzieren. Womit wir beim Thema wären…)

 

Die Forschung hat ein Reproduzierbarkeitsproblem. Mehrere Handvoll Studien zum Thema sind inzwischen publiziert — allesamt mit dem ernüchternden Ergebnis, dass die Autoren jeweils weit über die Hälfte speziell ausgewählter Studien nicht „nachkochen“ konnten (LJ 3/2014: 18-23). Und bekanntlich gilt ja nur als robustes wissenschaftliches Resultat, was unabhängig in Oslo, Osaka, Ouadougou oder wo auch immer reproduziert werden kann.

Doch nicht nur die Reproduzierbarkeit macht Sorgen. Seit 2005 mahnt der inzwischen berühmt-berüchtigte US-Epidemiologe John Ioannidis unermüdlich, dass die Mehrzahl der Forschungsergebnisse falsch sei — und zwar schlichtweg wegen lausiger und somit unhaltbarer Statistik (siehe auch unser Interview mit Ioannidis in Lab Times 4/2014: 30-33). „Why Most Published Research Findings Are False“ lautete damals der Titel seines aufsehenerregenden Papers in PLoS ONE (Bd. 2(8): e124).

Seitdem ist er nicht allein geblieben. Erst kürzlich griff etwa der Berliner Neurologe Ulrich Dirnagl das Thema in unserem Jubiläumsheft „20 Jahre Laborjournal“ mit einer eigenen Analyse auf (LJ 7-8/2014: 38-41). „Sind die meisten Forschungsergebnisse tatsächlich falsch?“, fragte er in Anlehnung an Ioannidis in der Überschrift. Und gab die Antwort bereits im Vorspann: „Leider ja — Bias und schlechte Statistik fluten viele Paper mit falsch positiven Resultaten.“

Bias, schlechte Statistik, Reproduzierbarkeitsmangel — all dies zusammen ergibt schnell ein übel riechendes Gebräu, über dem man leicht naserümpfend diagnostizieren kann: „Der Patient Wissenschaft ist wirklich krank.“ Doch worin könnte die Therapie bestehen? Man kann es drehen und wenden, wie man will — man landet immer wieder bei den Autoren und ihren Pflichten. Die folgenden zwei, gar nicht mal ganz neuen Studien sollen dies unterstreichen…       Diesen Beitrag weiterlesen »

Was ist faul an diesem Bild?

23. Oktober 2017 von Laborjournal

Es scheint leider traurige Gewissheit: In den letzten Jahren haben die Mauscheleien in den Abbildungen von Originalveröffentlichungen deutlich zugenommen. Der redliche Wissenschaftler ist daher wahrlich nicht schlecht beraten, möglichst auch den eigenen Blick für etwaige „Seltsamkeiten“ in Paper-Abbildungen zu schärfen. Denn andernfalls könnte solch ein „Trugbild“ womöglich auch das eigene Projekt irgendwann auf die falsche Fährte führen.

Wir von Laborjournal wollen bei der Schärfung der entsprechenden Sinne helfen — und stellen daher zum nun folgenden Bild die Frage: „Was ist daran wohl faul?“

x

Das Bild stammt aus dieser Originalveröffentlichung in Clinical Cancer Research. Uns ist nicht bekannt, ob das offensichtliche „Missgeschick“ inzwischen irgendwelche Konsequenzen nach sich gezogen hat. Zurückgezogen oder korrigiert ist das Paper jedenfalls bis heute nicht. Genauso wenig haben die Autoren bisher erklärt, wie der „Fauxpas“ zustande kam.

Und wer jetzt immer noch nicht weiß, was genau „faul“ ist an der Abbildung, bitte hier auf PubPeer nachschauen. Dort wurde erstmals darauf hingewiesen, dass hier etwas abgebildet ist, was sich so wie gezeigt einfach nicht „sauber“ abgespielt haben kann.

x

Vertrauenssache Peer Review

29. September 2017 von Laborjournal

Mitarbeiter der Annals of Internal Medicine stellten vorletzte Woche auf dem International Congress for Peer Review and Scientific Publication die Ergebnisse einer ziemlich interessanten Befragung vor. Deren Thema: Missbrauch von eingereichten Manuskripten durch Peer Reviewer (Originaltitel: Misuse of Received Manuscripts by Peer Reviewers: A Cross-sectional Survey).

Als Resultat halten sie zunächst einmal fest:

A total of 1431 of 3275 invited reviewers (44%) returned the survey […] Nearly half indicated having reviewed and published more than 50 manuscripts and having mentored others in peer review. Reasons reported for agreeing to review included keeping up to date in a research field (957/1417 [68%]), a sense of obligation to peer review (1316/1417 [93%]), …

So weit, so gut. Mit dem nächsten Grund, warum die Befragten die Manuskripte zur Begutachtung annehmen, wird es dann allerdings schon etwas kniffliger:

… and to know what competitors are doing (190/1417 [13%]).

Aha — ganze 13 Prozent der Befragten gaben also zu, Manuskripte vor allem deswegen zur Begutachtung anzunehmen, weil es ein guter Weg sei, sich darüber zu informieren, was die Konkurrenz so treibt. Da man derlei aber selbst in anonymen Umfragen aus selbstwertdienlichen Gründen nicht wirklich gerne preisgibt, dürften die 13 Prozent die tatsächliche Realität sogar noch schmeichelhaft abbilden.

Doch es kommt noch besser:

One hundred sixty-nine of 1417 (12%) had agreed to review manuscripts from authors with whom they had conflicts of interest; of these, 61 (36%) did so without informing the journal’s editor. One hundred fifty-three of 1413 (11%) showed manuscripts to colleagues without seeking permission.

Diese Art „Schindluder-Verhalten“ gibt man in diesem Zusammenhang sicher noch weniger gerne zu. Mit der Folge, dass die „Dunkelziffern“ für diese Art Missbrauch von anvertrauten Manuskripten nochmals höher ausfallen dürften.

Gleiches gilt natürlich auch für das letzte vorgestellte Ergebnis der Befragung:

Twenty-six of 1414 (2%; 95% CI, 1%-3%) indicated having used the information in a reviewed manuscript for personal or academic benefit prior to the paper’s publication. Such reported use included using what was learned to alter one’s own research plans, speeding up journal submission of one’s own work related to the subject of the manuscript being reviewed, and copying some part of the reviewed manuscript for one’s own work.

Okay, das sind zwar nur zwei Prozent — aber dennoch heißt das zusammen mit den anderen, bereits genannten Ergebnissen schlichtweg, dass das Vertrauensverhältnis zwischen Autoren und Gutachtern, auf dem das gesamte Peer-Review-System fußt, offenbar deutlich öfter gebrochen wird, als einem lieb sein kann.

Entsprechend schreiben die Autoren dann auch in ihrer Conclusion:

Trust that reviewers will treat manuscripts received for peer review as confidential communications is an essential tenet of peer review. Although self reported and of uncertain generalizability, these results suggest that breaches of this trust do occur. Larger studies involving multiple journals should be considered to assess the generalizability of these results and to inform targeted educational initiatives aimed at promoting the highest ethical standards among peer reviewers.

Kommentare, Meinungen oder gar eigene Erlebnisse zu potenziellem Peer-Review-Missbrauch nehmen wir gerne entgegen. Entweder direkt hier über das unten folgende Kommentarfenster, oder auch diskreter via Mail an die Laborjournal-Redaktion.

Danke für eure Forschungspläne!

4. September 2017 von Laborjournal

x

(Vor kurzem erhielten wir folgende, von uns hier anonymisierte E-Mail:…)

———-

„Ich bin Postdoc an der Uni […], und derzeit von Drittmitteln bezahlt […], die Ende 2017 auslaufen. Daher habe ich mich im März auf eine Stelle […] beworben, die als „Full time tenure-track research position […]“ ausgeschrieben war. Für die Bewerbung musste man neben dem CV auch einen Research Plan beilegen, der ein für die folgenden Jahre anvisiertes Forschungsprogramm überzeugend darlegt.

Am 1. Juni, also mehr als zwei Monate nach Ende der Bewerbungsfrist, fragte ich sehr höflich nach, ob man denn schon etwas über den Status der Bewerbung sagen könne. Ich habe bis heute keine Antwort bekommen.

Diese Woche erfuhr ich von einem Kollegen, der sich ebenfalls auf die Stelle beworben hat, dass die Stelle überhaupt nicht mehr mit einem Postdoc besetzt werden wird und man stattdessen Doktoranden einstellen will. Diese Information hat mein Kollege von einem Mitarbeiter des „Zielinstitutes“ inoffiziell erhalten.

Mein Verdacht ist nun, dass die Verantwortlichen die Stelle bewusst attraktiv ausgeschrieben haben, um von den eingehenden Bewerbungen die Ideen der eingereichten Forschungspläne abzugreifen. Zu diesem Plan würde gehören, dann doch keinen Postdoc dauerhaft auf die Stelle zu setzen, sondern die Arbeit stattdessen von nicht langfristig angestellten Doktoranden machen zu lassen. Die Anleitungen hierzu finden sich ja in den eingereichten Forschungsplänen (zumindest war mein Forschungsplan so gestaltet).

Am besten finde ich dazu noch, dass ein Mitarbeiter des Zielinstituts sich mit meinem Kollegen (derjenige, von dem ich die Sache inoffiziell erfahren habe) getroffen hat, um eine mögliche Kooperation über das in dessen Forschungsplan vorgeschlagene Projekt zu besprechen!

Ich habe natürlich keine Beweise dafür, dass das geschilderte Vorgehen bewusst so geplant worden ist. Neben der Stelle, auf die ich mich beworben habe, wurden noch zwei oder drei weitere Stellen (ebenso mit tenure track) vom besagten Institut ausgeschrieben. Ob sie inzwischen besetzt sind, weiß ich nicht.

Ich will ja nicht jammern, aber vielleicht lohnt es sich, hier einmal nachzuforschen. Vielleicht ist das aber auch gängige Praxis, und ich habe es bisher nur nicht gewusst. Was meinen Sie […] dazu?“

———-

Tja, was meinen unsere Leser dazu? Selbst mal etwas Ähnliches erlebt? Und kann es tatsächlich Methode haben, auf diese Weise Forschungsideen und experimentelle Konzepte zu klauen? Antworten bitte unten im Kommentarfenster, oder direkt an unsere Redaktion unter redaktion@laborjournal.de.

x

Stellen-Schnappen mit Mauschel-Publikationen

23. Juni 2017 von Laborjournal

Anfang der Woche schrieben wir auf Laborjournal online über Datenmanipulationen in acht Veröffentlichungen von Karl Lenhard Rudolph, dem wissenschaftlichen Direktor des Leibniz-Instituts für Alternsforschung — Fritz-Lipmann-Institut (FLI) in Jena. Später am gleichen Tag berichtete auch Retraction Watch unter dem Titel „German institute sanctions director after finding him guilty of misconduct“ darüber.

Interessant ist hier der Kommentar No. 2 unter dem Artikel. Dieser macht aufmerksam auf Jianwei Wang, der als Ko-Autor auf vier der acht inkriminierten Veröffentlichungen der Gruppe von Rudolph erscheint — davon dreimal als Erstautor. Nicht ohne säuerlichen Beigeschmack schreibt der Kommentator, dass Wang sich in der Zwischenzeit einen guten Job an der Tsinghua University gesichert habe. Man muss kein Hellseher sein, um sich auszumalen, dass die vier Mauschel-Publikationen aus seiner FLI-Zeit sicher eine entscheidende Rolle beim Zuschlag für die PI-Stelle gespielt hatten.

Dieses Muster des Stellen-Schnappens mit mehr als zweifelhaften Publikationen hatten wir erst in unserem Maiheft am Fall der Ex-Kölner Mitochondrien-Forscherin Tina Wenz thematisiert. Damals schrieben wir:

[…] kurz vor Bekanntwerden der Fälschungsvorwürfe auf PubPeer war sie von der Universität zu Köln als Wissenschaftlerin zu Boehringer Ingelheim gewechselt.

Interessant indes, wie man dort auf die Enthüllungen reagierte. Auf Anfrage des Blogs Retraction Watch antwortete ein Unternehmenssprecher Ende letzten Jahres, dass Tina Wenz die volle Verantwortung für jegliches Fehlverhalten in ihrem Kölner Labor übernommen habe. Ferner jedoch habe Boehringer Ingelheim volles Vertrauen in die Qualität der Forschungsarbeiten seiner Mitarbeiter — auch vor dem Hintergrund, dass die Integrität und Validität von Forschungsdaten in der Firma höchste Priorität genießen.

Natürlich kann eine Firma beschäftigen, wen immer sie will. Das Zeichen jedoch, das Boehringer Ingelheim damit vor allem an Nachwuchsforscher aussendet, ist fatal. Denn verallgemeinert heißt das: „Daten zurechtbiegen ist nicht schlimm. Und wenn es dann noch ein klein wenig dauert, bis sie dir auf die Schliche kommen, hast du womöglich sogar schon deine Karriere gesichert.“

Wer weiß, wie viele noch auf guten Stellen sitzen, die sie einst nach diesem faulen Muster ergattert haben?

Ralf Neumann

(Illustr.: freshidea / Fotolia)

Die Lance Armstrongs der Tour de Science

3. Februar 2016 von Laborjournal

Und wieder ein Zitat aus einer E-Mail an unsere Redaktion. Ein Bio-Emeritus im aktiven Unruhestand prangert darin mit deutlichen Worten einige „Unsitten“ im aktuellen Forschungsbetrieb an:

Da die Zahl der für das öffentliche und private Leben relevanten Skandale meine Fähigkeit zu kotzen weit überfordert […], bemühe ich mich schon seit einiger Zeit um eine gewisse pragmatische Rangordnung. Im Hinblick auf Wissenschaftsskandale heißt das für mich, dass ich nach den Lance Armstrongs der internationalen Tour de Science und vor allem nach den Strukturen frage, die diesen Figuren zur Verfügung stehen.

Da komme ich dann auf Fragen zum Wahnsinn der Impact Faktoren und CNS-Publikationen als Kriterium wissenschaftlicher Befähigung. CNS hat nichts mit Gehirn zu tun, sondern steht für Cell, Nature, Science — und damit gleichsam für den Glauben an die Weisheit der Editoren von Journalen, deren Hauptziel darin besteht, den Impact Faktor ihres Journals zu steigern oder wenigstens zu halten.

Ich beschäftige mich weiter mit dem Problem, was alles „behind the scenes“ passiert und offenbar möglich ist. Ich frage mich, warum ich immer wieder auf Arbeiten stoße, die in High Impact-Journalen veröffentlicht wurden und die völlig perfekt erscheinen — abgesehen davon, dass sich die Hauptergebnisse nicht reproduzieren lassen.

Ich frage mich, warum viele Wissenschaftler das Gefühl haben, dass man in einem Manuskript die — oftmals ja leider berechtigten — eigenen Sorgen wegen der Grenzen der verwendeten Methoden, beispielsweise aufgrund unerwünschter, schwer zu kontrollierender Artefakte, besser gar nicht erst andiskutieren sollte.

Ich frage mich, warum es üblich scheint, Ergebnisse besser wegzulassen, die nicht ins Schema der perfekten Reproduzierbarkeit passen und die möglicherweise die Beweisführung für oder gegen eine bestimmte Hypothese untergraben könnten.

Ich frage mich, wie es dazu kommt, dass heute umgehend immer nur nach einem molekularen Mechanismus gefragt wird, selbst wenn die phänomenologischen Grundlagen des untersuchten biologischen  Systems noch weitgehend ungeklärt sind.

Ich frage mich, wie das Begutachtungssystem verändert werden sollte — und vor allen Dingen, wie es öffentlich gemacht werden kann. Ich für meinen Teil habe seit etwa einem Jahr begonnen, alle meine Zeitschriftengutachten mit meinem Namen zu zeichnen.

Ich frage mich, wie es kommt, dass Gutachter ihren Auftrag dahingehend missbrauchen, dass sie die Autoren eingereichter Arbeiten zwingen, eine To-do-Liste abzuarbeiten, nach der die geforderten zusätzlichen Experimente gar nichts mehr mit notwendigen Kontrollen zu tun haben, sondern lediglich willkürliche Erweiterungen nach dem Geschmack des Gutachters darstellen.

Fragen, die viele zwar schon lange kennen — die deswegen aber nicht aufhören zu schmerzen. Antworten und Meinungen dazu, wie immer, direkt unten als Kommentar zu diesem Blog-Beitrag, oder auch per E-Mail an redaktion@laborjournal.de.

(Foto: Fotolia/erkamit)

x

Paper zurückgezogen — und wen soll ich jetzt zitieren?

11. Dezember 2015 von Laborjournal

Schon seit einiger Zeit muss der Zürcher Pflanzenforscher Olivier Voinnet ein Paper nach dem anderen wegen inkorrekter Abbildungen zurückziehen oder zumindest großflächig korrigieren. Zwischenstand sind momentan zwölf „Corrections“ und sieben „Retractions“.

Dennoch sticht die letzte Retraction heraus. Mitte November zog The Plant Journal den Artikel „An enhanced transient expression system in plants based on suppression of gene silencing by the p19 protein of tomato bushy stunt virus“ in Übereinkunft mit den Autoren Olivier Voinnet, Susana Rivas, Pere Mestre und David Baulcombe vollends zurück, nachdem sie ihn bereits im Juni erstmals korrigiert hatten. Das jedoch ist nicht wirklich der Punkt. Viel erstaunlicher ist die Tatsache, dass der Artikel bis dahin bereits über 900-mal zitiert worden war.

Was heißt das?

Der Artikel beschreibt erstmals eine neue und einfache Methode zur effektiven Steigerung der transienten Expression von eingebrachten Fremdgenen in Pflanzen. Basis dafür ist die Ko-Transfektion mit dem Gen für das Virusprotein P19, welches allgemein das posttranslationale Gene Silencing in Pflanzenzellen hemmt. Das P19-System steigert also die Expression des Fremdgens, indem es die natürliche Expressionsbremse der Pflanzenzelle blockiert.

Über 900 Zitierungen, wie gesagt. Die muss es doch großteils dafür gegeben haben, dass trotz der unzulässig manipulierten Abbildungen die Methode funktioniert. Und tatsächlich twitterte Sophien Kamoun, Laborleiter am Sainsbury Lab in Norwich/UK:

Das scheint also tatsächlich nicht die Frage. Allerdings ergibt sich daraus ein ganz anderes Problem, das Dmitri Nusinow vom Donald Danforth Plant Science Center in Creve Coer, Missouri/USA, via Twitter folgendermaßen ausdrückt:

 

Berechtigte Frage — denn schließlich gilt ein zurückgezogenes Paper per definitionem als augenblicklich aus dem Scientific Record gelöscht. Wen sollen die zahlreichen P19-Anwender also künftig zitieren? Die Erstbeschreibung der Methode gilt — aus guten Gründen! — als gelöscht. Woanders steht sie offensichtlich nicht in ausreichendem Detail beschrieben, da alle nachfolgenden Anwender — zu Recht — auf die Erstbeschreibung verwiesen.

Soll man sich jetzt also darauf einigen, stattdessen einen der ersten Anwender zu zitieren? Wohl kaum — denn zum einen stünde die Methode dort auch nicht vollständig drin, und zum anderen bekäme der betreffende Artikel auf diese Art sicher viel mehr Zitierungen als er tatsächlich verdient. Oder erklärt man die Methode einfach zum allgemeinen Wissen, das man nicht mehr zu zitieren braucht — und muss wegen der Details trotzdem weiter in das zurückgezogene Paper schielen, weil sie ja nirgendwo sonst aufgeschrieben stehen.

Eigentlich müsste jemand die Methode nochmals „neu“ mit allen Details veröffentlichen — vielleicht ja sogar noch mit einigen neuen. Das wäre dann zwar ordnungsgemäß zitierbar, aber wie oben schon gesagt: Ordnungsgemäß verdiente Zitierungen wären das nicht.

Hmm — hat vielleicht jemand einen anderen Vorschlag?

Soll Peer Review Fälschung aufdecken?

17. Juli 2015 von Laborjournal

Über eine Reform des Peer Review-Systems lässt sich trefflich streiten. Ein immer wieder ins Feld geführtes Argument gegen den klassischen Peer Review ist jedoch nicht ganz fair: Dass die Zunahme getürkter Paper in der Forschungsliteratur doch zeige, wie unzulänglich die Begutachtung funktioniert. Beispielsweise in diesem Blogbeitrag zu lesen.

Zum Glück findet man deutlich mehr Beiträge im Internet, die klar sagen, dass dies gar nicht die Aufgabe des klassischen Peer Review ist. Schließlich begutachten nicht irgendwelche FBI-Spezialisten oder Magier mit „sehenden Augen“ die Manuskripte — sondern ganz normale Forscherkollegen. Und die gehen zu Recht erst einmal davon aus, dass die Autoren eines Manuskripts sie weder belügen noch betrügen wollen. Peer Review würde unter einem solchen Generalverdacht wohl kaum vernünftig funktionieren — weder in der Prä-Publikations- noch in der Post-Publikations-Variante.

Denn was Peer Review leisten soll, ist doch vielmehr folgendes:

  • das Manuskript auf Schlüssigkeit prüfen — vor allem hinsichtlich der Fragen „Unterstützen die Daten tatsächlich die Schlussfolgerungen?“ oder „Sind womöglich noch andere Interpretationen der Daten möglich?“;
  • den tatsächlichen Erkenntniswert einschätzen und einordnen — also etwa beurteilen, ob die Arbeit dem Feld tatsächlich etwas Neues hinzufügt oder ob lediglich „alter Wein in neuen Schläuchen“ präsentiert wird;
  • und natürlich die Autoren auf mögliche gedankliche und handwerkliche Fehler hinweisen — um das finale Paper mit Hilfe dieser Tipps und Hinweise so gut wie nur möglich zu machen.

Peer Review kann auf verschiedene Weise missbraucht werden, keine Frage. Das darf aber nicht überdecken, dass Gutachter idealerweise (!) die Aufgabe haben, die Arbeiten der Kollegen zwar kritisch, aber möglichst wohlwollend zu beurteilen — und eben nicht jeden Autoren von Vornherein des potentiellen Betrugs zu verdächtigen. Diese „Vor-Einstellung“ ist gut so, funktioniert offenbar mehrheitlich — und wird auf genau diese Weise auch weiterhin gebraucht.

Die damaligen Editoren des Journal of Laboratory Clinical Medicine, Dale Hammerschmidt und Michael Franklin, fassten dies vor einigen Jahren folgendermaßen zusammen:

Peer review, we believe, is good at detecting when scientists draw the wrong conclusions from empirical data as a result of errors in study design or analysis. The peer reviewer begins with the assumption that he’s not being lied to, and his charge is that of referee rather than sleuth. The question ‚Do the data support the conclusions?‘ comes more naturally than ‚Did this guy simply make this up?‘ One’s peers are often quite helpful at identifying flaws in experimental design or data analysis—honest mistakes or oversights on the part of the researcher. Scientific fraud of the sort involving deliberate fabrication of data or selective reporting of data is not as easy for journal editors or peer reviewers to detect.

Es kommt also noch dazu, dass man geplante Fälschung in aller Regel sowieso viel schwerer erkennt als unabsichtliche Fehler oder Irrtümer. Liegt auf der Hand, oder?

Als ich vor nunmehr 18 Jahren den ehemaligen Ulmer Klinikchef Vinzenz Hombach im Zusammenhang mit der Fälschungsaffäre um Friedhelm Herrmann auf dieses Dilemma ansprach, antwortete er nur:

Wenn mir ein Mitarbeiter oder ein Kollege manipulierte Daten unterschieben will, dann schafft er das. Ohne dass ich die Chance habe, es zu merken.“

Die sicherlich dringend notwendige Aufgabe, manipulierte Daten in eingereichten Manuskripten aufzuspüren, müssen folglich andere übernehmen. Auch, weil man sonst das Ideal des wohlwollend helfenden und verbessernden Peer Review womöglich gleich mit auskippt.

Foto: fotolia.com / INFINITY

 

Bild unter Verdacht (1)

5. Mai 2015 von Laborjournal

Seit jeher erhält Laborjournal Hinweise auf mögliche Manipulationen in Paper-Abbildungen. In den letzten Monaten haben diese jedoch auffällig zugenommen. Grund genug, ab jetzt einige der verdächtigen Abbildungen anonymisiert hier im Blog zu präsentieren — und zu fragen, ob an dem Manipulationsverdacht tatsächlich etwas dran sein könnte. Oder eben nicht.

Den Anfang machen wir mit folgendem Ausschnitt aus der Abbildung eines gewissen 2007er-Papers:

Der Verdacht:

(1) Das unterste Western-Blot-Panel scheint eine vertikal gespiegelte Kopie des obersten zu sein, obwohl beide natürlich zwei verschiedene Experimente darstellen sollen. Neben der Ähnlichkeit der Bandenformen besonders starkes Indiz für eine unzulässige Duplikation: Der helle, vertikale „Störungsstreifen“ (roter Pfeil) durch die zweite Bande von rechts (oben) beziehungsweise die zweite Bande von links (unten).

(2) Zudem scheint das zweite Panel von unten eine Kopie des zweiten Panels von oben zu sein – allerdings wurden hier offenbar die Banden des oberen Panels zusätzlich noch in der Breite gestreckt sowie in der Höhe gestaucht. Besonders „entlarvend“ für die mutmaßliche Kopie scheinen auch hier wiederum die unspezifischen Störungen zu sein — konkret die Dreckpunkte (blaue Pfeile), die sich relativ zu den Banden jeweils an denselben Stellen befinden.

Die Frage:

Sind die Panels womöglich wirklich in der beschriebenen Weise dupliziert worden? Oder gibt es stattdessen andere, „angenehmere“ Erklärungen für die Auffälligkeiten?

x