Lobet und preiset saubere Retractions!

20. Januar 2021 von Laborjournal

Stellen Sie sich vor: Sie stoßen auf einen Artikel, der laut Titel für Ihr Forschungsprojekt interessant sein könnte – aber sehen sogleich, dass er zurückgezogen wurde. Einen Klick weiter landen Sie bei der Retraction Notice – und lesen lediglich die dünnen Worte: „This article has been withdrawn.“

„Kryptischer geht’s nicht mehr“, denken Sie. Und zurück bleiben Fragen. Wer hat den Artikel zurückgezogen? Waren es die Autoren, der Editor – oder alle zusammen? Und warum wurde das Paper zurückgezogen? Gab es Messfehler? War etwas nicht reproduzierbar – und wenn ja, was genau? Traten Inkonsistenzen in den Daten zutage, sodass die Schlussfolgerungen nicht mehr haltbar waren? Oder schlimmer: Hat da jemand schlampig gearbeitet? Womöglich sogar bewusst Daten gefälscht?

„Wenn die so wenig dazu schreiben, wird es wohl Fälschung sein“, denken Sie. „Die wollen die Autoren halt nicht an den Pranger stellen.“ Und schon haben Sie den Autoren womöglich Unrecht getan.

Wundern muss das bei derart „zurückhaltender“ Informationspolitik allerdings nicht. Zumal das Beispiel keinen Einzelfall darstellt. Kürzlich erst präsentierte etwa ein vietnamesischer Autor eine Analyse von zweitausend Retraction Notices aus den Jahren 1975 bis 2019 (Learn. Publ. 33: 119-130). Eines seiner Ergebnisse: Über die Hälfte spezifizierte nicht, wer die Retraction initiiert hatte, fast jede zehnte war gar ohne jegliche Notice erschienen. Und wenn die Gründe für die Rücknahme erklärt wurden, dann oft nur ansatzweise und kaum nachvollziehbar.

Diese fehlende Transparenz ist sicher ein Hauptgrund dafür, dass Retractions einen derart schlechten Ruf haben. Mit der Folge, dass Journals sie am liebsten vermeiden oder wenigstens ganz weit hinten verstecken möchten.

Schlimmer aber ist, dass die vielen ehrlichen Forscher, die redliche Mängel in ihren eigenen Artikeln aufspüren und sie via Retraction den Kollegen anzeigen wollen, daher Angst vor Stigmatisierung haben müssen. Weil es ihnen vorkommen muss, als schlüge ihnen ein zurückgezogenes Paper eine hässliche Narbe in die Publikationsliste. Und dass sie sich daher womöglich lieber still verhalten.

Dabei würden sie doch im anderen Fall einen der höchsten Werte unserer Wissenschaftskultur hochhalten: die Selbstkorrektur. Wofür sie – ganz im Gegenteil – eigentlich gelobt und gepreist gehörten.

Ralf Neumann

Was ist faul an diesem Bild?

23. Oktober 2017 von Laborjournal

Es scheint leider traurige Gewissheit: In den letzten Jahren haben die Mauscheleien in den Abbildungen von Originalveröffentlichungen deutlich zugenommen. Der redliche Wissenschaftler ist daher wahrlich nicht schlecht beraten, möglichst auch den eigenen Blick für etwaige „Seltsamkeiten“ in Paper-Abbildungen zu schärfen. Denn andernfalls könnte solch ein „Trugbild“ womöglich auch das eigene Projekt irgendwann auf die falsche Fährte führen.

Wir von Laborjournal wollen bei der Schärfung der entsprechenden Sinne helfen — und stellen daher zum nun folgenden Bild die Frage: „Was ist daran wohl faul?“

x

Das Bild stammt aus dieser Originalveröffentlichung in Clinical Cancer Research. Uns ist nicht bekannt, ob das offensichtliche „Missgeschick“ inzwischen irgendwelche Konsequenzen nach sich gezogen hat. Zurückgezogen oder korrigiert ist das Paper jedenfalls bis heute nicht. Genauso wenig haben die Autoren bisher erklärt, wie der „Fauxpas“ zustande kam.

Und wer jetzt immer noch nicht weiß, was genau „faul“ ist an der Abbildung, bitte hier auf PubPeer nachschauen. Dort wurde erstmals darauf hingewiesen, dass hier etwas abgebildet ist, was sich so wie gezeigt einfach nicht „sauber“ abgespielt haben kann.

x

Soll Peer Review Fälschung aufdecken?

17. Juli 2015 von Laborjournal

Über eine Reform des Peer Review-Systems lässt sich trefflich streiten. Ein immer wieder ins Feld geführtes Argument gegen den klassischen Peer Review ist jedoch nicht ganz fair: Dass die Zunahme getürkter Paper in der Forschungsliteratur doch zeige, wie unzulänglich die Begutachtung funktioniert. Beispielsweise in diesem Blogbeitrag zu lesen.

Zum Glück findet man deutlich mehr Beiträge im Internet, die klar sagen, dass dies gar nicht die Aufgabe des klassischen Peer Review ist. Schließlich begutachten nicht irgendwelche FBI-Spezialisten oder Magier mit „sehenden Augen“ die Manuskripte — sondern ganz normale Forscherkollegen. Und die gehen zu Recht erst einmal davon aus, dass die Autoren eines Manuskripts sie weder belügen noch betrügen wollen. Peer Review würde unter einem solchen Generalverdacht wohl kaum vernünftig funktionieren — weder in der Prä-Publikations- noch in der Post-Publikations-Variante.

Denn was Peer Review leisten soll, ist doch vielmehr folgendes:

  • das Manuskript auf Schlüssigkeit prüfen — vor allem hinsichtlich der Fragen „Unterstützen die Daten tatsächlich die Schlussfolgerungen?“ oder „Sind womöglich noch andere Interpretationen der Daten möglich?“;
  • den tatsächlichen Erkenntniswert einschätzen und einordnen — also etwa beurteilen, ob die Arbeit dem Feld tatsächlich etwas Neues hinzufügt oder ob lediglich „alter Wein in neuen Schläuchen“ präsentiert wird;
  • und natürlich die Autoren auf mögliche gedankliche und handwerkliche Fehler hinweisen — um das finale Paper mit Hilfe dieser Tipps und Hinweise so gut wie nur möglich zu machen.

Peer Review kann auf verschiedene Weise missbraucht werden, keine Frage. Das darf aber nicht überdecken, dass Gutachter idealerweise (!) die Aufgabe haben, die Arbeiten der Kollegen zwar kritisch, aber möglichst wohlwollend zu beurteilen — und eben nicht jeden Autoren von Vornherein des potentiellen Betrugs zu verdächtigen. Diese „Vor-Einstellung“ ist gut so, funktioniert offenbar mehrheitlich — und wird auf genau diese Weise auch weiterhin gebraucht.

Die damaligen Editoren des Journal of Laboratory Clinical Medicine, Dale Hammerschmidt und Michael Franklin, fassten dies vor einigen Jahren folgendermaßen zusammen:

Peer review, we believe, is good at detecting when scientists draw the wrong conclusions from empirical data as a result of errors in study design or analysis. The peer reviewer begins with the assumption that he’s not being lied to, and his charge is that of referee rather than sleuth. The question ‚Do the data support the conclusions?‘ comes more naturally than ‚Did this guy simply make this up?‘ One’s peers are often quite helpful at identifying flaws in experimental design or data analysis—honest mistakes or oversights on the part of the researcher. Scientific fraud of the sort involving deliberate fabrication of data or selective reporting of data is not as easy for journal editors or peer reviewers to detect.

Es kommt also noch dazu, dass man geplante Fälschung in aller Regel sowieso viel schwerer erkennt als unabsichtliche Fehler oder Irrtümer. Liegt auf der Hand, oder?

Als ich vor nunmehr 18 Jahren den ehemaligen Ulmer Klinikchef Vinzenz Hombach im Zusammenhang mit der Fälschungsaffäre um Friedhelm Herrmann auf dieses Dilemma ansprach, antwortete er nur:

Wenn mir ein Mitarbeiter oder ein Kollege manipulierte Daten unterschieben will, dann schafft er das. Ohne dass ich die Chance habe, es zu merken.“

Die sicherlich dringend notwendige Aufgabe, manipulierte Daten in eingereichten Manuskripten aufzuspüren, müssen folglich andere übernehmen. Auch, weil man sonst das Ideal des wohlwollend helfenden und verbessernden Peer Review womöglich gleich mit auskippt.

Foto: fotolia.com / INFINITY

 

Institutionen mit auf die Anklagebank

22. Juli 2014 von Kommentar per Email

(Unser Autor Leonid Schneider plädiert in folgendem Text für härtere Bestrafung bei vorsätzlicher Forschungsfälschung.)

Die Wissenschaft hat ein zunehmendes Glaubwürdigkeitsproblem. Immer mehr, zum Teil sehr hochkarätige Publikationen werden zurückgezogen oder von Kollegen öffentlich angezweifelt. Man siehe etwa nur die Retractions der beiden Nature-Paper über die märchenhaften STAP-Zellen

Die Gründe sind leider eher selten, wie oft von Autoren behauptet, „ehrliche Fehler“, sondern gravierende Datenmanipulationen, die nur mit Vorsatz zu erklären sind. Damit gerät die Glaubwürdigkeit der Wissenschaft in Gefahr — folglich muss etwas getan werden, um den Pfuschern in der Forschung das Handwerk zu legen.

Gewisse Lösungsvorschläge gehen bereits in die richtige Richtung. Diesen Beitrag weiterlesen »

Bandenspuren

2. Juli 2014 von Laborjournal

Eine der „beliebtesten“ Methoden der Datenfälschung in Forschungsartikeln ist das mehrfache Kopieren und Einsetzen derselben Gelbanden. Man nimmt eine besonders schöne Bande, kopiert sie — und fügt sie in weiteren Gelpuren dort ein, wo im Original entweder keine oder wenigstens keine besonders eindrucksvollen Banden waren. Um die ganze Betrügerei zu tarnen, werden die kopierten Banden oftmals zuvor in Photoshop noch leicht verzerrt, im Kontrast verändert, vertikal und horizontal gespiegelt oder anders manipuliert.

Womit man den Kopierern jedoch weiterhin auf die Spur kommen kann, sind die spezifischen Gel- oder Scanfehler, die sich in den jeweiligen Banden geradezu diagnostisch widerspiegeln. Die inzwischen weithin berüchtigte Fälschungsjägerin (oder -jäger), die sich hinter dem Pseudonym Clare Francis verbirgt, machte uns beispielsweise kürzlich auf diesen Gelausschnitt aufmerksam (auf das Bild klicken für eine vergrößerte Version):

Sofort fällt auf, dass die Banden 1, 3 , 5 und 7, wie auch die Banden 2, 4 und 6 formgleich sind. Solche nahezu deckungsgleichen Formen können bis zu einer gewissen Grenze natürlich dadurch entstehen, dass ähnliche Proben unter identischen Laufbedingungen im gleichen Gel liefen. Jetzt schauen wir uns aber die Banden 2, 4 und 6 mal genauer an. Vor allem in der vergrößerten Version erkennt man, dass jede einzelne am rechten oberen Rand einen auffälligen weißen Punkt an exakt der gleichen Stelle enthält (es gibt noch mindestens einen weiteren, nicht ganz so auffälligen rechts von der Mitte). Solche „Punkte“ haben nun rein gar nichts mit den physikalischen Laufbedingungen des Gels zu tun, sondern resultieren entweder aus lokalen „Gelfehlern“ (etwa eingeschlossenen Partikeln oder Luftblasen) oder aus wiederum lokalen Störungen im Gelscan. Dass solche streng lokalen Ereignisse zufälligerweise und völlig unabhängig voneinander dreimal ein und denselben „weißen Punkt“ in drei sowieso schon formidentischen Banden verursachen — dafür dürfte die Wahrscheinlichkeit praktisch Null sein.

Clare Francis‘ Urteil ist klar: Diese Abbildung wurde durch multiple Bandenduplikation manipuliert. Und wir finden dafür ehrlich gesagt auch keine andere Erklärung. Vielleicht jemand anders?

(Übrigens geben wir hier bewusst nicht preis, aus welcher Veröffentlichung der gezeigte Gelausschnitt stammt. Wir werden zunächst die Autoren und das betreffende Journal um Stellungnahmen zu den „Befunden“ ersuchen.)

Und auch auf die Gefahr hin, Fälschungswillige weiter zu motivieren: Leider lassen sich mit ein bisschen mehr Photoshop-Arbeit auch die Formähnlichkeit der Banden und solche verräterischen Störungsmuster leicht beseitigen. Traurig, aber wahr. Wer weiß, in wie vielen Publikationen auf diese Weise bereits effektiv „alle Spuren verwischt“ wurden.

„Da war doch mal was…?“

5. Juni 2014 von Laborjournal

Als Laborjournalist hat man immer wieder seinen Spaß mit Pressemitteilungen.

Zum Beispiel die Meldung „Professur in Adipositas-Chirurgie wieder besetzt“, die die Universität Leipzig am 20. Mai 2014 veröffentlichte. Darin liest man:

Im Mai hat die Universität Leipzig Prof. Dr. Arne Dietrich die Professur für Bariatrische Chirurgie am Integrierten Forschungs- und Behandlungszentrum (IFB) AdipositasErkrankungen […das schreiben die tatsächlich ohne Leerzeichen zusammen…] übertragen. Der 48-jährige Sachse leitet bereits die Sektion für Bariatrische Chirurgie am Universitätsklinikum Leipzig. Zusammen mit der im Januar 2014 verliehenen Zertifizierung als Kompetenzzentrum für Adipositaschirurgie ist die Neubesetzung eine weitere Profilierung der Adipositas-Chirurgie in der Universitätsmedizin Leipzig. Die Professur für bariatrische Chirurgie am IFB wurde bereits 2010 als die deutschlandweit erste geschaffen.

Beim letzten Satz mussten wir endgültig schmunzeln. Die Uni Leipzig vergisst also nicht, die Einrichtung einer Professur für bariatrische Chirurgie als eigene Pioniertat zu rühmen und sich somit gleichsam mit der Aura des weitsichtigen Vorreiters zu umgeben. Was sie jedoch geflissentlich weglässt, ist, dass sie damals jemanden auf die „Pionier-Professur“ berief, der sich kurze Zeit später als schamloser Betrüger entpuppte: Edward Shang.

In nahezu allen Pressemeldungen vergleichbaren Inhalts folgt irgendwann der Standardsatz: „Er tritt damit die Nachfolge von Professor XY an, der…“ Hier jedoch nichts dergleichen. Holen wir es also nach:

„Dietrich tritt damit die Nachfolge von Edward Shang an, der 2012 überführt wurde, dass er bereits während seiner Anstellung am Universitätsklinikum Mannheim der Uni Heidelberg etliche Studiendaten frei erfunden hatte. Konsequenterweise wurden einige von Shangs Artikeln zurückgezogen, die Universität Leipzig trennte sich bereits im Mai 2012 wieder von ihm, und die Universität Heidelberg entzog ihm die Lehrbefugnis.“

(Shang arbeitet heute übrigens an der Chirurgischen Klinik Dr. Rinecker in München.)

Die Uni Leipzig hat damals nichts falsch gemacht und in der „Shang-Panne“ auch ungewohnt zügig gehandelt. Umso weniger sollte sie den Fall heute derart selektiv verschweigen müssen und gleichsam darauf hoffen, dass sich keiner mehr richtig an Shang erinnert — den Mann, den dieselbe Pressestelle bei Amtsantritt 2010 noch augenzwinkernd als „Professor der dicken Bäuche“ vorstellte.

Forscher-Netzwerke als Frühwarnsystem

26. März 2013 von Laborjournal

Aus der Reihe „Spontane Interviews, die es nie gab — die aber genau so hätten stattfinden können”. Heute: Prof. O. Dor, Sentiologisches Institut Forschungszentrum Witterberg.

LJ: Ah, Herr Professor Dor — gut, dass ich Sie treffe. Die jüngsten Datenfälschungen von ihrem Kollegen R.A. Dier betreffen doch direkt Ihre eigene Forschung. Wie groß ist der Schaden?

Dor: Schaden? Wir haben keinen Schaden.

LJ: Ja, aber Diers Daten waren doch getürkt. Sind die nicht irgendwie in ihre eigenen Projekte eingeflossen? Schließlich bildeten sie die Grundlage für einen ganzen Teil ihres eigenen Feldes.

Dor: Kann sein. Aber für uns waren sie nicht relevant.

LJ: Entschuldigung, aber das verstehe ich nicht wirklich. Das müssen Sie mir erklären?

Dor: Ganz einfach — wir haben es einfach vermieden, auf Diers Daten aufzubauen. Und wenn es doch Berührungspunkte gab, haben wir die Sachen erst einmal bei uns im Labor selbst verifiziert.

LJ: Das haben andere aber sicher nicht getan?

Dor: Doch. Die meisten, die ich kenne, haben genau das getan.

LJ: Das klingt ja, als hätten sie Diers Daten schon vorher nicht getraut.

Dor: Exakt. Diesen Beitrag weiterlesen »

Ein Springschwanz von Photoshops Gnaden

29. Dezember 2012 von Laborjournal

Erfundene Banden oder Kurven, fabrizierte Signale in Gewebeschnitten — alles schon erlebt in wissenschaftlichen Veröffentlichungen. Aber ein komplett „konstruiertes“ Bild von einem Tier?

Der Autor des Blogs Neuroskeptic beschreibt jedenfalls solch einen mutmaßlichen Fall. Demnach präsentierten amerikanische und rumänische Forscher um Erstautorin Deborah Altschuler im Jahr 2004 Bilder, die angeblich erstmals zeigten, dass Springschwänze (Collembola) tatsächlich parasitisch unter der menschlichen Haut leben können. Zusätzliche Brisanz erhielt der entsprechende Bericht dadurch, dass die Hautproben allesamt von Menschen stammten, bei denen zuvor ein psychotischer Dermatozoenwahn diagnostiziert worden war. War es demnach schließlich doch keine krankhafte Einbildung, dass unter ihrer Haut massenweise juckendes Ungeziefer krabbelt?

Das Paper war schon damals wegen methodischer Unzulänglichkeiten höchst umstritten und basierte vor allem auf folgender Abbildung:

 

Wie darin beschrieben, konnten die Autoren den Springschwanz offenbar erst nach selektiver Kontrastbearbeitung des Mikroskopiebildes richtig sichtbar machen.  Diesen Beitrag weiterlesen »

Silvia Bulfone-Paus und die wilde 13

13. Dezember 2011 von Laborjournal

Zwölf Publikationen der Immunologin Silvia Bulfone-Paus vom Forschungszentrum Borstel sind wegen manipulierter Daten bereits zurückgezogen (siehe auch Laborjournal 7-8/2011, S. 16 ff. und 21). Jetzt kam mit dem 2000er-Paper „An Interleukin-2-IgG-Fas Ligand Fusion Protein Suppresses Delayed-Type Hypersensitivity in Mice by Triggering Apoptosis in Activated T Cells as a Novel Strategy for Immunosuppression“ in Transplantation (vol. 69: 1386-91) nochmals eine hinzu.

In der Retraction Note heißt es etwas spärlich:

The Editors and Publisher retract the article by Bulfone-Paus et al. published in Transplantation (Vol. 69, pp. 1386–1391, April 15, 2000) because of the inaccurate information provided for Figures 4 and 5.

Jörg Zwirner wies bereits im Juni in seinem Abnormal Science Blog darauf hin, dass Teile der Fig. 5 offenbar 1:1 aus einer früheren Erstautor-Publikation von Silvia Bulfone-Paus in Nature Medicine (Nat Med. 1997; 3: 1124-8) übernommen wurden — obwohl die betreffenden Experimente angeblich in verschiedenen Mäusestämmen durchgeführt wurden. Über Fig. 4 schrieb er damals nicht.

Diese „Nummer 13“ ist allerdings noch aus einem ganz anderen Grund „wild“. Diesen Beitrag weiterlesen »

Photoshopping Papers

23. September 2011 von Laborjournal

Es kann einem schon angst und bange werden, wenn man sich anschaut, was die japanische Seite http://blog.m3.com/Retraction derzeit an offensichtlich manipulierten Paper-Abbildungen aufdeckt. Beinahe täglich (ja, wirklich!) stöbern deren Autoren „dubiose Machenschaften“ wie diese auf:

Auch ohne japanische Schrift lesen zu können, müsste klar sein, wie die Autoren hier ihre Abbildung frisiert haben — oder?

Anderes Beispiel: Diesen Beitrag weiterlesen »