Was ist faul an diesem Bild?

23. Oktober 2017 von Laborjournal

Es scheint leider traurige Gewissheit: In den letzten Jahren haben die Mauscheleien in den Abbildungen von Originalveröffentlichungen deutlich zugenommen. Der redliche Wissenschaftler ist daher wahrlich nicht schlecht beraten, möglichst auch den eigenen Blick für etwaige „Seltsamkeiten“ in Paper-Abbildungen zu schärfen. Denn andernfalls könnte solch ein „Trugbild“ womöglich auch das eigene Projekt irgendwann auf die falsche Fährte führen.

Wir von Laborjournal wollen bei der Schärfung der entsprechenden Sinne helfen — und stellen daher zum nun folgenden Bild die Frage: „Was ist daran wohl faul?“

x

Das Bild stammt aus dieser Originalveröffentlichung in Clinical Cancer Research. Uns ist nicht bekannt, ob das offensichtliche „Missgeschick“ inzwischen irgendwelche Konsequenzen nach sich gezogen hat. Zurückgezogen oder korrigiert ist das Paper jedenfalls bis heute nicht. Genauso wenig haben die Autoren bisher erklärt, wie der „Fauxpas“ zustande kam.

Und wer jetzt immer noch nicht weiß, was genau „faul“ ist an der Abbildung, bitte hier auf PubPeer nachschauen. Dort wurde erstmals darauf hingewiesen, dass hier etwas abgebildet ist, was sich so wie gezeigt einfach nicht „sauber“ abgespielt haben kann.

x

Vertrauenssache Peer Review

29. September 2017 von Laborjournal

Mitarbeiter der Annals of Internal Medicine stellten vorletzte Woche auf dem International Congress for Peer Review and Scientific Publication die Ergebnisse einer ziemlich interessanten Befragung vor. Deren Thema: Missbrauch von eingereichten Manuskripten durch Peer Reviewer (Originaltitel: Misuse of Received Manuscripts by Peer Reviewers: A Cross-sectional Survey).

Als Resultat halten sie zunächst einmal fest:

A total of 1431 of 3275 invited reviewers (44%) returned the survey […] Nearly half indicated having reviewed and published more than 50 manuscripts and having mentored others in peer review. Reasons reported for agreeing to review included keeping up to date in a research field (957/1417 [68%]), a sense of obligation to peer review (1316/1417 [93%]), …

So weit, so gut. Mit dem nächsten Grund, warum die Befragten die Manuskripte zur Begutachtung annehmen, wird es dann allerdings schon etwas kniffliger:

… and to know what competitors are doing (190/1417 [13%]).

Aha — ganze 13 Prozent der Befragten gaben also zu, Manuskripte vor allem deswegen zur Begutachtung anzunehmen, weil es ein guter Weg sei, sich darüber zu informieren, was die Konkurrenz so treibt. Da man derlei aber selbst in anonymen Umfragen aus selbstwertdienlichen Gründen nicht wirklich gerne preisgibt, dürften die 13 Prozent die tatsächliche Realität sogar noch schmeichelhaft abbilden.

Doch es kommt noch besser:

One hundred sixty-nine of 1417 (12%) had agreed to review manuscripts from authors with whom they had conflicts of interest; of these, 61 (36%) did so without informing the journal’s editor. One hundred fifty-three of 1413 (11%) showed manuscripts to colleagues without seeking permission.

Diese Art „Schindluder-Verhalten“ gibt man in diesem Zusammenhang sicher noch weniger gerne zu. Mit der Folge, dass die „Dunkelziffern“ für diese Art Missbrauch von anvertrauten Manuskripten nochmals höher ausfallen dürften.

Gleiches gilt natürlich auch für das letzte vorgestellte Ergebnis der Befragung:

Twenty-six of 1414 (2%; 95% CI, 1%-3%) indicated having used the information in a reviewed manuscript for personal or academic benefit prior to the paper’s publication. Such reported use included using what was learned to alter one’s own research plans, speeding up journal submission of one’s own work related to the subject of the manuscript being reviewed, and copying some part of the reviewed manuscript for one’s own work.

Okay, das sind zwar nur zwei Prozent — aber dennoch heißt das zusammen mit den anderen, bereits genannten Ergebnissen schlichtweg, dass das Vertrauensverhältnis zwischen Autoren und Gutachtern, auf dem das gesamte Peer-Review-System fußt, offenbar deutlich öfter gebrochen wird, als einem lieb sein kann.

Entsprechend schreiben die Autoren dann auch in ihrer Conclusion:

Trust that reviewers will treat manuscripts received for peer review as confidential communications is an essential tenet of peer review. Although self reported and of uncertain generalizability, these results suggest that breaches of this trust do occur. Larger studies involving multiple journals should be considered to assess the generalizability of these results and to inform targeted educational initiatives aimed at promoting the highest ethical standards among peer reviewers.

Kommentare, Meinungen oder gar eigene Erlebnisse zu potenziellem Peer-Review-Missbrauch nehmen wir gerne entgegen. Entweder direkt hier über das unten folgende Kommentarfenster, oder auch diskreter via Mail an die Laborjournal-Redaktion.

Danke für eure Forschungspläne!

4. September 2017 von Laborjournal

x

(Vor kurzem erhielten wir folgende, von uns hier anonymisierte E-Mail:…)

———-

„Ich bin Postdoc an der Uni […], und derzeit von Drittmitteln bezahlt […], die Ende 2017 auslaufen. Daher habe ich mich im März auf eine Stelle […] beworben, die als „Full time tenure-track research position […]“ ausgeschrieben war. Für die Bewerbung musste man neben dem CV auch einen Research Plan beilegen, der ein für die folgenden Jahre anvisiertes Forschungsprogramm überzeugend darlegt.

Am 1. Juni, also mehr als zwei Monate nach Ende der Bewerbungsfrist, fragte ich sehr höflich nach, ob man denn schon etwas über den Status der Bewerbung sagen könne. Ich habe bis heute keine Antwort bekommen.

Diese Woche erfuhr ich von einem Kollegen, der sich ebenfalls auf die Stelle beworben hat, dass die Stelle überhaupt nicht mehr mit einem Postdoc besetzt werden wird und man stattdessen Doktoranden einstellen will. Diese Information hat mein Kollege von einem Mitarbeiter des „Zielinstitutes“ inoffiziell erhalten.

Mein Verdacht ist nun, dass die Verantwortlichen die Stelle bewusst attraktiv ausgeschrieben haben, um von den eingehenden Bewerbungen die Ideen der eingereichten Forschungspläne abzugreifen. Zu diesem Plan würde gehören, dann doch keinen Postdoc dauerhaft auf die Stelle zu setzen, sondern die Arbeit stattdessen von nicht langfristig angestellten Doktoranden machen zu lassen. Die Anleitungen hierzu finden sich ja in den eingereichten Forschungsplänen (zumindest war mein Forschungsplan so gestaltet).

Am besten finde ich dazu noch, dass ein Mitarbeiter des Zielinstituts sich mit meinem Kollegen (derjenige, von dem ich die Sache inoffiziell erfahren habe) getroffen hat, um eine mögliche Kooperation über das in dessen Forschungsplan vorgeschlagene Projekt zu besprechen!

Ich habe natürlich keine Beweise dafür, dass das geschilderte Vorgehen bewusst so geplant worden ist. Neben der Stelle, auf die ich mich beworben habe, wurden noch zwei oder drei weitere Stellen (ebenso mit tenure track) vom besagten Institut ausgeschrieben. Ob sie inzwischen besetzt sind, weiß ich nicht.

Ich will ja nicht jammern, aber vielleicht lohnt es sich, hier einmal nachzuforschen. Vielleicht ist das aber auch gängige Praxis, und ich habe es bisher nur nicht gewusst. Was meinen Sie […] dazu?“

———-

Tja, was meinen unsere Leser dazu? Selbst mal etwas Ähnliches erlebt? Und kann es tatsächlich Methode haben, auf diese Weise Forschungsideen und experimentelle Konzepte zu klauen? Antworten bitte unten im Kommentarfenster, oder direkt an unsere Redaktion unter redaktion@laborjournal.de.

x

Stellen-Schnappen mit Mauschel-Publikationen

23. Juni 2017 von Laborjournal

Anfang der Woche schrieben wir auf Laborjournal online über Datenmanipulationen in acht Veröffentlichungen von Karl Lenhard Rudolph, dem wissenschaftlichen Direktor des Leibniz-Instituts für Alternsforschung — Fritz-Lipmann-Institut (FLI) in Jena. Später am gleichen Tag berichtete auch Retraction Watch unter dem Titel „German institute sanctions director after finding him guilty of misconduct“ darüber.

Interessant ist hier der Kommentar No. 2 unter dem Artikel. Dieser macht aufmerksam auf Jianwei Wang, der als Ko-Autor auf vier der acht inkriminierten Veröffentlichungen der Gruppe von Rudolph erscheint — davon dreimal als Erstautor. Nicht ohne säuerlichen Beigeschmack schreibt der Kommentator, dass Wang sich in der Zwischenzeit einen guten Job an der Tsinghua University gesichert habe. Man muss kein Hellseher sein, um sich auszumalen, dass die vier Mauschel-Publikationen aus seiner FLI-Zeit sicher eine entscheidende Rolle beim Zuschlag für die PI-Stelle gespielt hatten.

Dieses Muster des Stellen-Schnappens mit mehr als zweifelhaften Publikationen hatten wir erst in unserem Maiheft am Fall der Ex-Kölner Mitochondrien-Forscherin Tina Wenz thematisiert. Damals schrieben wir:

[…] kurz vor Bekanntwerden der Fälschungsvorwürfe auf PubPeer war sie von der Universität zu Köln als Wissenschaftlerin zu Boehringer Ingelheim gewechselt.

Interessant indes, wie man dort auf die Enthüllungen reagierte. Auf Anfrage des Blogs Retraction Watch antwortete ein Unternehmenssprecher Ende letzten Jahres, dass Tina Wenz die volle Verantwortung für jegliches Fehlverhalten in ihrem Kölner Labor übernommen habe. Ferner jedoch habe Boehringer Ingelheim volles Vertrauen in die Qualität der Forschungsarbeiten seiner Mitarbeiter — auch vor dem Hintergrund, dass die Integrität und Validität von Forschungsdaten in der Firma höchste Priorität genießen.

Natürlich kann eine Firma beschäftigen, wen immer sie will. Das Zeichen jedoch, das Boehringer Ingelheim damit vor allem an Nachwuchsforscher aussendet, ist fatal. Denn verallgemeinert heißt das: „Daten zurechtbiegen ist nicht schlimm. Und wenn es dann noch ein klein wenig dauert, bis sie dir auf die Schliche kommen, hast du womöglich sogar schon deine Karriere gesichert.“

Wer weiß, wie viele noch auf guten Stellen sitzen, die sie einst nach diesem faulen Muster ergattert haben?

Ralf Neumann

(Illustr.: freshidea / Fotolia)

Die Lance Armstrongs der Tour de Science

3. Februar 2016 von Laborjournal

Und wieder ein Zitat aus einer E-Mail an unsere Redaktion. Ein Bio-Emeritus im aktiven Unruhestand prangert darin mit deutlichen Worten einige „Unsitten“ im aktuellen Forschungsbetrieb an:

Da die Zahl der für das öffentliche und private Leben relevanten Skandale meine Fähigkeit zu kotzen weit überfordert […], bemühe ich mich schon seit einiger Zeit um eine gewisse pragmatische Rangordnung. Im Hinblick auf Wissenschaftsskandale heißt das für mich, dass ich nach den Lance Armstrongs der internationalen Tour de Science und vor allem nach den Strukturen frage, die diesen Figuren zur Verfügung stehen.

Da komme ich dann auf Fragen zum Wahnsinn der Impact Faktoren und CNS-Publikationen als Kriterium wissenschaftlicher Befähigung. CNS hat nichts mit Gehirn zu tun, sondern steht für Cell, Nature, Science — und damit gleichsam für den Glauben an die Weisheit der Editoren von Journalen, deren Hauptziel darin besteht, den Impact Faktor ihres Journals zu steigern oder wenigstens zu halten.

Ich beschäftige mich weiter mit dem Problem, was alles „behind the scenes“ passiert und offenbar möglich ist. Ich frage mich, warum ich immer wieder auf Arbeiten stoße, die in High Impact-Journalen veröffentlicht wurden und die völlig perfekt erscheinen — abgesehen davon, dass sich die Hauptergebnisse nicht reproduzieren lassen.

Ich frage mich, warum viele Wissenschaftler das Gefühl haben, dass man in einem Manuskript die — oftmals ja leider berechtigten — eigenen Sorgen wegen der Grenzen der verwendeten Methoden, beispielsweise aufgrund unerwünschter, schwer zu kontrollierender Artefakte, besser gar nicht erst andiskutieren sollte.

Ich frage mich, warum es üblich scheint, Ergebnisse besser wegzulassen, die nicht ins Schema der perfekten Reproduzierbarkeit passen und die möglicherweise die Beweisführung für oder gegen eine bestimmte Hypothese untergraben könnten.

Ich frage mich, wie es dazu kommt, dass heute umgehend immer nur nach einem molekularen Mechanismus gefragt wird, selbst wenn die phänomenologischen Grundlagen des untersuchten biologischen  Systems noch weitgehend ungeklärt sind.

Ich frage mich, wie das Begutachtungssystem verändert werden sollte — und vor allen Dingen, wie es öffentlich gemacht werden kann. Ich für meinen Teil habe seit etwa einem Jahr begonnen, alle meine Zeitschriftengutachten mit meinem Namen zu zeichnen.

Ich frage mich, wie es kommt, dass Gutachter ihren Auftrag dahingehend missbrauchen, dass sie die Autoren eingereichter Arbeiten zwingen, eine To-do-Liste abzuarbeiten, nach der die geforderten zusätzlichen Experimente gar nichts mehr mit notwendigen Kontrollen zu tun haben, sondern lediglich willkürliche Erweiterungen nach dem Geschmack des Gutachters darstellen.

Fragen, die viele zwar schon lange kennen — die deswegen aber nicht aufhören zu schmerzen. Antworten und Meinungen dazu, wie immer, direkt unten als Kommentar zu diesem Blog-Beitrag, oder auch per E-Mail an redaktion@laborjournal.de.

(Foto: Fotolia/erkamit)

x

Paper zurückgezogen — und wen soll ich jetzt zitieren?

11. Dezember 2015 von Laborjournal

Schon seit einiger Zeit muss der Zürcher Pflanzenforscher Olivier Voinnet ein Paper nach dem anderen wegen inkorrekter Abbildungen zurückziehen oder zumindest großflächig korrigieren. Zwischenstand sind momentan zwölf „Corrections“ und sieben „Retractions“.

Dennoch sticht die letzte Retraction heraus. Mitte November zog The Plant Journal den Artikel „An enhanced transient expression system in plants based on suppression of gene silencing by the p19 protein of tomato bushy stunt virus“ in Übereinkunft mit den Autoren Olivier Voinnet, Susana Rivas, Pere Mestre und David Baulcombe vollends zurück, nachdem sie ihn bereits im Juni erstmals korrigiert hatten. Das jedoch ist nicht wirklich der Punkt. Viel erstaunlicher ist die Tatsache, dass der Artikel bis dahin bereits über 900-mal zitiert worden war.

Was heißt das?

Der Artikel beschreibt erstmals eine neue und einfache Methode zur effektiven Steigerung der transienten Expression von eingebrachten Fremdgenen in Pflanzen. Basis dafür ist die Ko-Transfektion mit dem Gen für das Virusprotein P19, welches allgemein das posttranslationale Gene Silencing in Pflanzenzellen hemmt. Das P19-System steigert also die Expression des Fremdgens, indem es die natürliche Expressionsbremse der Pflanzenzelle blockiert.

Über 900 Zitierungen, wie gesagt. Die muss es doch großteils dafür gegeben haben, dass trotz der unzulässig manipulierten Abbildungen die Methode funktioniert. Und tatsächlich twitterte Sophien Kamoun, Laborleiter am Sainsbury Lab in Norwich/UK:

Das scheint also tatsächlich nicht die Frage. Allerdings ergibt sich daraus ein ganz anderes Problem, das Dmitri Nusinow vom Donald Danforth Plant Science Center in Creve Coer, Missouri/USA, via Twitter folgendermaßen ausdrückt:

 

Berechtigte Frage — denn schließlich gilt ein zurückgezogenes Paper per definitionem als augenblicklich aus dem Scientific Record gelöscht. Wen sollen die zahlreichen P19-Anwender also künftig zitieren? Die Erstbeschreibung der Methode gilt — aus guten Gründen! — als gelöscht. Woanders steht sie offensichtlich nicht in ausreichendem Detail beschrieben, da alle nachfolgenden Anwender — zu Recht — auf die Erstbeschreibung verwiesen.

Soll man sich jetzt also darauf einigen, stattdessen einen der ersten Anwender zu zitieren? Wohl kaum — denn zum einen stünde die Methode dort auch nicht vollständig drin, und zum anderen bekäme der betreffende Artikel auf diese Art sicher viel mehr Zitierungen als er tatsächlich verdient. Oder erklärt man die Methode einfach zum allgemeinen Wissen, das man nicht mehr zu zitieren braucht — und muss wegen der Details trotzdem weiter in das zurückgezogene Paper schielen, weil sie ja nirgendwo sonst aufgeschrieben stehen.

Eigentlich müsste jemand die Methode nochmals „neu“ mit allen Details veröffentlichen — vielleicht ja sogar noch mit einigen neuen. Das wäre dann zwar ordnungsgemäß zitierbar, aber wie oben schon gesagt: Ordnungsgemäß verdiente Zitierungen wären das nicht.

Hmm — hat vielleicht jemand einen anderen Vorschlag?

Soll Peer Review Fälschung aufdecken?

17. Juli 2015 von Laborjournal

Über eine Reform des Peer Review-Systems lässt sich trefflich streiten. Ein immer wieder ins Feld geführtes Argument gegen den klassischen Peer Review ist jedoch nicht ganz fair: Dass die Zunahme getürkter Paper in der Forschungsliteratur doch zeige, wie unzulänglich die Begutachtung funktioniert. Beispielsweise in diesem Blogbeitrag zu lesen.

Zum Glück findet man deutlich mehr Beiträge im Internet, die klar sagen, dass dies gar nicht die Aufgabe des klassischen Peer Review ist. Schließlich begutachten nicht irgendwelche FBI-Spezialisten oder Magier mit „sehenden Augen“ die Manuskripte — sondern ganz normale Forscherkollegen. Und die gehen zu Recht erst einmal davon aus, dass die Autoren eines Manuskripts sie weder belügen noch betrügen wollen. Peer Review würde unter einem solchen Generalverdacht wohl kaum vernünftig funktionieren — weder in der Prä-Publikations- noch in der Post-Publikations-Variante.

Denn was Peer Review leisten soll, ist doch vielmehr folgendes:

  • das Manuskript auf Schlüssigkeit prüfen — vor allem hinsichtlich der Fragen „Unterstützen die Daten tatsächlich die Schlussfolgerungen?“ oder „Sind womöglich noch andere Interpretationen der Daten möglich?“;
  • den tatsächlichen Erkenntniswert einschätzen und einordnen — also etwa beurteilen, ob die Arbeit dem Feld tatsächlich etwas Neues hinzufügt oder ob lediglich „alter Wein in neuen Schläuchen“ präsentiert wird;
  • und natürlich die Autoren auf mögliche gedankliche und handwerkliche Fehler hinweisen — um das finale Paper mit Hilfe dieser Tipps und Hinweise so gut wie nur möglich zu machen.

Peer Review kann auf verschiedene Weise missbraucht werden, keine Frage. Das darf aber nicht überdecken, dass Gutachter idealerweise (!) die Aufgabe haben, die Arbeiten der Kollegen zwar kritisch, aber möglichst wohlwollend zu beurteilen — und eben nicht jeden Autoren von Vornherein des potentiellen Betrugs zu verdächtigen. Diese „Vor-Einstellung“ ist gut so, funktioniert offenbar mehrheitlich — und wird auf genau diese Weise auch weiterhin gebraucht.

Die damaligen Editoren des Journal of Laboratory Clinical Medicine, Dale Hammerschmidt und Michael Franklin, fassten dies vor einigen Jahren folgendermaßen zusammen:

Peer review, we believe, is good at detecting when scientists draw the wrong conclusions from empirical data as a result of errors in study design or analysis. The peer reviewer begins with the assumption that he’s not being lied to, and his charge is that of referee rather than sleuth. The question ‚Do the data support the conclusions?‘ comes more naturally than ‚Did this guy simply make this up?‘ One’s peers are often quite helpful at identifying flaws in experimental design or data analysis—honest mistakes or oversights on the part of the researcher. Scientific fraud of the sort involving deliberate fabrication of data or selective reporting of data is not as easy for journal editors or peer reviewers to detect.

Es kommt also noch dazu, dass man geplante Fälschung in aller Regel sowieso viel schwerer erkennt als unabsichtliche Fehler oder Irrtümer. Liegt auf der Hand, oder?

Als ich vor nunmehr 18 Jahren den ehemaligen Ulmer Klinikchef Vinzenz Hombach im Zusammenhang mit der Fälschungsaffäre um Friedhelm Herrmann auf dieses Dilemma ansprach, antwortete er nur:

Wenn mir ein Mitarbeiter oder ein Kollege manipulierte Daten unterschieben will, dann schafft er das. Ohne dass ich die Chance habe, es zu merken.“

Die sicherlich dringend notwendige Aufgabe, manipulierte Daten in eingereichten Manuskripten aufzuspüren, müssen folglich andere übernehmen. Auch, weil man sonst das Ideal des wohlwollend helfenden und verbessernden Peer Review womöglich gleich mit auskippt.

Foto: fotolia.com / INFINITY

 

Bild unter Verdacht (1)

5. Mai 2015 von Laborjournal

Seit jeher erhält Laborjournal Hinweise auf mögliche Manipulationen in Paper-Abbildungen. In den letzten Monaten haben diese jedoch auffällig zugenommen. Grund genug, ab jetzt einige der verdächtigen Abbildungen anonymisiert hier im Blog zu präsentieren — und zu fragen, ob an dem Manipulationsverdacht tatsächlich etwas dran sein könnte. Oder eben nicht.

Den Anfang machen wir mit folgendem Ausschnitt aus der Abbildung eines gewissen 2007er-Papers:

Der Verdacht:

(1) Das unterste Western-Blot-Panel scheint eine vertikal gespiegelte Kopie des obersten zu sein, obwohl beide natürlich zwei verschiedene Experimente darstellen sollen. Neben der Ähnlichkeit der Bandenformen besonders starkes Indiz für eine unzulässige Duplikation: Der helle, vertikale „Störungsstreifen“ (roter Pfeil) durch die zweite Bande von rechts (oben) beziehungsweise die zweite Bande von links (unten).

(2) Zudem scheint das zweite Panel von unten eine Kopie des zweiten Panels von oben zu sein – allerdings wurden hier offenbar die Banden des oberen Panels zusätzlich noch in der Breite gestreckt sowie in der Höhe gestaucht. Besonders „entlarvend“ für die mutmaßliche Kopie scheinen auch hier wiederum die unspezifischen Störungen zu sein — konkret die Dreckpunkte (blaue Pfeile), die sich relativ zu den Banden jeweils an denselben Stellen befinden.

Die Frage:

Sind die Panels womöglich wirklich in der beschriebenen Weise dupliziert worden? Oder gibt es stattdessen andere, „angenehmere“ Erklärungen für die Auffälligkeiten?

x

Komische Kommentarauswahl bei PubPeer

30. April 2015 von Laborjournal

Nicht nur unser Autor Leonid Schneider macht gerade so seine Erfahrungen mit der Paper-Diskussionsplattform PubPeer (siehe hier und hier). Meine eigenen letzten Erlebnisse dort fand ich allerdings gar nicht prickelnd. Und das kam so:

In den letzten Wochen postete ich insgesamt drei Kommentare als „Unregistered Submission“ auf PubPeer. (Als „Peer“ kann ich mich dort nicht anmelden, da hierfür eine Instituts-Emailadresse verlangt wird, die ich als Laborjournalist nun mal nicht habe.) Laut eigener Aussage prüfen die PubPeer-Betreiber zunächst alle Beiträge, die als „Unregistered Submission“ hereinkommen — und versprechen deren baldige Publikation, sofern sie keine persönlichen Beleidigungen enthalten.

Von meinen drei eingereichten Kommentaren erschien genau einer — und dies sehr schnell. Die anderen beiden erschienen bis heute nicht. Jetzt ist ein Schelm, wer Böses dabei denkt, dass es ausgerechnet der „negative“ Beitrag war, den PubPeer publizierte. In diesem hatte ich mögliche Duplikationen von Gelbanden, die zudem noch durch Spiegeln, Zerren und Stauchen der Banden-Bilder getarnt wurden, zur Diskussion gestellt. (Wer es genauer wissen will, siehe hier. Leider hat dann niemand weiter mitdiskutiert, obwohl es sich für mich um einen klaren Fall von Manipulation handelt.)

Die anderen beiden Kommentare waren dagegen „positive“ Beiträge, in denen ich Argumente vorstellte, warum gewisse, von anderen der Manipulation verdächtigten Abbildungen meiner Meinung nach falschen Alarm darstellten. Diesen Beitrag weiterlesen »

Vertrauen ist gut, Kontrollen sind uncool

28. April 2015 von Laborjournal

(Auf der Paper-Debattier-Plattform PubPeer entwickeln sich bisweilen besorgniserregende Diskussionen. In eine davon war unlängst unser Autor Leonid Schneider verwickelt. Hier sein Bericht.)

————————-

Kürzlich konnte ich bei einer Diskussion auf dem Publikations-Debattier-Portal PubPeer wieder einmal Erstaunliches lernen. Im Rahmen der Manipulationsverdächtigungen gegen den Zürcher Pflanzenforscher Olivier Voinnet wurde dort unter anderem auch diese Abbildung aus der Publikation Gibbings et al. in Nature Cell Biology 14:1314-21 diskutiert:

 

Der „Kritiker“ schrieb dazu:

TUBA and EF1A are not from the same gel; same molecular weight but different „curving/tilitng“ of the bands.

Was nichts anderes heißt, als dass die Banden der Ladungskontrolle einen ganz anderen Verlauf haben als diejenigen eines anderen gezeigten Proteins, obwohl beide Proteine ungefähr das gleiche Molekulargewicht haben. Und dies deutet wiederum klar darauf hin, dass die Ladungskontrolle von einem ganz anderen Gel oder einer anderen Membran kommt als das Protein, dessen gleiche Beladung sie bescheinigen sollte.

Tatsächlich hat diesen Befund auch niemand auf PubPeer bestritten. Stattdessen jedoch fragten manche, wo denn hier bitte überhaupt das Problem sei. Diesen Beitrag weiterlesen »

Information 4


Information 5





Information 7