Der Laborjournal-Blog macht Urlaub…

29. Juli 2015 von Ralf Neumann

… bis Mitte August !!

(Forscher Ernst wird gezeichnet von Rafael Florés)

Wie eine Autorin plötzlich unverschuldet als Plagiatorin dastand

22. Juli 2015 von Ralf Neumann

Gerade auf editage Insights eine skurrile Vermischung von blödem Fehler und schlimmem Missverständnis gelesen. Kurz zusammengefasst ging das Ganze so:

Journal X akzeptierte das Manuskript von Autorin A zur Veröffentlichung. Als die angepeilte Ausgabe erschien, musste A jedoch erstaunt feststellen, dass ihr Name unter einem völlig anderen Artikel stand. Umgehend kontaktierte sie den Journal-Editor und klärte ihn auf, dass sie nicht die Autorin dieses Artikels sei — und dass sie auch kein irgendwie ähnliches Manuskript eingereicht habe. Der Editor erklärte ihr, dass dem Journal hier ein dummer Fehler passiert sei und sie das natürlich in der nächsten Ausgabe korrigieren würden.

Soweit, so schlecht. Aber es kam noch deutlich krasser. Als A den “Autorendreher” bemerkte, war die Ausgabe schon eine kleine Weile draußen. Und wie das heute so ist, wurde der Artikel mit ihr als falscher Autorin bereits in den gängigen sozialen (Forscher-)Medien zitiert und diskutiert. Dies bekam auch der “wahre” Autor B des Artikels mit — und dachte natürlich, dass A ihm auf irgendeine Weise mit einem Plagiat zuvorgekommen sei.

Auch B kontaktierte daraufhin das Journal. Parallel aber klagte er A in den entsprechenden sozialen Medien schon mal sehr aggressiv des Plagiierens an. Was natürlich wiederum A nicht nur verwirrte, sondern verständlicherweise ziemlich aufbrachte. Schließlich stand plötzlich völlig unverschuldet und ungerechtfertigt ihr guter Ruf auf dem Spiel.

Also rief A wieder beim Journal-Editor an und verlangte aufgrund dieser Entwicklung schnelleres Handeln, als bis zur nächsten Ausgabe zu warten. Dies geschah dann auch: Der Editor informierte B umgehend über den Fehler und dessen daraus resultierenden Irrtum, B wusch A in den sozialen Medien von allen Verdächtigungen frei und entschuldigte sich dafür — und der Editor wiederum veröffentlichte gleich am nächsten Tag eine Erklärung samt Entschuldigung bei beiden, A und B, auf der Journal-Website. Letztere erschien dann auch noch als Erratum in der nächsten Printausgabe.

Eine blöde Geschichte, die sich aus einem seltenen dummen Fehler hochgeschaukelt hat. Allerdings kann man sich schon fragen, ob die Leute im Zeitalter sozialer Medien vielleicht immer mehr verlernen, dass man ja auch mal per Direktkontakt nachfragen kann. Denn hätte B umgehend direkt bei A angerufen, um die Sache zu klären, wäre die Angelegenheit wohl kaum derart hochgekocht.

Soll Peer Review Fälschung aufdecken?

17. Juli 2015 von Ralf Neumann

Über eine Reform des Peer Review-Systems lässt sich trefflich streiten. Ein immer wieder ins Feld geführtes Argument gegen den klassischen Peer Review ist jedoch nicht ganz fair: Dass die Zunahme getürkter Paper in der Forschungsliteratur doch zeige, wie unzulänglich die Begutachtung funktioniert. Beispielsweise in diesem Blogbeitrag zu lesen.

Zum Glück findet man deutlich mehr Beiträge im Internet, die klar sagen, dass dies gar nicht die Aufgabe des klassischen Peer Review ist. Schließlich begutachten nicht irgendwelche FBI-Spezialisten oder Magier mit “sehenden Augen” die Manuskripte — sondern ganz normale Forscherkollegen. Und die gehen zu Recht erst einmal davon aus, dass die Autoren eines Manuskripts sie weder belügen noch betrügen wollen. Peer Review würde unter einem solchen Generalverdacht wohl kaum vernünftig funktionieren — weder in der Prä-Publikations- noch in der Post-Publikations-Variante.

Denn was Peer Review leisten soll, ist doch vielmehr folgendes:

  • das Manuskript auf Schlüssigkeit prüfen — vor allem hinsichtlich der Fragen “Unterstützen die Daten tatsächlich die Schlussfolgerungen?” oder “Sind womöglich noch andere Interpretationen der Daten möglich?”;
  • den tatsächlichen Erkenntniswert einschätzen und einordnen — also etwa beurteilen, ob die Arbeit dem Feld tatsächlich etwas Neues hinzufügt oder ob lediglich “alter Wein in neuen Schläuchen” präsentiert wird;
  • und natürlich die Autoren auf mögliche gedankliche und handwerkliche Fehler hinweisen — um das finale Paper mit Hilfe dieser Tipps und Hinweise so gut wie nur möglich zu machen.

Peer Review kann auf verschiedene Weise missbraucht werden, keine Frage. Das darf aber nicht überdecken, dass Gutachter idealerweise (!) die Aufgabe haben, die Arbeiten der Kollegen zwar kritisch, aber möglichst wohlwollend zu beurteilen — und eben nicht jeden Autoren von Vornherein des potentiellen Betrugs zu verdächtigen. Diese “Vor-Einstellung” ist gut so, funktioniert offenbar mehrheitlich — und wird auf genau diese Weise auch weiterhin gebraucht.

Die damaligen Editoren des Journal of Laboratory Clinical Medicine, Dale Hammerschmidt und Michael Franklin, fassten dies vor einigen Jahren folgendermaßen zusammen:

Peer review, we believe, is good at detecting when scientists draw the wrong conclusions from empirical data as a result of errors in study design or analysis. The peer reviewer begins with the assumption that he’s not being lied to, and his charge is that of referee rather than sleuth. The question ‘Do the data support the conclusions?’ comes more naturally than ‘Did this guy simply make this up?’ One’s peers are often quite helpful at identifying flaws in experimental design or data analysis—honest mistakes or oversights on the part of the researcher. Scientific fraud of the sort involving deliberate fabrication of data or selective reporting of data is not as easy for journal editors or peer reviewers to detect.

Es kommt also noch dazu, dass man geplante Fälschung in aller Regel sowieso viel schwerer erkennt als unabsichtliche Fehler oder Irrtümer. Liegt auf der Hand, oder?

Als ich vor nunmehr 18 Jahren den ehemaligen Ulmer Klinikchef Vinzenz Hombach im Zusammenhang mit der Fälschungsaffäre um Friedhelm Herrmann auf dieses Dilemma ansprach, antwortete er nur:

Wenn mir ein Mitarbeiter oder ein Kollege manipulierte Daten unterschieben will, dann schafft er das. Ohne dass ich die Chance habe, es zu merken.”

Die sicherlich dringend notwendige Aufgabe, manipulierte Daten in eingereichten Manuskripten aufzuspüren, müssen folglich andere übernehmen. Auch, weil man sonst das Ideal des wohlwollend helfenden und verbessernden Peer Review womöglich gleich mit auskippt.

Foto: fotolia.com / INFINITY

 

“Können wir die Sache nicht einfach vergessen?”

10. Juli 2015 von Leonid Schneider

Vor gut drei Jahren berichteten wir an dieser Stelle über den Chirurgen und Adipositas-Spezialisten Edward Shang, der mehrere Publikationen wegen erfundener oder manipulierter Daten zurückziehen musste. Daraufhin verlor Shang seine Professur für Bariatrische Chirurgie am Universitätsklinikum Leipzig, und die Medizinische Fakultät Mannheim der Universität Heidelberg entzog ihm die einst verliehene Lehrbefugnis (venia legendi).

Diese Woche nun erhielten wir in diesem Zusammenhang folgende Email-Anfrage des Dienstleisters „deinguterRuf“:

 

Sehr geehrte Damen und Herren,

ich kontaktiere Sie im Namen unseres Kunden Edward Shang. Unser Webangebot deinguterruf.de hat sich zur Aufgabe gemacht die Onlinereputation unserer Kunden zu schützen. Konkret heißt das, wir suchen mit Hilfe einer speziellen Suchsoftware nach allen verfügbaren Einträgen über und von unseren Kunden im Internet. Bei Bedarf bieten wir unseren Kunden auch die Möglichkeit bei nicht mehr aktuellen, relevanten oder ungewünschten Einträgen im Internet die jeweiligen Webseitenbetreiber zu kontaktieren und diese um Entfernung der Einträge zu bitten.

In diesem konkreten Fall handelt es sich um einen Eintrag auf Ihrer Seite laborjournal.de. Unser Kunde wird in einem älteren Artikel genannt.

laborjournal.de/blog/?p=4566

Unserem Kunden ist es ein wichtiges Anliegen diesen Artikel geprüft und eventuell um seinen Namen gekürzt zu sehen. Bitte beachten Sie, dass diese Vorgänge einige Jahre zurück liegen und das berufliche und private Leben von Herrn Shang erheblich beeinträchtigen.

Wir hoffen Sie kommen dem Wunsch unseres Kunden nach.

Vielen Dank für Ihr Verständnis.

Für Rückfragen stehe ich Ihnen gerne zur Verfügung.

Mit freundlichen Grüßen,

[...Name...]
DEIN GUTER RUF.DE
Ein Projekt der MoveVision GmbH

 

Wir in der Redaktion prüften diese Anfrage sofort. Diesen Beitrag weiterlesen »

Oma hat’s schon immer gewusst…

3. Juli 2015 von Ralf Neumann

Aus den verschiedensten Gründen müssen wir immer wieder mal in unseren alten Heften blättern. Gar nicht selten kommt es dann vor, dass wir viel mehr Zeit mit dem alten Heft verbringen, als “eben nur schnell diese eine konkrete Sache” nachzuschauen. So brauchte ich gestern etwa eine Info aus einem Hintergrundartikel, der im Heft 5 des Jahres 2004 stand — und stieß ein paar Seiten weiter auf einen “Brief an die liebe Oma” zum Thema Großmütter-Hypothese. Und weil dieser mal so was ganz anderes war, stelle ich ihn jetzt hier einfach nochmals hinein:

Liebe Oma,

heute muss ich Dir einfach schreiben. Erinnerst Du Dich noch an die Zeit, als ich meine Doktorarbeit machte? Und wie Du mich immer wieder gefragt hast, was genau ich denn da täte?

Verzweifelt hab’ ich damals versucht, Dir zu erklären, warum ich ausgerechnet dieses eine Protein kristallisieren würde. Warum ich hoffte, über die dreidimensionale Struktur dessen Wirkungsmechanismus in der molekularen Signalkette zu entschlüsseln, die …? Sinnlos, ich weiß.

„Herrgott“, hast Du damals immer geantwortet, „diese moderne Biologie, kommt da auch was raus, was ein Normalsterblicher verstehen kann?“ Irgendwann hatten wir dann aufgegeben. Und da ich nun ja auch schon eine ganze Weile ziemlich weit weg bin, hatte ich dieses Kapitel zwischen uns beiden auch allmählich vergessen.

Vor einer halben Stunde ist es mir auf einen Schlag wieder eingefallen. Ich saß in der Bibliothek und blätterte im neuen Nature. Das ist eine Zeitschrift, in der nur die vermeintlich allerwichtigsten Forschungsergebnisse veröffentlicht werden. Und was lese ich da plötzlich? Einen Artikel, der erklärt, warum Großmütter — oder Frauen ganz allgemein — so alt werden. Klar, dass ich da sofort an meine liebe, alte Großmutter denken musste, oder?  Diesen Beitrag weiterlesen »

Forschung im Komparativ

26. Juni 2015 von Ralf Neumann

Gestern war wieder einer dieser Tage, an denen ich besonders viele Paper-Abstracts anschauen musste. Eigentlich kaum erwähnenswert — gehört schließlich immer wieder zum Alltag eines Laborjournal-Redakteurs. Eines war diesmal allerdings besonders krass: nämlich, wie oft ich auf diese eine unselige Floskel stieß…

Abstract No. 1:

[...] Proteins that both hinder and spur cancer progression may not be as uncommon as previously thought [...]

Abstract No. 2:

[...] Mini-strokes may be more serious than previously thought [...]

Abstract No. 3:

[...] CO2 is a more complex sensory cue for C. elegans than previously thought, both in terms of behavior and neural circuitry [...]

Es ist schon auffällig, wie oft Forscher ihre Resultate mit dem Komparativ beschreiben. Da enthalten Genome weniger Gene als zuvor gedacht; treten Mutationen viel häufiger auf, als man bis dahin erwartet hatte; entwickeln sich Merkmale evolutionsgeschichtlich schneller, als man angenommen hatte; interagieren Proteine mit mehr Partnern als bisher vermutet; reagieren Regel-Netzwerke viel flexibler als bislang gedacht;…

Genug Beispiele? Es gäbe noch jede Menge mehr. Aber schon anhand dieser kleinen Aufzählung, muss man sich doch fragen: Was haben all die Forscher eigentlich vorher gedacht/erwartet/vermutet/angenommen/geschätzt/…, dass sie offenbar so oft so weit neben dem liegen, was die nächstneueren Daten dann offenbaren? Klar, liegt einem da sofort der Spruch auf der Zunge, dass die Forscher besser nachdenken statt vordenken sollten. Aber das trifft es ja nicht wirklich…

Natürlich müssen Forscher vorausschauen (und -denken), natürlich müssen sie Daten interpretieren und gewichten, um daraus realistische Szenarien und klare Hypothesen für möglichen künftigen Erkenntnisgewinn zu entwickeln. Und sicher ist dabei ein großer Unsicherheitsfaktor, dass sie sich mit ihren Schätzungen/Erwartungen/Vermutungen/Annahmen/… auf unvollständige Datensätze beziehen müssen, die zudem in aller Regel mit weniger „starken“ Methoden gewonnen wurden.

Aber wie so oft kann man das Pferd auch anders herum aufzäumen. Man könnte beispielsweise fragen, ob all diese Ergebnisse auch nur annähernd so aufregend und spektakulär daherkommen würden, wenn man zuvor nicht derart „danebengedacht“ hätte. Schließlich klingt der Satz „Das Genom ist ganz anders aufgebaut als gedacht“ viel aufregender als ein nüchternes „Wir haben ein Genom entziffert“. Oder ist es viel spektakulärer zu verkünden, dass Bakterienmutanten den ausgeschalteten Zuckertransport wieder viel schneller regenerieren als erwartet – statt sachlich zu konstatieren, dass nach n Teilungszyklen die Bakterien den Zucker wieder abbauen können.

Am besten sollte man also vorher so falsch wie möglich liegen. Damit man die späteren Ergebnisse nachher als umso bedeutender verkaufen kann…

Verlieren ist schlimmer als im Sport

23. Juni 2015 von Ralf Neumann

2001 gewann völlig überraschend Goran Ivanisevic im englischen Wimbledon das wichtigste Tennisturnier der Welt. Eigentlich war er damals schon lange abgeschrieben. Zwar hatte er zuvor in den Jahren 1992, 1994 und 1998 dreimal das Wimbledon-Finale verloren — danach jedoch verschwand er ziemlich in der Versenkung, lieferte nahezu keine Ergebnisse mehr. Für Wimbledon 2001 war er daher natürlich nicht qualifiziert, dennoch ließen die Wimbledon-Veranstalter Ivanisevic in einem Akt nostalgischer Gnade mit einer Wildcard an dem Turnier teilnehmen. Der Rest ist Tennis-Geschichte…

Könnte so etwas analog auch in der Forschung passieren? Dass jemand, nachdem er jahrelang keine Ergebnisse geliefert hat, plötzlich doch wieder eine Chance bekommt — und sie tatsächlich nutzt, um zu allerhöchsten Ehren aufzusteigen? So wie das Forschungssystem aktuell funktioniert, kann man es sich beim besten Willen nicht vorstellen.

Im Sport ist ja sowieso einiges anders. Dabei kommt er doch mindestens ebenso kompetitiv daher wie die Forschung. Dennoch wird man im Sport beispielsweise in aller Regel auch für Silber- oder Bronzemedaillen gefeiert. In der Forschung nicht. Hier erntet ein zweiter oder dritter Platz keinen Ruhm, hier hast du einfach verloren, wenn du nach dem „Sieger“ ankommst. „The winner takes it all“ — kaum irgendwo ist dieser Spruch so wahr wie in der Wissenschaft.

Im Sport ist auch „nach dem Wettkampf“ gleich „vor dem Wettkampf“. Die Karten werden für jeden Wettbewerb neu gemischt, und frischer Ruhm ist sogar für die „Versager“ von den letzten Vergleichen zu ernten — siehe Ivanisevic. In der Wissenschaft dagegen kaum. Hier geht es so gut wie nie für alle zurück auf “Los”.

Warum? Wo ist er Unterschied?   Diesen Beitrag weiterlesen »

Tausche Falsch gegen Neu

18. Juni 2015 von Ralf Neumann

Wenn in einer Publikation nach Jahren eine Abbildung als “falsch” erkannt wird — ist es dann in Ordnung, diese im Rahmen einer “Correction” durch analoge Daten aus der frischen Wiederholung des beschriebenen Experiments zu ersetzen?

Hintergrund dieser Frage ist eine aktuelle “Correction”, die als Folge der Kritik an rund vierzig Veröffentlichungen des Zürcher Pflanzenforscher Olivier Voinnet publiziert wurde. Auf der Diskussions-Plattform PubPeer wird Voinnet und seinen Ko-Autoren seit Monaten vorgeworfen, dass sie allesamt zweifelhafte Abbildungen enthielten (siehe auch unsere Berichte hier und hier). Zu sechs dieser Publikationen sind seither “Corrections” erschienen (1, 2, 3, 4, 5, 6), ein Paper wurde komplett zurückgezogen.

Die aktuelle Correction des Papers Olivier Voinnet et al. in The Plant Journal (Vol. 33(5): 949-56) aus dem Jahr 2003 beginnt folgendermaßen:

In the article by Voinnet et al. (2003), it has recently been noted that the original Figure 3b in this paper was assembled incorrectly and included image duplications. As the original data are no longer available for assembly of a corrected figure, the experiment was repeated, in agreement with the editors, by co-author S. Rivas. The data from the repeated experiment, presented below together with the original figure legend, lead to the same interpretation and conclusions as in the original paper.

Die Originaldaten waren folglich zwölf Jahre später nicht mehr vorhanden, also wiederholte einer der Autoren das beschriebene Experiment. Die resultierenden 2015er-Ergebnisse korrigierten die Autoren schließlich mit der damaligen (!) Original-Bildlegende  in das 2003er-Paper hinein — und proklamierten am Ende, dass die frischen Daten ja genauso prima zu der alten Interpretation und Schlussfolgerung führen würden wie damals diejenigen aus dem “falsch zusammengestellten” Bild.

Klingt komisch, oder? Ist das überhaupt in Ordnung?     Diesen Beitrag weiterlesen »

Heute im Sonderangebot: Transgene Versuchstiere!

16. Juni 2015 von Ralf Neumann

Beim heutigen “Nach-potentiellen-Artikelthemen-Surfen” stieß ich auf einen frischen Bericht des… na ja, sagen wir “Biotechnologie-kritischen” Instituts Testbiotech e.V. Thema des Berichts sind “Patente auf Tiere und neue Gentechnikverfahren” — Untertitel: “Gewinninteressen führen zu steigender Zahl von Tierversuchen”.

Klar, der Bericht hat eine bestimmte, durchaus auch ideologisch geprägte Stoßrichtung. Schließlich steht dem Verein mit Christoph Then der langjährige Gentechnik-Experte von Greenpeace Deutschland vor. Dennoch blieb ich bei dem Kapitel “Lukrative Märkte für gentechnisch veränderte Versuchstiere” für längere Zeit hängen. Darin heißt es wörtlich:

Für diese „Tierversuchsmodelle“ hat sich ein lukrativer Markt entwickelt. US-Firmen wie Applied StemCell, Creative Animodel und Cyagen Biosciences bewerben ihre gentechnisch veränderten Versuchstiere aggressiv und bieten entsprechende Tiere wie Sonderangebote im Supermarkt an. [...] Die Firma Creative Animodels bietet u.a. Mäuse an, die an Krebs erkranken und Affen als Versuchstiere für Potenzmittel. Die Firma Cyagen Biosciences lockt sogar mit Werbegeschenken: Für gentechnisch veränderte Mäuse gibt es 10% Prozent Nachlass und zusätzlich ein Stofftier oder eine Kaffeemaschine. Werden neue Kunden geworben, gibt es einen Gutschein für Apple. Mäuse werden bei Cyagen Biosciences ab US-$ 17 250 manipuliert, Ratten kosten mindestens US-$ 18 250 (Preise 2013). Anfragen von möglichen Kunden werden strikt vertraulich behandelt.

Nachfolgende Abbildungen stammen von den Websites der verschiedenen Unternehmen (www.appliedstemcell.com/, www.creative-animodel.com/, www.cyagen.com/) die im Mai 2015 besucht wurden, sowie aus den Newslettern der Firmen (zwischen 2013 und 2014).

Von den erwähnten Abbildungen hier nur drei der Firma Cyagen Biosciences:

Fehlt nur noch “Order three, get FOUR!”. Spätestens dann werden transgene Tiere tatsächlich genauso feilgeboten wie bedruckte Kaffepötte oder T-Shirts. Sicher, vielleicht muss das so funktionieren in der freien Marktwirtschaft. Dennoch beschlich mich bei der Lektüre ein ziemlich flaues Gefühl…

Schon in der Einleitung des Berichts äußert Testbiotech die Befürchtung, dass angesichts der reinen technischen Machbarkeit die Frage nach der tatsächlichen Notwendigkeit für Tierversuche immer mehr in den Hintergrund gedrängt zu werden drohe. Das Geschäftsgebahren der oben erwähnten Firmen liefert zumindest keine Indizien dagegen.

Forscher sein ist manchmal schwer… (3)

12. Juni 2015 von Ralf Neumann

Und der nächste Streich von Leonid Schneider:

banner


banner