„Lieber keine Eier als faule Eier“

16. Oktober 2013 von Laborjournal

Aus der Reihe „Spontane Interviews, die es nie gab — die aber genau so hätten stattfinden können”. Heute: Prof. E. Isern, Striktologisches Institut Universität Hochlattburg.

LJ: Hallo Herr Isern, so tiefe Falten zwischen den Augenbrauen. Warum?

Isern: Ach, ich habe mich mal wieder über einen Kollegen geärgert, dessen Manuskript ich begutachten musste.

LJ: War es so schlecht?

Isern: Die weit verbreitete und scheinbar unausrottbare Schlamperei, dass die Zahl der Proben einfach zu klein war. Die Leute kapieren einfach nicht, dass man auf diese Art keine belastbare Statistik bekommen kann. Und dass die Ergebnisse auf diese Art nur Anekdoten bleiben, die keinerlei allgemein gültige Schlussfolgerungen erlauben.  Diesen Beitrag weiterlesen »

Wurstige Titel

7. Januar 2013 von Laborjournal

Wahrlich keine Seltenheit, dass die Titel biomedizinischer Paper vor Spezialbegriffen nur so strotzen — und am Ende vollkommen verschwurbelt daherkommen. Umso erfreulicher daher, wenn ein Titel mit klaren und direkten Worten sagt, worum die beschriebene Studie tatsächlich geht — wie etwa in folgendem Beispiel:

„An In-Depth Analysis of a Piece of Shit: Distribution of Schistosoma mansoni and Hookworm Eggs in Human Stool“ (PLoS Neglected Tropical Diseases, 6(12): e1969).

Es geht darin also „um die Wurst“. Und auch der erste Teil der Abb. 1 lässt keinen Zweifel über das „Ausgangsmaterial“ der Studie:

 

(Ganz nebenbei auch ein klarer Kandidat für unsere lockere Reihe “Ungewöhnliche Abbildungen in Originalveröffentlichungen”)

Doch nehmen wir jetzt mal den Spaß, den die Autoren um Stefanie J. Krauth vom Schweizerischen Tropen- und Public Health-Institut in Basel beim Titeln und Bebildern sicherlich auch hatten, ein wenig beiseite. Diesen Beitrag weiterlesen »

Zitat des Monats (7): „Lahm, teuer, uneffizient,…“

20. Dezember 2011 von Laborjournal

Bereits im Jahr 2008 wetterte der langjährige Ex-Editor des British Medical Journal, Richard Smith, in Lab Times gegen das traditionelle Prepublication Peer Review-System. Jetzt legt er in einem Editorial im Journal of Medical Screening (vol. 18(3):113-14) noch einen drauf:

The evidence, as opposed to the opinion, on prepublication peer review shows that its effectiveness has not been demonstrated and that it is slow, expensive, largely a lottery, poor at spotting error, biased, anti-innovatory (as perhaps in this case), prone to abuse, and unable to detect fraud. The global cost of peer review is $1.9 billion, and it is a faith-based rather than evidence-based process, which is hugely ironic when it is at the heart of science.

My conclusion is that we should scrap prepublication peer review and concentrate on postpublication peer review, which has always been the ‘real’ peer review in that it decides whether a study matters or not. By postpublication peer review I do not mean the few published comments made on papers, but rather the whole ‘market of ideas,’ which has many participants and processes and moves like an economic market to determine the value of a paper. Prepublication peer review simply obstructs this process.

Interessanterweise haben die zwei US-Kognitionsforscher Dwight Kravitz und Chris Baker gerade einen sehr passenden Aufsatz in Frontiers of Computational Neuroscience veröffentlicht, in dem sie vorschlagen, wie eine Kombination aus Pre- und Postpublication Peer Review tatsächlich funktionieren könnte. Der Titel: Toward a new model of scientific publishing: discussion and a proposal. Diesen Beitrag weiterlesen »

Schwierige Genetik

13. Dezember 2011 von Laborjournal

Dass Zeitungsjournalisten oftmals Schwierigkeiten haben, Ergebnisse aus der Genetik richtig zu verstehen, und diese daher gerne „überverkaufen“ — das hat deren Zunft inzwischen leider allzu oft bewiesen. Und es scheint noch lange kein Ende in Sicht…

Einfach klasse daher, wie der australische Postdoc Daniel MacArthur im Blog genomes unzipped aktuell ein besonders krasses Beispiel auseinandernimmt. Unter dem Titel „On bad genetics reporting“ zerreißt er die folgende Kurznachricht aus dem britischen Independent vom 5. Dezember:

Sleeping is all in the genes

Scientists have found the reason why some people need more sleep than others lies in their genes. A survey of more than 10,000 people showed those carrying the gene ABCC9, present in one in five of us, slept longer than the average of eight hours. The finding, which is published in Molecular Psychiatry, could explain why Margaret Thatcher only needed four hours a night as Prime Minister while Albert Einstein was said to sleep for 11.

Nur eine Überschrift plus drei Sätze zwar — aber unglaublich, was man da an Fehlern reinpacken kann. Diesen Beitrag weiterlesen »

Mäuse-Monokultur?

2. Dezember 2011 von Laborjournal

Daniel Engber ist Senior Editor beim US-Online-Magazin Slate. In dieser Funktion hat er dort kürzlich ein vierteiliges Mammut-Dossier über die Maus veröffentlicht, den biomedizinischen Modellorganismus schlechthin. Seine darin zahlreich zusammengetragenen Forscher-Anekdoten ranken sich indes hauptsächlich um eine Frage: Hat die übermäßige Fixierung der biomedizinischen Forschung auf das (Krankheits-)Modell Maus nicht zu einer eher ‚ungesunden‘ Abhängigkeit geführt?

Warum Mäuse über die Jahrzehnte eine derart zentrale Rolle als Modelle zur Erforschung menschlicher Krankheiten eingenommen haben, ist klar: Mäuse kann man leicht bekommen und billig halten, dazu ist deren Genom bekannt und jede Menge genetische wie auch andere experimentelle Techniken sind bestens etabliert. Was den nicht unerheblichen Nebeneffekt hat, dass man heutzutage mit Mausprojekten sicher leichter an Fördergelder kommt als mit ausgefalleneren Tiermodellen.

Die Folge ist, dass nach einer Studie der Europäischen Union im Jahr 2008 knapp 60% aller biomedizinischen Laborexperimente an Mäusen durchgeführt wurden. Zudem wurden im Jahr 2009 dreimal mehr Mäuse-Paper veröffentlicht als über sämtliche anderen Modellorganismen — wie Drosophila, Caenorhabditis, Hefe oder Zebrafisch — zusammen. Deutliche Zeichen einer bedenklichen Monokultur, wie Engber kritisiert. Diesen Beitrag weiterlesen »

Sinn oder Nicht Sinn

17. November 2011 von Laborjournal

Im September 2008 brachten wir in Lab Times ein Editorial über eine etwas … hrrm… na ja … sagen wir:… skurille Studie aus den Proc. Natl. Acad. Sci USA. Ein deutsch-tschechisches Team hatte Bilder von Kuhherden ausgewertet, die sie über Google Earth heruntergeladen hatten — und war sich am Ende sicher: Die Kühe richten sich auf der Weide statistisch auffällig in Nord-Süd-Richtung aus, verfügen also offenbar — so deren Schlussfolgerung — über einen Magnetsinn, der sie die magnetischen Feldlinien der Erde wahrnehmen lässt.

Wie man dem Lab Times-Editorial entnehmen kann, war uns die Geschichte schon damals eher ein — begründetes — Augenzwinkern wert. Und so bekamen wir gar nicht mit, dass sie noch viel weiter ging. Asche auf unser Haupt, denn jetzt hat Nature die mindestens genauso skurrile Fortsetzung der Story. Diesen Beitrag weiterlesen »

Lieber keine Statistik

15. September 2011 von Laborjournal

Bereits Mark Twain erkannte:

I’ve come loaded with statistics, for I’ve noticed that a man can’t prove anything without statistics. No man can.

Dennoch meiden Biologen Statistik wie Katzen das Wasser — so geht jedenfalls das Vorurteil. Ob’s stimmt? Zumindest füttert eine frische Analyse neurobiologischer Publikationen dieses Vorurteil mit alarmierenden Fakten (Nature Neurosci. 145: 1105-7).

Kurz gesagt, deckte Erstautor Sander Nieuwenhuis von der Universität Leiden mit zwei weiteren holländischen Kollegen auf, dass in der Hälfte aller relevanten Publikationen eine zwingend notwendige statistische Analyse der Daten fehlte. Wodurch die tatsächliche Relevanz ihrer Ergebnisse jetzt natürlich ziemlich schwankt und wackelt.

Nieuwenhuis und Co. nahmen sich 513 neurowissenschaftliche Artikel vor, die innerhalb von zwei Jahren in Science, Nature, Nature Neuroscience, Neuron und Journal of Neuroscience erschienen sind — die „Crème de la Crème“ sozusagen. Aus diesen filterten sie insgesamt 157 Paper mit vergleichenden Ergebnissen, die eine sogenannte „Difference-in-Differences Analyse“ (siehe etwa hier, Kapitel 9.9) zwingend erforderlich machen, um deren tatsächliche Signifikanz zu zeigen. In 79 davon, ziemlich genau der Hälfte also, fehlte diese Analyse komplett. Diesen Beitrag weiterlesen »