Humor ist, wenn man trotzdem …

6. April 2022 von Laborjournal

 

Humor ist bekanntlich Geschmackssache. Schließlich können die Antennen dafür individuell stark variieren – und manchen fehlen sie gar völlig.

Wie aber sieht es damit in Wissenschaft und Forschung aus?

Als wir beispielsweise vor zwanzig Jahren Sidney Brenner – kurz bevor er den Nobelpreis kriegen sollte – fragten, wie wichtig für ihn Humor in der Wissenschaft sei, antwortete er:

Absolut essentiell. Ich denke, zu viele Wissenschaftler nehmen sich selbst zu ernst. Humor ist ein Teil des Lebens, und daher auch der Wissenschaft. Er dreht die Dinge herum und verschafft einem einen anderen Blickwinkel. Und so kann Humor auch zu neuen Erkenntnissen führen. Oder gar beim Entwickeln von Ideen helfen. In der Tat muss eine gute Idee nicht nur gut sein, sondern in gewissem Sinne auch witzig.

Im Geiste unterschrieben wir das. Schließlich ist ja auch von weiteren großen Namen aus der Wissenschaftsgeschichte durchaus bekannt, dass sie zum Lachen nicht unbedingt in den Keller gingen: Albert Einstein, Francis Crick, Kary Mullis, …

Bei anderer Gelegenheit schauten wir uns dann um, wie es mit dem Humor in wissenschaftlichen Originalartikeln – also „Papern“ – steht. Und tatsächlich spürten wir so manches Beispiel für einen gewissen „Guerilla-Humor“ in Abbildungen auf – siehe etwa hier, hier oder hier.

Und witzige Titel? Zumindest kann es wohl kaum als bierernst gelten, wenn Autorinnen und Autoren ihre Artikel mit abgewandelten Film-, Song- oder Literatur-Zitaten überschreiben – wie etwa „Everything you always wanted to know about sex … in flies“. Gerade hierfür fanden wir am Ende sogar richtig viele Beispiele, und hatten sie seinerzeit hier zusammengetragen.

Scheint also doch alles in allem ein eher lustiges Völkchen zu sein, diese Forscher.

Doch dann kam eine gewisse Ernüchterung. Diesen Beitrag weiterlesen »

Schwaches Data Sharing

24. März 2022 von Laborjournal

Bisweilen zieht sich eine gewisse kollegiale Schlampigkeit durch die Forscherzunft. Zum Beispiel, wenn es darum geht, Kolleginnen und Kollegen auf Anfrage weitere Informationen zu den eigenen publizierten Studien mitzuteilen. Dazu berichten wir beispielsweise Folgendes unter „Inkubiert“  in unserem aktuellen Heft:

Dass gerade Letzteres es häufig nahezu unmöglich macht, publizierte Ergebnisse durch „Nachkochen“ zu bestätigen, illustriert eine frische Arbeit zur Replizierbarkeit von Studien aus der präklinischen Krebsforschung (eLife 10: e67995). Insgesamt wollten deren Autoren 193 Experimente aus 53 Arbeiten replizieren. Jedoch fehlten darin zu viele wichtige Informationen über Methodik und Ergebnisse – oder waren zumindest ungenügend. Am Ende konnten sie für kein einziges Experiment ein Protokoll zu dessen Wiederholung entwerfen, ohne die Originalautoren um klärende Details zu bitten. Allerdings antwortete jeder Dritte von ihnen daraufhin überhaupt nicht, und nur ein Viertel lieferte wirklich hilfreiche Unterstützung.

Und siehe da, gerade eben sind wir über eine weitere Studie gestolpert, die ganz frisch über ähnlich schwaches Verhalten hinsichtlich Data Sharing berichtet. Ihr Titel lautet „Frequency of receiving requested data for a systematic review and associated factors: A cross-sectional study“, verfasst hat sie ein brasilianisches Autorenteam (Account. Res. 29(3): 165-77). Sinngemäß übersetzt steht als Kernergebnis im Abstract:

Ziel dieser Studie war es abzuschätzen, wie häufig man Daten erhält, die für das Verfassen eines systematischen Reviews angefordert wurden. Dazu kontaktierten wir per E-Mail Autoren von Studien mit dem Anliegen, dass wir zusätzliche Daten von ihnen benötigten. […] Von den 164 angeschriebenen Studien antworteten 110 (67,1 %), 51 schickten angeforderte Daten (31,1 %). Die mittlere Zeit bis zum Erhalt einer Antwort […] betrug 36 Tage. […] Das Anfordern von Daten für einen systematischen Review kostete folglich viel Zeit und hatte überhaupt nur bei drei von zehn Studien Erfolg.

Könnte es sein, dass die ach so gerne beschworene Scientific Community in punkto kollegiales Verhalten doch deutlich mehr Luft nach oben hat, als viele von ihrer eigenen Zunft gerne wahrhaben wollen? Und dass man vom hehren Ideal des freien Datenaustauschs zugunsten einer Open Science weiter entfernt ist, als man dachte? Schließlich scheint dieser ja noch nicht einmal auf direkte Nachfrage gut zu klappen.

Ralf Neumann

(Illustr.: pngtree)

Hauptsache, man braucht Förderanträge!

17. Dezember 2019 von Laborjournal

Was wäre, wenn jeder Forscher einfach erstmal Geld bekäme? Ganz ohne Antrag, geschweige denn Peer Review? So wie einst­mals Otto Warburg, der lediglich schrieb: „Ich benötige 10.000 Mark. Otto Warburg“. Und sie tatsächlich bekam.

„Ja ja, träum‘ weiter“, mögen jetzt viele denken. Doch gemach, blättern wir hierzu ruhig mal in ein etwas älteres Heft von Accountability in Research — und reiben uns angesichts einer kanadischen Studie ungläubig die Augen (Band 16(1), S. 13-40). Da teilen uns die Autoren mit, dass ein sogenannter „Direct Baseline Discovery Grant“ des Natural Science and Engineering Research Council Canada (NSERC) im Durchschnitt 30.000 kanadische Dollar wert ist. Und dem setzen sie entgegen, was der ganze Prozess des Antragschreibens samt anschließender Bewilligung oder Ablehnung (!) durch Peer Review — nach Arbeitszeit et cetera bemessen — insgesamt kostet: nämlich satte 40.000 kanadische Dollar pro Antrag.

Selbst nach mehrmaligem Augenreiben bleibt somit das Fazit: Ein abgelehnter Antrag verbrät 10.000 Dollar mehr, als das Projekt bei Bewilligung überhaupt bekommen könnte. Da muss doch was faul sein! Und natürlich brauchen die Autoren auch keine höhere Mathematik um zu folgern, dass der NSERC sogar noch Geld sparen würde, wenn er jedem „qualifizierten Forscher“ den 30.000-Dollar-Baseline Grant einfach auf Anfrage direkt in die Hand drücken würde.

Sicher, 30.000 Dollar sind für diejenigen, die materialaufwändige Forschung betreiben, nicht viel. Dennoch spekulieren die Autoren, dass durch solcherart „effizientere“ Verteilung von Fördermitteln deutlich mehr und bessere Forschung laufen könnte — insbesondere im „Critical-Idea-or-Discovery“-Stadium. Wenn dann die ersten Ergebnisse tatsächlich vielversprechend wären, hätte man immerhin schon etwas in der Hand, um nachfolgend einen größeren — und natürlich begutachteten — Grant zu beantragen.

Bleibt noch die Frage, ob nach diesem Schema nicht Hinz und Kunz Geld bekommen könnten — und eben nicht nur „qualifizierte Forscher“. Dazu lediglich folgender Blog-Kommentar eines Forschers:

Bei jedem Karriereschritt, bei jedem einzelnen Paper werden wir immer wieder neu evaluiert. So sorgfältig und eindringlich, dass man uns doch irgendwann einmal genau in diesem einen Punkt trauen können sollte — nämlich dann, wenn wir neue Forschung anpacken.

Ralf Neumann

[Addendum: Fairerweise muss abschließend noch erwähnt werden, dass ein kanadischer Physiker die Kalkulation des Arbeitsaufwands von 40.000 kanadischen Dollar pro Antrag nachfolgend als viel zu hoch kritisierte (Accountability in Research 16(4): 229-31). Ein weiteres Paper dagegen kalkulierte für die Bearbeitung von Forschungsanträgen in Australien ähnlich hohe Ausgaben (BMJ Open 2013;3:e002800).]

 

Antwortscheue „Corresponding Authors“

2. September 2014 von Laborjournal

Wozu steht bei jedem Paper ein „Corresponding Author“? Simple Frage, oder? Als kompetenter und zuverlässiger Ansprechpartner für Fragen oder Anfragen, die nach der Publikation auftauchen. Wie der Name schon sagt: Jemand, mit dem man über das Paper korrespondieren kann.

Wenn sie es denn nur tun würden…

Denn von der Hälfte der angegebenen „Corresponding Authors“ bekommt man auf Nachfrage keine Antwort. Dies jedenfalls ist das Ergebnis einer Probe auf’s Exempel, die drei Bostoner Forscher jetzt in Clinical Orthopaedics and Related Research unter dem Titel „Do Corresponding Authors Take Responsibility for Their Work? A Covert Survey“ veröffentlichten (publ. online 15. August 2014).

Quasi „undercover“ hatten die Verfasser insgesamt 450 „Corresponding Authors“ angemailt und nach zusätzlichen ergänzenden Daten gefragt, die sie angeblich für einen Review brauchen würden. Diesen Beitrag weiterlesen »

Autoren am Rande des Nervenzusammenbruchs (23)

14. Februar 2014 von Laborjournal

Gerade am Telefon folgende interessante Geschichte gehört:

Forscherin hatte mit ihren Leuten eine Studie abgeschlossen, deren Ergebnisse sie für „bahnbrechend“ hielt — sowohl, was gewisse zelluläre Steuermechanismen anging, wie auch in ihrer klinischen Bedeutung. Auch das Manuskript hielt sie für überaus gelungen (was ja keineswegs automatisch der Fall ist, nur weil man gute Daten hat). Doch die Enttäuschung kam prompt: Der Editor des Edelblatts, welches sie für die Veröffentlichung ausgewählt hatte, schickte das Manuskript schnöde wieder zurück. Abgelehnt, ohne überhaupt zum Review geschickt worden zu sein!

Der Editor hatte das Manuskript offenbar nur kurz überflogen — und entschieden, dass es nicht mal einen Peer Review wert war. Warum? — fragte sich unsere Forscherin. Waren die Daten doch nicht so gut, wie sie gedacht hatte? Enthielten die Schlussfolgerungen logische Fehler? Hatte sie mit der Bedeutung der Resultate für das gesamte Feld übertrieben? Oder war es vielleicht „nur“ schlecht geschrieben? Es musste ja wohl etwas Offensichtliches sein, dass der Editor es umgehend wieder zurückschickte. Aber diesen „offensichtlichen“ Grund hätte der Editor doch wenigstens mitteilen können. Das wäre doch ein wichtiges und konstruktives Feedback gewesen.

Immer wieder drehten diese und ähnliche Gedanken ihre Kreise im Kopf der Forscherin — bis sie den Entschluss fasste, den Editor in dieser Angelegenheit nochmals anzuschreiben. Höflich erklärte sie in dem Schreiben noch einmal kurz und klar, warum sie ihre Ergebnisse für so wichtig hielt — und warum das Paper daher ihrer Meinung nach genau in dieses Journal passen würde. Nur um schließlich darum zu bitten, ihr kurz mitzuteilen, was genau die Editoren dazu bewogen hatte, das Manuskript nicht einmal begutachten zu lassen. Schließlich könne ihr eine entsprechende „handfeste“ Rückmeldung enorm helfen, das Manuskript zu verbessern — wenn auch wohl für ein anderes Journal.

Die Antwort kam eine Woche später — und ließ unsere Forscherin endgültig den Glauben an das Peer Review-System verlieren: „We cannot give you any feedback as the paper had not been sent out for review.“

„Lieber keine Eier als faule Eier“

16. Oktober 2013 von Laborjournal

Aus der Reihe „Spontane Interviews, die es nie gab — die aber genau so hätten stattfinden können”. Heute: Prof. E. Isern, Striktologisches Institut Universität Hochlattburg.

LJ: Hallo Herr Isern, so tiefe Falten zwischen den Augenbrauen. Warum?

Isern: Ach, ich habe mich mal wieder über einen Kollegen geärgert, dessen Manuskript ich begutachten musste.

LJ: War es so schlecht?

Isern: Die weit verbreitete und scheinbar unausrottbare Schlamperei, dass die Zahl der Proben einfach zu klein war. Die Leute kapieren einfach nicht, dass man auf diese Art keine belastbare Statistik bekommen kann. Und dass die Ergebnisse auf diese Art nur Anekdoten bleiben, die keinerlei allgemein gültige Schlussfolgerungen erlauben.  Diesen Beitrag weiterlesen »

Wurstige Titel

7. Januar 2013 von Laborjournal

Wahrlich keine Seltenheit, dass die Titel biomedizinischer Paper vor Spezialbegriffen nur so strotzen — und am Ende vollkommen verschwurbelt daherkommen. Umso erfreulicher daher, wenn ein Titel mit klaren und direkten Worten sagt, worum die beschriebene Studie tatsächlich geht — wie etwa in folgendem Beispiel:

„An In-Depth Analysis of a Piece of Shit: Distribution of Schistosoma mansoni and Hookworm Eggs in Human Stool“ (PLoS Neglected Tropical Diseases, 6(12): e1969).

Es geht darin also „um die Wurst“. Und auch der erste Teil der Abb. 1 lässt keinen Zweifel über das „Ausgangsmaterial“ der Studie:

 

(Ganz nebenbei auch ein klarer Kandidat für unsere lockere Reihe “Ungewöhnliche Abbildungen in Originalveröffentlichungen”)

Doch nehmen wir jetzt mal den Spaß, den die Autoren um Stefanie J. Krauth vom Schweizerischen Tropen- und Public Health-Institut in Basel beim Titeln und Bebildern sicherlich auch hatten, ein wenig beiseite. Diesen Beitrag weiterlesen »

Zitat des Monats (7): „Lahm, teuer, uneffizient,…“

20. Dezember 2011 von Laborjournal

Bereits im Jahr 2008 wetterte der langjährige Ex-Editor des British Medical Journal, Richard Smith, in Lab Times gegen das traditionelle Prepublication Peer Review-System. Jetzt legt er in einem Editorial im Journal of Medical Screening (vol. 18(3):113-14) noch einen drauf:

The evidence, as opposed to the opinion, on prepublication peer review shows that its effectiveness has not been demonstrated and that it is slow, expensive, largely a lottery, poor at spotting error, biased, anti-innovatory (as perhaps in this case), prone to abuse, and unable to detect fraud. The global cost of peer review is $1.9 billion, and it is a faith-based rather than evidence-based process, which is hugely ironic when it is at the heart of science.

My conclusion is that we should scrap prepublication peer review and concentrate on postpublication peer review, which has always been the ‘real’ peer review in that it decides whether a study matters or not. By postpublication peer review I do not mean the few published comments made on papers, but rather the whole ‘market of ideas,’ which has many participants and processes and moves like an economic market to determine the value of a paper. Prepublication peer review simply obstructs this process.

Interessanterweise haben die zwei US-Kognitionsforscher Dwight Kravitz und Chris Baker gerade einen sehr passenden Aufsatz in Frontiers of Computational Neuroscience veröffentlicht, in dem sie vorschlagen, wie eine Kombination aus Pre- und Postpublication Peer Review tatsächlich funktionieren könnte. Der Titel: Toward a new model of scientific publishing: discussion and a proposal. Diesen Beitrag weiterlesen »

Schwierige Genetik

13. Dezember 2011 von Laborjournal

Dass Zeitungsjournalisten oftmals Schwierigkeiten haben, Ergebnisse aus der Genetik richtig zu verstehen, und diese daher gerne „überverkaufen“ — das hat deren Zunft inzwischen leider allzu oft bewiesen. Und es scheint noch lange kein Ende in Sicht…

Einfach klasse daher, wie der australische Postdoc Daniel MacArthur im Blog genomes unzipped aktuell ein besonders krasses Beispiel auseinandernimmt. Unter dem Titel „On bad genetics reporting“ zerreißt er die folgende Kurznachricht aus dem britischen Independent vom 5. Dezember:

Sleeping is all in the genes

Scientists have found the reason why some people need more sleep than others lies in their genes. A survey of more than 10,000 people showed those carrying the gene ABCC9, present in one in five of us, slept longer than the average of eight hours. The finding, which is published in Molecular Psychiatry, could explain why Margaret Thatcher only needed four hours a night as Prime Minister while Albert Einstein was said to sleep for 11.

Nur eine Überschrift plus drei Sätze zwar — aber unglaublich, was man da an Fehlern reinpacken kann. Diesen Beitrag weiterlesen »

Mäuse-Monokultur?

2. Dezember 2011 von Laborjournal

Daniel Engber ist Senior Editor beim US-Online-Magazin Slate. In dieser Funktion hat er dort kürzlich ein vierteiliges Mammut-Dossier über die Maus veröffentlicht, den biomedizinischen Modellorganismus schlechthin. Seine darin zahlreich zusammengetragenen Forscher-Anekdoten ranken sich indes hauptsächlich um eine Frage: Hat die übermäßige Fixierung der biomedizinischen Forschung auf das (Krankheits-)Modell Maus nicht zu einer eher ‚ungesunden‘ Abhängigkeit geführt?

Warum Mäuse über die Jahrzehnte eine derart zentrale Rolle als Modelle zur Erforschung menschlicher Krankheiten eingenommen haben, ist klar: Mäuse kann man leicht bekommen und billig halten, dazu ist deren Genom bekannt und jede Menge genetische wie auch andere experimentelle Techniken sind bestens etabliert. Was den nicht unerheblichen Nebeneffekt hat, dass man heutzutage mit Mausprojekten sicher leichter an Fördergelder kommt als mit ausgefalleneren Tiermodellen.

Die Folge ist, dass nach einer Studie der Europäischen Union im Jahr 2008 knapp 60% aller biomedizinischen Laborexperimente an Mäusen durchgeführt wurden. Zudem wurden im Jahr 2009 dreimal mehr Mäuse-Paper veröffentlicht als über sämtliche anderen Modellorganismen — wie Drosophila, Caenorhabditis, Hefe oder Zebrafisch — zusammen. Deutliche Zeichen einer bedenklichen Monokultur, wie Engber kritisiert. Diesen Beitrag weiterlesen »