Von verdienten aber verschwiegenen Co-Autoren

4. Dezember 2018 von Laborjournal

Schau mal an! Wieder eine E-Mail eines… — nun ja, verärgerten Nachwuchsforschers. Be­schwert sich, dass er nicht als Co-Autor mit auf das jüngste Paper seiner Gruppe genommen wurde. Totaler Skandal, weil er das natürlich klar verdient gehabt hätte — mehr noch als der konkrete Zweitautor. Ob wir das nicht öffentlich machen könnten. Solches Unrecht gehöre schließlich mal an den Pranger gestellt. Und nein — ihm selbst könne nix mehr passieren, da er inzwischen die Gruppe gewechselt habe. Aber sauer sei er natürlich immer noch…

Etwa ein Dutzend solcher E-Mails bekommen wir im Jahr. Einige Male haben wir tatsächlich nachgefragt. Und stets war „der Fall“ kaum objektiv darstellbar. Bisweilen schien es sogar ziemlich plausibel, warum der „Kläger“ letztlich nicht mit auf dem besagten Paper stand.

Dabei werden offenbar tatsächlich die Nachwuchsforscher vom Postdoc bis zum Master-Studenten mit am ehesten aus den Autorenlisten draußen gelassen. Zumindest war dies eines der Ergebnisse einer Umfrage der beiden US-Soziologen John Walsh und Sahra Jabbehdari aus dem Jahr 2017. Und die hatten dazu in den USA einige Leute mehr befragt als wir hier: Am Ende konnten sie die Angaben von 2.300 Forschern zu deren eigenen Publikationen auswerten (Sci. Technol. Human Values 42(5): 872-900).

Machen wir’s kurz:

» Nach Walsh und Jabbehdari listete ein Drittel der Artikel aus Biologie, Physik und Sozialwissenschaften mindestens einen „Gastautor“ mit auf, dessen Beitrag die Anforderungen für eine Co-Autorenschaft eigentlich nicht erfüllte. Angesichts von Ehren- und Gefälligkeits-Autorschaften wie auch ganzen Co-Autor-Kartellen war ein solch hoher Anteil womöglich zu erwarten.

» Viel erstaunlicher dagegen mutet jedoch der noch höhere Anteil an Artikeln an, auf denen ein oder mehrere Co-Autoren verschwiegen wurden, die wegen ihres Beitrags zur Studie eigentlich mit aufgelistet gehört hätten. Die befragten Forscher gaben an, dass hinter ganzen 55 Prozent ihrer Artikel noch mindestens ein weiterer „Geister-Autor“ gestanden hätte. Biologie und Medizin lagen genau in diesem Schnitt, während Ingenieurs-, Umwelt- und Agrarwissenschaften noch deutlich höher lagen. Den niedrigsten Anteil an „Geister-Autoren“ ermittelten die Verfasser mit 40 Prozent für die Mathematik und Computerwissenschaften.

» Und wer wurde hierbei bevorzugt „verschwiegen“? Neben Technischen Angestellten interes­san­ter­wei­se eher Postdocs als „Graduate Students“, also Doktoranden und Master-Studenten. In der Medizin lag der Anteil der Postdocs unter den „Verschwiegenen“ etwa bei 28 Prozent gegenüber 16 Prozent „Graduate Students“; in der Biologie betrug dasselbe Verhältnis 21 gegenüber 15 Prozent.

In der Summe heißt das also, dass in den Autorenzeilen jeder fünften Veröffentlichung aus den Medizin- und Biowissenschaften mindestens ein Nachwuchsforscher fehlt, der die Nennung eigentlich verdient gehabt hätte. Sicher lässt sich einwerfen, dass die gleiche Befragung in Europa womöglich andere Zahlen liefern würde. Aber würden Sie, liebe Leser, eine Voraussage wagen, in welche Richtung sich die geschilderten US-Verhältnisse dann verschieben könnten?

Wir meinen, angesichts der Bedeutung, die Co-Autorenschaften heutzutage für wissenschaftliche Karrieren haben, liefern bereits die US-Zahlen alleine ziemlich verstörende Erkenntnisse. Und für uns daher ein Grund mehr, um E-Mails wie der oben erwähnten tatsächlich nachzugehen.

Ralf Neumann

Zeichnung: Rafael Florés

Monolog vor dem Paperschreiben

18. Oktober 2018 von Laborjournal

„Okay, erstmal kurz nachdenken! Wie pack ich’s jetzt an? Wie schreibe ich all das nette Zeug jetzt auf?

Dass ich das alles nicht so bringen kann, wie es sich wirklich abgespielt hat, ist klar. Die ganzen Irrungen und Wirrungen, die Umwege, Rückbesinnungen und Neustarts, bis wir endlich am Ziel waren — da wird der Leser ja wahnsinnig.

Warum also die Einzelteile nicht neu ordnen und das Ganze wie einen Thriller aufziehen? Zuerst beschreibe ich die Reise unseres kleinen Trupps zum Ort des Geschehens (und illustriere sie in Fig. 1), um dann dort eingehend die Umgebung zu erkunden (Fig. 2). Dabei stoßen wir natürlich — Trommelwirbel! — zielsicher auf ein ziemlich unerwartetes und dunkles Mysterium (Fig. 3).

Mit allen Mitteln der Kunst untersuchen wir den rätselhaften Ort — und sammeln tatsächlich einen Hinweis nach dem anderen, was hier eigentlich vor sich gehen könnte (Fig. 4 A bis H). Bis wir an den Punkt kommen, an dem wir innehalten und versuchen, all diese Hinweise zu einem sinnvollen Muster zu ordnen (Fig. 5 A bis D). Und dabei fällt es uns plötzlich wie Schuppen von den Augen, so dass wir — nochmal Tata! — die logische Antwort auf unser Mysterium schließlich glasklar vor uns liegen sehen (Fig. 6).

Zum endgültigen Abrunden der Story bleibt dann nur noch der Epilog, der das finale Fazit noch mal schön klar zusammenfasst (Fig. 7). Et violá!“

(… Kurzes Innehalten, dann weiter…)

„Hm… Klingt zwar gut, keine Frage. Allerdings… Ich befürchte, dass wohl nur die Allerwenigsten mein ausgefeiltes Präsentationskonzept inklusive perfekt arrangiertem Spannungsaufbau überhaupt registrieren werden. Denn wie mache ich es denn selbst als Leser? Bei der wenigen Zeit, die man für die Literatur hat? Eigentlich läuft es doch immer etwa so:

Ich schaue mir jedes Paper gerade mal bis zur Fig. 1 an, höchstens bis zur Fig. 2. Da muss es mich schon ganz schön packen, dass ich mir mehr anschaue… Was eigentlich nie passiert, da die Auflösung ja sowieso schon vorne im Abstract steht. Also schaue ich mir lieber schnell das nächste Paper an… und das nächste… und das nächste….

Vielleicht sollte ich es also doch lieber andersherum aufziehen und den großen Clou der Story gleich vorne in die Fig. 1 stecken. Dann würden all die potenziellen „Schnellgang-Drüberschauer“ vielleicht wenigstens die Hauptbotschaft mitnehmen. Und wer aus irgendeinem Grund dennoch weiter liest, bekommt dann eben noch die ganzen Hintergründe dazu…

Hm… Ich glaube, so mach‘ ich’s! Man muss am Ende eben doch nach dem gehen, wie die Leute ticken, die man erreichen will.“

Ralf Neumann

x

Zehn ketzerische Gebote zur wunderbaren Welt der Leistungsorientierten Mittelvergabe (LOM)

4. Oktober 2018 von Laborjournal

(Den folgenden Beitrag bekam unsere Redaktion unaufgefordert zugeschickt. Der Autor ist der Redaktion bekannt.)


"Every valuable human being
must be a radical and a rebel,
for what he must aim at
is to make things better than they are."

Niels Henrik David Bohr
(Dänischer Physiker, 1885-1962, Physik-Nobelpreis 1922)

 

Vor 14 Jahren konzipierte und propagierte die DFG die sogenannte Leistungsorientierte Mittel­ver­gabe (LOM) und entließ sie als groß angelegten Freilandversuch in die medizinische For­schungs­landschaft. Oder besser gesagt: Sie ließ sie auf die Forscher in den Medizinischen Fakultäten los.

Bei der LOM konkurrieren in der Regel die verschiedenen Institute einer Fakultät um einen fixen Geldtopf. Das heißt, wenn Institut A nach irgendwelchen Kriterien, deren Sinn zumindest zweifelhaft ist, besser „produziert“ als Institut B, dann bekommt Institut B weniger Geld zugeteilt. Auch innerhalb einzelner Institute werden in vielen Fällen Kollegen direkt miteinander verglichen — sowohl in der Forschung, wie auch teilweise in der Lehre (wo der dominante Parameter allerdings häufig Quantität ist). Typischerweise spielen Impact-Faktoren von Zeitschriften eine wesentliche Rolle bei der LOM-Berechnung von „Forschungsleistungen“, obwohl deren Eignung zur Evaluation von Instituten und Einzelpersonen inzwischen selbst von Top-Journalen wie Nature oder Science klar verneint wird.

Dennoch haben viele Fakultäten die LOM-Richtlinie der DFG geflissentlich umgesetzt, ohne dass nachfolgend jemals geklärt wurde, ob sie wirklich sinnvoll ist — das heißt, ob ein messbarer positiver Effekt erzielt wird. Ob die LOM nützlich war bzw. ist, oder ob sie vielleicht vielmehr insbesondere das kollegiale Klima vergiftet, bleibt daher bis heute ungeklärt. Was aber auf jeden Fall erreicht wurde, ist, dass mehr Verwaltungspersonal zur Datenbankpflege et cetera benötigt wird. Die Relation von Forschern zu Verwaltern verschiebt sich zu Ungunsten der Forschung.

Nachfragen an die DFG mit der Bitte um Stellungnahme über mögliche Hinweise zum belegbaren Nutzen (oder Schaden) der Impact-Faktor-basierten LOM zeigen deutlich, dass die DFG sich bis auf Weiteres nicht ihrer Verantwortung für die Folgen der LOM stellt — ja sogar, dass sie auch in absehbarer Zukunft keine rigorose Evaluation durchführen will, obwohl ihr die Problematik sehr wohl bewußt ist.

Wenn man das dennoch ändern möchte, darf man also nicht weiter stillhalten. Deshalb nachfolgend eine ketzerische Liste von zehn LOM-Geboten zur wohlfeilen Reflexion. Sie könnte leicht noch länger sein, aber die Zahl 10 ist ja so schön biblisch — und 10 Gebote sollten letztlich mehr als genug sein, um potenziell LOM-induzierte Denkweisen des Homo laborensis nonsapiens darzustellen:x

Die 10 Gebote der LOM


  1. Du sollst den Kollegen vom Nachbar-Institut nicht helfen, in hochrangigen Journalen zu publizieren — vor allem, wenn die Gefahr besteht, dass sie in der LOM an Deinem Institut vorbei ziehen könnten.
  2. Du sollst Deinen LOM-Mitbewerbern nur solche Experimente vorschlagen, die viel Zeit kosten und letztendlich möglichst nicht funktionieren.
  3. Du sollst die Drittmittel-Anträge Deiner lokalen Kollegen nur oberflächlich kritisieren und eklatante Schwachstellen nicht aufdecken. Ihr Erfolg ist Dein LOM-Verlust!
  4. Du sollst Verbund-Initiativen nur gerade soweit unterstützen, wie sie Dir selbst nützen. Erfolge in diesem Bereich bringen den leitenden Kollegen in der Regel viele LOM-Punkte — was wiederum heißt, dass Du schlechter aussiehst.
  5. Du sollst in Berufungskommissionen dafür sorgen, dass in Nachbar-Instituten möglichst zweitklassige Kollegen angeheuert werden. Deren LOM-Schwäche wird Deine LOM-Stärke.
  6. Wenn Du eine Core Facility leitest, sorge dafür, dass vor allem die Kollegen Deines Instituts, am meisten aber Deine eigenen Leute von den sauteuren Gerätschaften profitieren.
  7. Du sollst Gutachtern bei Begehungen unauffällig subtile Hinweise zuspielen, die Deine LOM-Konkurenten in schlechterem Licht darstellen. Auch nonverbale Kommunikation kann hier wahre Wunder wirken.
  8. Falls Review-Artikel LOM-fähig sind, hau‘ möglichst viel davon raus! Selbst wenn deren echter „Nährwert“ oft äußerst limitiert ist, ersetzen sie doch für die LOM-Kalkulation wunderbar die deutlich mühsameren und kreativeren Originalartikel.
  9. Du sollst Kontrollexperimente und Wiederholungen von Experimenten auf ein absolutes Minimum beschränken, da diese nichts zur LOM beitragen.
  10. Du sollst Deine Ergebnisse in möglichst viele Artikel aufspalten, da dies zu einer Optimierung Deiner LOM-Punkte beiträgt.

 

In diesem Sinne, liebe Kollegen, freuen wir uns alle auf weitere Dekaden in der wunderbaren Welt der LOM. Für weitere kreative Ideen, wie man bei der LOM als Sieger vom Platz geht, einfach abends mal eine schöne Serie anschauen — zum Beispiel das gute alte Dallas mit J.R. Ewing oder auch House of Cards.

Illustration: iStock / kmlmtz66

x

Von Daten, die in Schubladen verstauben

17. September 2018 von Laborjournal

Haben Sie auch noch jede Menge Daten in der sprichwörtlichen Schublade liegen? Daten, die schon lange eine nette, kleine „Story“ ergeben würden — wenn man sie nur mal in Manuskriptform bringen würde?

Wie bitte, in Ihrer Schublade schlummert Stoff für mehrere solcher kleinen, aber feinen Manuskripte? Oder in ihrem Regal?…

Keine Angst, Sie sind nicht allein.

Schon vor einiger Zeit stellte eine englische Forscherin den Kollegen in ihrem (leider nicht mehr existenten) Blog im Prinzip dieselbe Frage: „Stellt Euch vor, ihr bekommt keine Fördergelder mehr und könnt Euch einzig darauf konzentrieren, alle vorhandenen Daten zusammenzuschreiben — für wie lange hättet Ihr noch „Stoff“?“ Und sie meinte damit nicht das Umschreiben bereits eingereichter Manuskripte; es ging ihr vielmehr um die vielen, praktisch publikationssreif abgeschlossenen (Seiten-)Projekte, die bislang dennoch nie wirklich oben auf dem Schreibtisch gelandet waren.

Heraus kam, dass dieses Phänomen den meisten Forschern, die schon länger im Geschäft sind, offenbar wohlbekannt ist: Die Mehrzahl der Antworten lag zwischen drei und fünf Jahren.

Drei bis fünf Jahre lang könnte der Durchschnitts-Seniorforscher also noch Manuskripte schreiben — allein mit den Daten, die er längst schon hat. Da er diese Zeit aber beileibe nicht nur mit Paperschreiben verbringen kann, werden wohl jede Menge dieser interessanten kleinen (und hin und wieder vielleicht sogar großen) Geschichten niemals veröffentlicht. „Survival of the fittest results“ nennt die Autorin das treffend.

Woher aber kommt der entsprechende Selektionsdruck? Wohl daher, dass das Publikations-dominierte Belohnungssystem dem Forscher die folgende Zwickmühle beschert hat: Will er seinen Job gut machen, sollte er stets seine Resultate sorgfältig prüfen, hart nach alternativen Erklärungen fahnden und sie immer mit der aktuellen Literatur abgleichen. Das allerdings kostet Zeit. Wenn Forscher X aber zu viel Zeit mit diesen Dingen „vertrödelt“, riskiert er, als unproduktiv abgestempelt zu werden. Und dann kann es schnell schwer werden, weiterhin Fördergelder zu bekommen.

Also bunkert Forscher X das weniger dringende Material in der Schublade und schreibt lieber erstmal den nächsten Antrag — nicht zuletzt auch, um das Hauptprojekt der Gruppe weiter am Laufen zu halten. Wird dieser dann bewilligt, muss er natürlich umgehend die beantragten Projekte auch machen. Mit den resultierenden Daten muss er gleich wieder Paper schreiben, damit er frische Argumente für den nächsten Folgeantrag hat… — und so geht das Spiel in die nächste Runde

Und während diese Mühle unerbittlich weiter läuft, versinkt das, was er in der Schublade bunkert, tiefer und tiefer im Staub.

Wer weiß, wie viele kleine Schätze mit etwas weniger Antragsdruck von dort geborgen werden könnten..

Ralf Neumann

Foto: iStock / Paperkites

x

Wutschrift eines Physikers über die «Forschungskultur» in der Biomedizin

10. September 2018 von Laborjournal

In schöner Regelmäßigkeit erhalten wir von unseren Lesern E-Mails, die man im Englischen als «Rant» bezeichnen würde. „Wutschrift“ oder „Tirade“ würde es im Deutschen wohl am ehesten treffen. Und natürlich sind es meist irgendwelche Zustände im hiesigen Wissenschaftssystem, die den Autoren immer wieder die Zornesröte ins Gesicht treiben.

Mit dieser allgemeinen Einleitung sollte die Neugier auf ein konkretes Beispiel geweckt sein. Also gut, nehmen wir etwa die folgende Mail, die uns ein Physiker bereits vor einiger Zeit zuschickte und in der er zwar nur kurz, aber heftig über die Verhältnisse in der biomedizinischen Forschung ablederte. Geben wir ihm also selbst das Wort:…

Als Physiker, genauer gesagt als Theoretiker, der eher Einzelkämpfertum gewohnt war, geriet ich vor Jahren vom Hamburger DESY, also der Hochenergiephysik, in die biomedizinische Forschung — und ich kann nur sagen: Ein echter Kulturschock! PI-Kult und Impact-Faktor-Fetischismus ohne Ende. Dazu eine ausgeprägte Projektitis: Jedes Projekt kündigt mindestens die ultimative Erklärung für irgendetwas an, wenn nicht dazu sogar noch Firmenausgründungen, Patente und vieles andere mehr. Völlig logisch daher, dass die Antragsteller auf diese Weise schon im Antrag versprechen, was am Ende rauskommen wird (deliverables) — und in welchen Zeitabschnitten (milestones). Reine Beutegemeinschaften, meist mit einem Haupt-Beutegreifer.

Preprints — in der Physik fest etabliert — scheinen in der Biomedizin als Teufelswerk verschrien. Seit zehn Jahren versuche ich meinen Chef von Preprint-Publikationen zu überzeugen. Doch ich höre immer nur: Beim Publizieren fängt man bei Nature, Science und Co. an. Fast immer wird das Manuskript abgelehnt, und man schreibt es für das nächste Journal um, et cetera — um es schließlich nach einem halben Dutzend Versuchen in einem passenden Journal unterzubringen. Am Ende ist dafür dann mehr Zeit vergangen als für die Forschung selbst.

Was für eine irrsinnige Verschwendung von Zeit und Steuergeldern! Und am Ende muss man sich dann anhören: „Associate-Professor wollen Sie werden? Dafür haben sie aber nicht genügend Paper pro Zeiteinheit geschrieben.“

Schlimmer noch trifft’s die Doktoranden und Postdocs: Die sind eh nur Verbrauchsmaterial — fast schon Sklaven, mit denen man machen kann, was man will. (Kürzlich sagte bei uns etwa ein PI zum Erstautor eines Manuskripts: „Ich habe mit meinem PI-Kumpel beim Mittagessen über das Paper geredet, deshalb muss er mit auf die Autorenliste.“ Und das zielgenau nach der zweiten Revision, als klar war, dass das Paper durchkommt…) Ein Aufstand ist nicht möglich, sonst kann man sich den nächsten Zeitvertrag abschminken — nur um dann nach 15 Jahren doch auf der Strasse zu landen.

Programme, die mit viel Geld und Zeit gestartet wurden, verrotten vor solchem Hintergrund mannigfach auf irgendwelchen Servern — weil irgendwann keiner mehr da ist, um sie zu pflegen und weiterzuentwickeln. Wieder viel Steuergeld für die Katz‘! Kontinuierlicher Aufbau von Wissen und Knowhow findet so kaum statt — auch weil es ja keinen akademischen Mittelbau mehr gibt, der ihn weiter tragen könnte. Dem Wissenschaftszeitvertragsgesetz sei dank!

So wird man die großen Fragen sicher nicht lösen. Sei es die nach der Entwicklung eines ganzen Lebewesens aus nur einer befruchteten Eizelle, oder die, warum wir altern und sterben, oder warum es überhaupt Leben auf der Erde gibt…

Irgendwelche Einsprüche? Bestätigungen? Relativierungen? Oder gleich noch einen «Rant» hinterher? …

Nehmen wir gerne! Als Kommentar hier unten oder via E-Mail an redaktion@laborjournal.de.

Illustr.: DeviantArt / baleshadow

 

Der gute, alte Journal Club

4. Juli 2018 von Laborjournal

Wer geht denn noch in den Journal Club? Ja, gibt es diese Veranstaltung überhaupt noch überall?

Nun, wenigstens die Älteren sollten diese wöchentliche Routineveranstaltung aus ihrer Diplom- und Doktorandenzeit noch kennen. Der Autor hatte etwa an seinem Ex-Institut immer montags um 12 Uhr Journal Club. Was jede Woche für ein bisweilen skurilles Schauspiel sorgte: Einer nach der anderen kam am Montagmorgen meist noch wochenendmüde ins Institut, schlurfte ziemlich unmotiviert ans schwarze Brett, las gelangweilt den Titel des anstehenden Journal Clubs — und trabte noch weniger begeistert wieder ab. Jedenfalls die meisten. Und gesehen hat man dann um 12 Uhr nur wenige.

Ja, so haben viele den guten, alten Journal Club wohl als lästige Institutsroutine im Kopf, die einen nur von den ach so wichtigen Experimenten abhält.

Aber hat der Journal Club das verdient? Wohl nicht wirklich, denn wo sonst kann man besser lernen, die Qualität von Publikationen zu beurteilen. Gerade heute gibt es wahrscheinlich mehr wundervolle Paper als jemals zuvor in der Geschichte der Biowissenschaften — und es ist unglaublich lohnend herauszuarbeiten, warum diese Paper so wundervoll sind. Genauso gibt es heute so viele wirklich furchtbare Paper wie noch nie zuvor in der Geschichte der Biowissenschaften — und es lohnt sich sehr darüber zu sprechen, warum sie so furchtbar sind. Nicht zuletzt auch, da man sich nach den Erfahrungen der letzten zwei bis drei Jahrzehnte kaum noch auf die simple Faustformel „Gute Paper in guten Journals, schlechte in schlechten“ verlassen kann.

Völlig klar: Gute Artikel von schlechten zu unterscheiden zu können, gehört zu den wichtigsten Schlüsselqualitäten des fortgeschrittenen Wissenschaftlers. Gesunder Wissenschaftlerverstand alleine liefert einem diese Qualität jedoch nur bedingt — man muss sie vielmehr trainieren. Und wie? Zum einen natürlich, indem man Paper wirklich liest. Zum anderen, indem man sie diskutiert.

Und wo geht das besser als im guten, alten Journal Club?

x

Reproduzierbarkeitskrise? — Selber schuld!

13. Juni 2018 von Laborjournal

(Zugegeben, der folgende Text erschien bereits in etwas anderer Form als Editorial unserer Print-Ausgabe 10/2014. Kürzlich versicherte uns jedoch ein Leser, dass sich bis heute nichts an der Brisanz des Inhalts geändert habe — und dass es durchaus Sinn mache, ihn nochmals zu reproduzieren. Womit wir beim Thema wären…)

 

Die Forschung hat ein Reproduzierbarkeitsproblem. Mehrere Handvoll Studien zum Thema sind inzwischen publiziert — allesamt mit dem ernüchternden Ergebnis, dass die Autoren jeweils weit über die Hälfte speziell ausgewählter Studien nicht „nachkochen“ konnten (LJ 3/2014: 18-23). Und bekanntlich gilt ja nur als robustes wissenschaftliches Resultat, was unabhängig in Oslo, Osaka, Ouadougou oder wo auch immer reproduziert werden kann.

Doch nicht nur die Reproduzierbarkeit macht Sorgen. Seit 2005 mahnt der inzwischen berühmt-berüchtigte US-Epidemiologe John Ioannidis unermüdlich, dass die Mehrzahl der Forschungsergebnisse falsch sei — und zwar schlichtweg wegen lausiger und somit unhaltbarer Statistik (siehe auch unser Interview mit Ioannidis in Lab Times 4/2014: 30-33). „Why Most Published Research Findings Are False“ lautete damals der Titel seines aufsehenerregenden Papers in PLoS ONE (Bd. 2(8): e124).

Seitdem ist er nicht allein geblieben. Erst kürzlich griff etwa der Berliner Neurologe Ulrich Dirnagl das Thema in unserem Jubiläumsheft „20 Jahre Laborjournal“ mit einer eigenen Analyse auf (LJ 7-8/2014: 38-41). „Sind die meisten Forschungsergebnisse tatsächlich falsch?“, fragte er in Anlehnung an Ioannidis in der Überschrift. Und gab die Antwort bereits im Vorspann: „Leider ja — Bias und schlechte Statistik fluten viele Paper mit falsch positiven Resultaten.“

Bias, schlechte Statistik, Reproduzierbarkeitsmangel — all dies zusammen ergibt schnell ein übel riechendes Gebräu, über dem man leicht naserümpfend diagnostizieren kann: „Der Patient Wissenschaft ist wirklich krank.“ Doch worin könnte die Therapie bestehen? Man kann es drehen und wenden, wie man will — man landet immer wieder bei den Autoren und ihren Pflichten. Die folgenden zwei, gar nicht mal ganz neuen Studien sollen dies unterstreichen…       Diesen Beitrag weiterlesen »

Verstehen wir uns noch?

9. Januar 2018 von Laborjournal

Denn sie wissen nicht, was sie tun. — Viele dürfte diese Zeile unmittelbar an den gleichnamigen Filmklassiker mit James Dean erinnern. Heute könnte sie jedoch auch für einen großen Teil biomedizinischer Forschung gelten.

Wobei man hier ein klein wenig wie folgt präzisieren müsste: „Denn sie wissen nicht mehr, was der andere tut.“ Bittere Konsequenz dessen, dass in vielen Gebieten die einzelnen Veröffentlichungen immer komplexer werden.

Ein besonders eindrückliches Beispiel dafür schilderte kürzlich Dorothy Bishop von der Oxford University in ihrem „BishopBlog“. In dem entsprechenden Beitrag klagt sie, dass sie die Publika­tionen ihrer Kollegen immer weniger versteht, sobald sie auch nur ein klein wenig über ihren eigenen Tellerrand hinausschaut. Sie schreibt:

Für eine Art Meta-Analyse über die Anwendung bestimmter statistischer Methoden studierte ich zuletzt eine Reihe von neurowissenschaftlichen Artikeln“, schreibt sie. „Einige davon musste ich stundenlang lesen und wieder lesen, bis ich endlich verstan­den hatte, welches überhaupt die statistisch relevantesten Ergebnisse waren.

Und dann schwenkt sie auf den eigentlich beunruhigenden Punkt um:

Mir scheint daher, dass in manchen Feldern die Zahl der Kollegen, die derart komplexe Paper überhaupt noch umfassend und kompetent begutachten können, extrem zusammenschnurrt.

Selbst gute und engagierte Editoren würden daher irgendwann kaum noch Reviewer mit voll­um­fäng­lich ausreichender Expertise auftreiben können. Und umgekehrt würde es den meisten immer stärker widerstreben, solch hochkomplexe Studien zu prüfen, wenn sie derart viel Substanz jenseits der eigenen Expertise enthalten.

Und Frau Bishop ist mit solchen Befürchtungen keineswegs allein. Bereits 2013 fragte Diethard Tautz, Direktor am Plöner Max-Planck-Institut für Evolutionsbiologie, in einem Essay für Labor­journal:

Lesen wir noch, was andere schreiben? Ja, verstehen wir uns überhaupt noch?

Und er erzählte folgendes Beispiel:

Ich musste kürzlich so ein „Big Data“-Paper für ein angesehenes Journal begutachten. Es hatte 60 Autoren und präsentierte ein Feuerwerk an intelligenten Auswertungen, Statistiken und Modellierungen. Etwas seltsam war der modulare Aufbau. Die einzelnen Teile des Papers waren offensichtlich von unterschiedlichen Autoren geschrieben worden, jeder ein Spezialist für sein Feld mit einem eigenen Sprachstil und wenig Bezug zu den anderen Modulen. An ein paar ‚Kleinigkeiten‘ wie fehlenden Übergängen und unvollständigen Sätzen war zu erkennen, dass die meisten der Autoren offen­sicht­lich ihr eigenes Paper nicht vollständig gelesen haben konnten — denn zumindest einem von den 60 hätte so etwas doch auffallen müssen. Haben auch Autoren gar keine Zeit mehr zum Lesen oder ist das der Beginn der Sprachverwirrung? Auch als Gutachter konnte ich nur einen Teil kompetent begutachten, den Rest nur auf Plausibilität prüfen. Und ich vermute, dass es den anderen Gutachtern ebenso ging.

Und er schloss:

Natürlich wurde es publiziert — und ich darf annehmen, dass es so gut wie keinen Leser mehr gibt, der wirklich alles davon versteht. Wenn das so weiter geht, dann sind wir bald nahe an dem Punkt,… dass keiner des andern Sprache verstehe!

Wobei das letztere Zitat jetzt nicht aus der Filmwelt kommt.

Ralf Neumann

 

Was ist faul an diesem Bild?

23. Oktober 2017 von Laborjournal

Es scheint leider traurige Gewissheit: In den letzten Jahren haben die Mauscheleien in den Abbildungen von Originalveröffentlichungen deutlich zugenommen. Der redliche Wissenschaftler ist daher wahrlich nicht schlecht beraten, möglichst auch den eigenen Blick für etwaige „Seltsamkeiten“ in Paper-Abbildungen zu schärfen. Denn andernfalls könnte solch ein „Trugbild“ womöglich auch das eigene Projekt irgendwann auf die falsche Fährte führen.

Wir von Laborjournal wollen bei der Schärfung der entsprechenden Sinne helfen — und stellen daher zum nun folgenden Bild die Frage: „Was ist daran wohl faul?“

x

Das Bild stammt aus dieser Originalveröffentlichung in Clinical Cancer Research. Uns ist nicht bekannt, ob das offensichtliche „Missgeschick“ inzwischen irgendwelche Konsequenzen nach sich gezogen hat. Zurückgezogen oder korrigiert ist das Paper jedenfalls bis heute nicht. Genauso wenig haben die Autoren bisher erklärt, wie der „Fauxpas“ zustande kam.

Und wer jetzt immer noch nicht weiß, was genau „faul“ ist an der Abbildung, bitte hier auf PubPeer nachschauen. Dort wurde erstmals darauf hingewiesen, dass hier etwas abgebildet ist, was sich so wie gezeigt einfach nicht „sauber“ abgespielt haben kann.

x

Spitzenmediziner schaffen ein Paper pro Woche !?

21. Juli 2017 von Laborjournal

Wieder einmal hat jemand die Veröffentlichungsfrequenz von gewissen „Superstars“ der medizinischen Forschung geprüft. Die Autoren heißen Martin Schmidt, Benedikt Fecher und Christian Kobsda — und ihre Ergebnisse veröffentlichen sie unter anderem in ihrem Blog „Elephant In The Lab“. In dem Beitrag „Doctor coauthor“ etwa schreiben sie:

The 20 highest performing authors in Medicine published more than 7700 articles in seven years.

Genauer gesagt, sind es 7.741 Artikel, die die zwanzig „Über-Autoren“ in den sieben Jahren veröffentlicht haben. Und dies wiederum heißt, dass jeder einzelne von ihnen im Schnitt sieben Jahre lang alle 6,6 Tage ein Paper gezeichnet hat — jedenfalls wenn man unberücksichtigt lässt, dass womöglich zwei oder mehr von ihnen bisweilen auf ein und demselben Paper auftauchen.

Wie auch immer: Uns erinnerte das Ganze sofort daran, dass wir für die medizinischen Fächer solche Rechnungen ja schon mehrmals selber durchgeführt haben. Zuletzt hatten wir das Thema hier im Blog 2014 unter dem Titel „Jede Woche ein Paper — Geht das?“ zusammengefasst. Und wie der Titel schon sagt, kamen wir seit 2002 punktuell immer wieder zu ähnlichen „Spitzenwerten“ wie jetzt Schmidt, Fecher und Kobsda.

Damals schlossen wir den Beitrag mit folgender Frage ans Publikum:

Wer kann uns erklären, wie es jemand schafft, unter Einhaltung aller Kriterien für eine saubere Autorenschaft etwa jede Woche ein frisches Forschungs-Paper zu zeichnen? Oder umgekehrt: Wer kann uns erklären, warum das wahrscheinlich beim besten Willen nicht möglich sein kann?

Geantwortet hat damals leider keiner. Also stellen wir die Frage hiermit nochmals neu…

Ralf Neumann

Information 1


Information 2





Information 4


Information 5


Information 7


Information 8