Nervige Zeit- und Geldverschwendung für Manuskripte

17. Mai 2023 von Laborjournal

„Mein Vollzeitjob besteht gerade darin, abgelehnte Manuskripte für eine andere Zeitschrift neu zu formatieren – und mich dabei superproduktiv zu fühlen.“

Viele werden sich wiederfinden in diesem nicht ganz ironiefreien Tweet, den der Ernährungsphysiologe Katsu Funai von der University of Utah Anfang des Jahres abschickte. Und er ist bei weitem nicht der Einzige, der auf Twitter über den enormen Zeitaufwand klagt, den es kostet, wenn man ein Manuskript, das man gemäß den Anforderungen einer Zeitschrift formatiert hat, für die Zweiteinreichung bei einer anderen Zeitschrift in ein völlig anderes Format umarbeiten muss.

„Haben Sie sich schon einmal gefragt, wie lange es dauert, Artikel für Zeitschrifteneinreichungen neu zu formatieren?“, fragte daher Megan Davies, Postdoc in der Epidemiologie der Universität Kopenhagen, ebenfalls auf Twitter. Und fuhr fort: „Wir haben uns das gefragt und beschlossen, darüber zu schreiben! Wir haben die verlorene Zeit und das verlorene Geld berechnet sowie Editoren und Forscher befragt – und einige neue Vorschläge für Formatierungsrichtlinien entwickelt.“

Das Ergebnis ist jetzt nachzulesen in dem Paper mit dem Titel „Saving time and money in biomedical publishing: the case for free-format submissions with minimal requirements“ (BMC Medicine 21: 172), bei dem Megan Davies als Co-Autorin fungiert. Demnach registrierten Seniorautor Tibor Varga und sein Team zunächst einmal unter „302 führenden biomedizinischen Fachzeitschriften […] eine große Vielfalt an Enreichungsanforderungen“. Und stellten nachfolgend fest: Diesen Beitrag weiterlesen »

Besser als begutachtet

26. November 2019 von Laborjournal

Warum „Forscher Ernst“ wohl bald ein Freund von Post-Publication-Peer-Review sein wird…

(Jede Menge weiterer Labor-Abenteuer von „Forscher Ernst“ gibt es hier. Zeichnungen von Rafael Flores.)

x

Für ein paar Referenzen mehr…

25. April 2019 von Laborjournal

Es war einmal ein Editor. Dies war er noch nicht lange, denn er war noch ein sehr junger Forscher. Umso stolzer machte ihn seine erste Berufung in ein Editorial Board. Schließlich durfte er das durchaus als unmittelbare Wertschätzung seiner Forschungsarbeiten deuten. Und als Aufnahme in einen gewissen, wie auch immer gearteten „Club“.

Jetzt stand sein erstes Treffen mit dem gesamten Board an, bei dem wie in jedem Jahr die Editorial Policy kritisch geprüft sowie die Schwerpunkte neu fokussiert wurden. Unser junger Mann war beeindruckt von der Routine, mit der die erfahrenen Forscher und langjährigen Editoren die Dinge auf den Punkt brachten. Alles war so, wie er es sich vorgestellt hatte.

Vor allem publikationsethisch schien unserem jungen Editor alles einwandfrei. Das war ihm besonders wichtig in diesen Tagen des „Publish or perish“ und der immer aggressiveren Konkurrenz zwischen den Journalen. „Nein, alles auf einem guten Weg hier“, dachte er. „Und ich bin dabei.“

Blieb nur noch das Abschluss-Bankett. Bei diesem nahm ihn plötzlich der Chief Editor persönlich beiseite. Diesen Beitrag weiterlesen »

Zeigt her eure Ideen!

28. März 2019 von Laborjournal

Was macht einen guten Forscher generell aus? Mal ganz plakativ: Er sollte offene Probleme erkennen, die richtigen Fragen sowie plausible Hypothesen dazu formulieren — und insbesondere Ideen generieren, wie man dieHypothesen und Fragen auf elegante Weise testen und beantworten könnte.

Das Dumme dabei ist: Jemand, der wirklich gut in alledem ist, wird viel mehr Ideen produzieren, als er tatsächlich in konkreten Projekten verfolgen — geschweige denn zur „Erkenntnisreife“ bringen kann. Das ist die Kehrseite der immer engeren, zugleich aber immer aufwendigeren Spezialisierung der letzten Jahrzehnte. (Nicht umsonst kursiert zu diesem Dilemma schon lange der Spruch: „Wir erfahren immer mehr über immer weniger — und das wiederum mit immer höherem Aufwand.“)

Nehmen wir etwa Max Perutz, der bekanntlich die allermeiste Zeit seines Forscherlebens ausschließlich — und sehr erfolgreich — an Hämoglobin arbeitete. Glaubt jemand tatsächlich, dieser brillante Forscher hätte nur gute „Hämoglobin-Ideen“ gehabt? Sicher nicht. Die meisten davon hat er jedoch nicht weiter verfolgen können, weil sein Hämoglobin-Projekt schon sämtliche finanziellen, technischen und personellen Ressourcen komplett beanspruchte. Also wird Perutz die große Mehrheit seiner guten Ideen wie Sand zwischen den Fingern zerronnen sein — sofern er nicht mit der einen oder anderen davon jemand anderen anstecken konnte.

Und so wird es womöglich auch heute vielen gehen. Sie werden selbst erfahren haben, dass nur wenige ihrer initialen Ideen am Ende tatsächlich in ein Projektmünden — weil es unter den Zwängen des aktuellen Systems „gerade einfach nicht realisierbar ist“. Schade eigentlich! Und nicht auszudenken, wie viele überaus fruchtbare Körner da heranwachsen, die dann doch unbemerkt vertrocknen.

Der US-Physiker David Harris sah es vor vier Jahren offenbar genauso, als er sagte: „Gute Wissenschaftler haben in der Regel viel mehr Ideen, als sie verwerten können. Es wäre besser, wenn sie diese mit anderen teilen könnten.“ Zu eben diesem Zweck gründete er 2015 das Journal of Brief Ideas. „Citable ideas in fewer than 200 words“ sollte man dort wenigstens zur Diskussion stellen können.

Sicher keine schlechte Idee. Leider scheint es, als hätte sie bis heute nicht wirklich gezündet. Oder vielleicht doch? Woanders und auf andere Weise?

Ralf Neumann

Grafik: iStock / kutubQ

Der „Fake Science-Skandal“ – eine Meinung!

25. Juli 2018 von Laborjournal

Nach langer und aufwendiger Recherche eines Journalisten-Konsortiums von Süddeutscher Zeitung, WDR und NDR haben die betreffenden Medien kürzlich ihre Beiträge zum Thema Pseudojournale und schlechte Wissenschaft veröffentlicht. Was darauf folgte, ist der aktuelle „Skandal“ um sogenannte „Fake Science“. Oder auch #fakescience.

Was ich dabei nicht verstehe, ist, warum der Hochschulverband, die Universitäten und Wissenschaftsorganisationen es unterlassen, die mangelhafte Recherche des Konsortiums zu kritisieren. Stattdessen übt man sich in Selbstkritik, kritisiert Wissenschaftler und weist nur sehr vorsichtig darauf hin, dass ja nicht alle Publikationen in sogenannten „Raubtier-Journalen“ (predatory journals) Fälschungen sein müssen. In vorauseilendem Gehorsam schreibt die Präsidentin der Universität Marburg alle Wissenschaftler an, die in vermeintlichen „Raubtier-Journalen“ publiziert haben und verlangt eine Rechtfertigung — ohne jeden Hinweis auf wissenschaftliches Fehlverhalten in Form von gefälschten Daten.

Was ist überhaupt ein „Raubtier-Journal“?

Eins, das Publikationsgebühren nimmt? Nein, das machen fast alle seriösen Journale.

Eins, das keinen Impact-Factor (IF) angibt? Nein, manche seriöse Journale verzichten ausdrücklich auf die Angabe des stark kritisierten IF.

Eins, das kein beziehungsweise ein schlechtes Peer Reviewing hat? Woher sollen die Wissenschaftler das wissen, wenn das Journal behauptet, dass ein Peer Review stattfindet?

Eins, dass Wissenschaftler anschreibt und zu Publikationen auffordert? Das ist lästig und verstopft den E-Mail Ordner. Aber nein, das tun solide Journals bisweilen auch!

Der Übergang von soliden Journalen zu „Raubtieren“ ist fließend. Große Verlage geben sowohl Qualitäts-Journals als auch minderwertige Zeitschriften heraus, die zumindest im Graubereich der „Raubtiere“ liegen. Der (leider noch immer) renommierte Elsevier-Verlag „verkauft“ das beliebte „Scopus-Indexing“ an alle möglichen Zeitschriften, die sehr viel irrelevante Papers mit unzureichenden Daten publizieren. Das sind meist keine Fälschungen, sehr oft aber Publikationen von schlechter Qualität oder mit Daten von geringem allgemeinen Interesse (gegen letzteres ist nichts einzuwenden!).

Was ist schlechtes oder fehlendes Peer Reviewing? Wenn sich eine Zeitschrift eine Gruppe „großzügiger“ Gutachter hält, die allen „Junk“ durchwinken? Oder wenn der Editor alleine entscheidet, ein Manuskript anzunehmen? Als Geschäftsmodell ist das gewiss unmoralisch — aber die Autoren wissen das (meistens) nicht. Und: „großzügige“ Gutachter findet man auch mehr oder weniger häufig bei renommierten Journalen. Ich erinnere mich, dass ein Manuskript bei einer sehr (!) renommierten amerikanischen Zeitschrift innerhalb von fünf Stunden (einschließlich zwei Reviews) angenommen wurde. Das Paper war gut, aber die Begutachtung war — vorsichtig ausgedrückt — etwas oberflächlich.

Die „weltweite“ Betrachtung von „Raubtier-Journalen“ verzerrt vermutlich die Untersuchung — wohl vor allem, weil eine ordentliche Definition fehlt. In vielen weniger entwickelten Ländern gibt es eine Unmenge wissenschaftlicher Zeitschriften, die viele minderwertige sowie schlecht oder gar nicht überprüfte Daten veröffentlichen. Teilweise sind sie staatlich subventioniert, teilweise durch Scopus „geadelt“ — alle nehmen, für europäische Verhältnisse, moderate Publikationsgebühren. Im Gutachtergremium sitzen meist einige gute Wissenschaftler aus den USA, Europa oder Japan.

 

Ich habe selbst ein Jahr lang im Editorial Board einer solchen Zeitschrift gesessen, die von einer der Top-Universitäten Indonesiens herausgegeben wurde. Nachdem alle Manuskripte, die ich zu begutachten hatte, trotz meiner Ablehnung unverändert publiziert wurden, bin ich zurückgetreten. Sind das „Raubtiere“? Nach meiner Ansicht nicht. Es sind schlechte Zeitschriften, und sie publizieren viel „Junk“ — aber das wird leider von den dortigen Wissenschaftssystemen (inklusive dem Wissenschaftsministerium) ausdrücklich gefordert!

Muss man einem deutschen Wissenschaftler, der im Rahmen einer Zusammenarbeit auf einem Paper in einer minderwertigen Zeitschrift steht (nicht unbedingt einem minderwertigen Paper!), einen Vorwurf machen?

Die Autoren berichten vom tragischen Fall der Krebspatientin Miriam Pielhau, die falschen Studien zum Opfer gefallen ist. „Miriam war eine Krebsexpertin“, wird gesagt. Nein, war sie nicht! Wissenschaftliche Publikationen sind für ein Fachpublikum geschrieben, und Fachexperten können solche Arbeiten auch beurteilen. „Laien-Experten“ können das nicht. Frau Pielhau wäre der Fake-Therapie, die in Deutschland nicht zugelassen ist, nicht zum Opfer gefallen, wenn sie wirkliche Experten gefragt und sich auf die Zulassungsordnung in Deutschland verlassen hätte.

Eine gewisse Schuld tragen aber auch die Medien, die in Talkshows Nicht-Fachleute als Experten präsentieren und ihnen Raum für wissenschaftlich zweifelhafte Statements geben. So entsteht der Eindruck, dass jeder der googeln kann, innerhalb kürzester Zeit zum Fachexperten wird.

Süddeutsche, NDR und WDR implizieren, dass (fast) alle Artikel in „Raubtier-Journalen“ Fälschungen sind oder Interessen der Industrie vertreten. In „Exklusiv im Ersten“ wird berichtet, dass sie 170.000 Paper „ausgewertet“ haben. Wie viele davon wirklich Fälschungen sind, haben sie nicht untersucht. Gehen wir von ein bis zwei Prozent deutscher Publikationen in sogenannten „Raubtier-Journalen“ aus. Wie viele davon sind „Fake“ (enthalten gefälschte Daten), „Junk“ (enthalten schlechte Daten) — und wie viele enthalten korrekte Daten von geringem allgemeinem Interesse, die man nicht in einem Top-Journal unterbringen kann? Die Autoren bleiben die Antwort schuldig, berichten aber über einen „Skandal“. Der Anteil an „echtem Fake“ wird vermutlich im unteren Promillebereich liegen.

Fake-Konferenzen dagegen sind meist gut getarnte Geldschneiderei, aber inzwischen kennt man die Masche. Die im Film gezeigte „Weltkonferenz“ mit schätzungsweise dreißig Teilnehmern ist eigentlich ein gutes Zeichen: Darauf fällt kaum noch jemand herein.

Es ist jedoch auffällig, dass die öffentlichen Medien weit überproportional schlechter oder gefälschter Forschung zum Opfer fallen — unabhängig davon, ob sie in renommierten Zeitschriften oder in mutmaßlichen „Raubtier-Journalen“ steht. Bisweilen schaffen es sogar „Pseudo-Daten“ ohne jeden wissenschaftlichen Hintergrund in die Schlagzeilen. Das schlimmste Beispiel ist eine „wissenschaftliche“ Facebook-Publikation, die von einer politischen Partei inszeniert wurde. Ohne Recherche wurde sie in viele sogenannte Qualitätsmedien aufgenommen. Auf Anfrage antwortete ein Journalist dazu: „Das ist eine zuverlässige Quelle, eine Recherche war nicht erforderlich.“ Geht’s noch! Sollte man nicht gerade von Wissenschaftsjournalisten erwarten, dass sie recherchieren, die Glaubwürdigkeit eines Artikels überprüfen und zuverlässige Experten kennen, die sie befragen können.

Ganz zweifellos ist die Wissenschaft zur Selbstkontrolle verpflichtet. Wissenschaftliches Fehlverhalten wird von Universitäten, Forschungsinstituten und den Förderinstitutionen sorgfältig untersucht und gegebenenfalls geahndet. Ob neben Ombudsleuten und Ethikkommissionen eine weitere „Publikationspolizei“ erforderlich und hilfreich ist, möchte ich bezweifeln. Zumindest in den Naturwissenschaften gibt es zwar einen gewaltigen Publikationsdruck, Publikationen in minderwertigen Zeitschriften sind jedoch weder für die wissenschaftliche Karriere noch für die Einwerbung von Fördergeldern förderlich.

Sicher, der Markt an wissenschaftlichen Zeitschriften ist sehr unübersichtlich geworden. Der Publikationsdruck ist hoch, aber es wird auch exponentiell mehr Wissen produziert. Soll man den Publikationsmarkt daher regulieren? Ich hielte das für einen fatalen Eingriff in die Wissenschaftsfreiheit. Es gibt viele großartige Beispiele dafür, wie sich Wissenschaft selbst reguliert, wie Daten angezweifelt werden und dann mit mehr oder mit besseren Experimenten bestätigt oder falsifiziert werden — ohne dass jemand gefälscht oder betrogen hat. Und es gibt viele Experimente, mit denen tatsächlich spektakuläre (aber falsche) Publikationen experimentell widerlegt wurden. Von den Medien werden die spektakulären Ergebnisse indes allzu gerne aufgegriffen, ihre Falsifizierung aber leider zu oft ignoriert.

Ist es Paranoia? Oder könnte es sein, dass von einem dringend reformbedürftigen Wissenschaftsjournalismus die Glaubwürdigkeit von Wissenschaft durch Skandalisierung grundsätzlich diskreditiert werden soll? Wenn es so viel „Fake Science“ gibt, dann ist Wissenschaft doch nichts anderes als eine Meinung unter vielen, die gleichberechtigt neben Homöopathie, alternativer Medizin und biodynamischem Landbau steht — und eine flache Erde ist ebenso eine Hypothese wie der Globus.

„Fake Science“ ist eine Verallgemeinerung. Der Journalismus hat sich massiv gegen den Begriff „Lügenpresse“ gewehrt, weil er einige wenige Falschinformationen in den öffentlichen Medien auf die gesamte Branche extrapoliert. Wenn Journalisten jetzt den Begriff „Fake Science“ erfinden, ist das dann in Ordnung?

Wolfgang Nellen

 

(Wolfgang Nellen war bis 2015 Professor für Genetik an der Universität Kassel und ist seitdem Gastprofessor an der Brawijaya University in Malang, Indonesien. Von 2011 bis 2014 war er Präsident des Verbandes Biologie, Biowissenschaften und Biomedizin in Deutschland, VBIO e. V.)

 

Kastrierte Methoden

14. Januar 2016 von Laborjournal

In unserer aktuellen Printausgabe schrieben wir unter „Inkubiert“, welch ärgerlich geringschätzige Politik manche Journals hinsichtlich der Referenzen betreiben. Daneben gibt es aber noch eine — vielleicht sogar noch wichtigere — Rubrik, bei der viele Journals den Anschein erwecken, als würden sie diese am liebsten gar nicht drucken: Material und Methoden.

Sehr schön illustriert diesen Eindruck die folgende Twitter-Diskussion aus dem Jahr 2014:
 


 
Die Symptome dieser Geringschätzung des „Material und Methoden“-Teils sind folglich,

  • ihn auf ein völlig unverständliches Maß zusammenzukürzen;
  • ihn ganz ans Ende des Artikel zu hängen;
  • dazu noch die Schrift auf eine schwer zu lesende Größe zu verkleinern;
  • oder ihn gar nicht zu drucken, sondern nur noch als Online-Supplement anzubieten.

 
Wie „Neuroskeptic“ schreibt: All dies sendet ein fatales Signal — nämlich, dass „Material und Methoden“ ein zu vernachlässigendes Anhängsel eines Forschungsartikels seien. Und dass das „Interessante“ — Entdeckungen und Erkenntnisse — ja sowieso woanders stehe.

Dabei wird doch (hoffentlich) jedem Jungforscher eingetrichtert, dass Forschungsergebnisse erst zählen, wenn sie jederzeit und überall unabhängig reproduziert werden können. Was natürlich nur geht, wenn man die beschriebenen Experimente absolut exakt „nachkochen“ kann. Und was braucht man dazu? Eben — eine bis ins letzte Detail exakte Beschreibung der verwendeten Materialien und eingesetzten Methoden.

Was machen daher also die Journals, wenn sie den vermeintlich ach so langweiligen „Material und Methoden“-Teil der Forschungsartikel immer mehr verstecken und kastrieren? Genau — sie sorgen zunehmend dafür, dass Forschungsergebnisse nicht mehr unabhängig verifiziert werden können.

Und war da nicht gerade was von wegen Reproduzierbarkeitskrise in der Forschung?…
 
 

Paper zurückgezogen — und wen soll ich jetzt zitieren?

11. Dezember 2015 von Laborjournal

Schon seit einiger Zeit muss der Zürcher Pflanzenforscher Olivier Voinnet ein Paper nach dem anderen wegen inkorrekter Abbildungen zurückziehen oder zumindest großflächig korrigieren. Zwischenstand sind momentan zwölf „Corrections“ und sieben „Retractions“.

Dennoch sticht die letzte Retraction heraus. Mitte November zog The Plant Journal den Artikel „An enhanced transient expression system in plants based on suppression of gene silencing by the p19 protein of tomato bushy stunt virus“ in Übereinkunft mit den Autoren Olivier Voinnet, Susana Rivas, Pere Mestre und David Baulcombe vollends zurück, nachdem sie ihn bereits im Juni erstmals korrigiert hatten. Das jedoch ist nicht wirklich der Punkt. Viel erstaunlicher ist die Tatsache, dass der Artikel bis dahin bereits über 900-mal zitiert worden war.

Was heißt das?

Der Artikel beschreibt erstmals eine neue und einfache Methode zur effektiven Steigerung der transienten Expression von eingebrachten Fremdgenen in Pflanzen. Basis dafür ist die Ko-Transfektion mit dem Gen für das Virusprotein P19, welches allgemein das posttranslationale Gene Silencing in Pflanzenzellen hemmt. Das P19-System steigert also die Expression des Fremdgens, indem es die natürliche Expressionsbremse der Pflanzenzelle blockiert.

Über 900 Zitierungen, wie gesagt. Die muss es doch großteils dafür gegeben haben, dass trotz der unzulässig manipulierten Abbildungen die Methode funktioniert. Und tatsächlich twitterte Sophien Kamoun, Laborleiter am Sainsbury Lab in Norwich/UK:

Das scheint also tatsächlich nicht die Frage. Allerdings ergibt sich daraus ein ganz anderes Problem, das Dmitri Nusinow vom Donald Danforth Plant Science Center in Creve Coer, Missouri/USA, via Twitter folgendermaßen ausdrückt:

 

Berechtigte Frage — denn schließlich gilt ein zurückgezogenes Paper per definitionem als augenblicklich aus dem Scientific Record gelöscht. Wen sollen die zahlreichen P19-Anwender also künftig zitieren? Die Erstbeschreibung der Methode gilt — aus guten Gründen! — als gelöscht. Woanders steht sie offensichtlich nicht in ausreichendem Detail beschrieben, da alle nachfolgenden Anwender — zu Recht — auf die Erstbeschreibung verwiesen.

Soll man sich jetzt also darauf einigen, stattdessen einen der ersten Anwender zu zitieren? Wohl kaum — denn zum einen stünde die Methode dort auch nicht vollständig drin, und zum anderen bekäme der betreffende Artikel auf diese Art sicher viel mehr Zitierungen als er tatsächlich verdient. Oder erklärt man die Methode einfach zum allgemeinen Wissen, das man nicht mehr zu zitieren braucht — und muss wegen der Details trotzdem weiter in das zurückgezogene Paper schielen, weil sie ja nirgendwo sonst aufgeschrieben stehen.

Eigentlich müsste jemand die Methode nochmals „neu“ mit allen Details veröffentlichen — vielleicht ja sogar noch mit einigen neuen. Das wäre dann zwar ordnungsgemäß zitierbar, aber wie oben schon gesagt: Ordnungsgemäß verdiente Zitierungen wären das nicht.

Hmm — hat vielleicht jemand einen anderen Vorschlag?

Wie eine Autorin plötzlich unverschuldet als Plagiatorin dastand

22. Juli 2015 von Laborjournal

Gerade auf editage Insights eine skurrile Vermischung von blödem Fehler und schlimmem Missverständnis gelesen. Kurz zusammengefasst ging das Ganze so:

Journal X akzeptierte das Manuskript von Autorin A zur Veröffentlichung. Als die angepeilte Ausgabe erschien, musste A jedoch erstaunt feststellen, dass ihr Name unter einem völlig anderen Artikel stand. Umgehend kontaktierte sie den Journal-Editor und klärte ihn auf, dass sie nicht die Autorin dieses Artikels sei — und dass sie auch kein irgendwie ähnliches Manuskript eingereicht habe. Der Editor erklärte ihr, dass dem Journal hier ein dummer Fehler passiert sei und sie das natürlich in der nächsten Ausgabe korrigieren würden.

Soweit, so schlecht. Aber es kam noch deutlich krasser. Als A den „Autorendreher“ bemerkte, war die Ausgabe schon eine kleine Weile draußen. Und wie das heute so ist, wurde der Artikel mit ihr als falscher Autorin bereits in den gängigen sozialen (Forscher-)Medien zitiert und diskutiert. Dies bekam auch der „wahre“ Autor B des Artikels mit — und dachte natürlich, dass A ihm auf irgendeine Weise mit einem Plagiat zuvorgekommen sei.

Auch B kontaktierte daraufhin das Journal. Parallel aber klagte er A in den entsprechenden sozialen Medien schon mal sehr aggressiv des Plagiierens an. Was natürlich wiederum A nicht nur verwirrte, sondern verständlicherweise ziemlich aufbrachte. Schließlich stand plötzlich völlig unverschuldet und ungerechtfertigt ihr guter Ruf auf dem Spiel.

Also rief A wieder beim Journal-Editor an und verlangte aufgrund dieser Entwicklung schnelleres Handeln, als bis zur nächsten Ausgabe zu warten. Dies geschah dann auch: Der Editor informierte B umgehend über den Fehler und dessen daraus resultierenden Irrtum, B wusch A in den sozialen Medien von allen Verdächtigungen frei und entschuldigte sich dafür — und der Editor wiederum veröffentlichte gleich am nächsten Tag eine Erklärung samt Entschuldigung bei beiden, A und B, auf der Journal-Website. Letztere erschien dann auch noch als Erratum in der nächsten Printausgabe.

Eine blöde Geschichte, die sich aus einem seltenen dummen Fehler hochgeschaukelt hat. Allerdings kann man sich schon fragen, ob die Leute im Zeitalter sozialer Medien vielleicht immer mehr verlernen, dass man ja auch mal per Direktkontakt nachfragen kann. Denn hätte B umgehend direkt bei A angerufen, um die Sache zu klären, wäre die Angelegenheit wohl kaum derart hochgekocht.

Journal Covers, mal anders (9)

27. Mai 2014 von Laborjournal

Molecular Biology and Evolution titelte sein Mai-Heft (Vol 31, No. 5) folgendermaßen:

c

… Und schrieb dazu:

RhesusBase is a resource for comparative analyses of the gene structure and associated regulations in humans and monkeys (Volume 31, pp. 1309-1324). Artwork provided by the RhesusBase Team and Shaomei Hu.
 c

Kooperationen klappen — oder nicht!

23. April 2014 von Laborjournal

Folgende Anekdote gestern am Telefon gehört [Namen geändert!]:

Forscher Müller hat eine Kooperation mit Meier. Eines Tages erhält Müller überraschend ein Manuskript von Meier. Er finde, dass die gemeinsamen Daten inzwischen für eine „nette, kleine Publikation“ reichen, schreibt Meier dazu. Müller findet das nicht. Er schreibt zurück, dass er lieber noch die ein oder andere Testreihe durchziehen wolle, um der „Story“ mehr Substanz zu verleihen. Meier entgegnet, dass dies seiner Meinung nach unnötig sei — die Geschichte wäre auch so schon klar. Und überhaupt habe dessen Gruppe ja nur etwa zwanzig Prozent zum aktuellen Manuskript beigetragen. Wenn er die jetzt wieder rausnehme und ein paar kleine Experimente selber mache, könne er das Paper auch gut ohne ihn veröffentlichen. „Tu, was Du nicht lassen kannst“, schreibt Müller sinngemäß zurück — und schmeißt das Manuskript in den Müll.

Einige Wochen später erhält Müller Post vom Journal of Any Results. Darin ein Manuskript samt einem Brief mit der Bitte, es für eine mögliche Publikation zu begutachten. Korrespondierender Autor des Manuskripts:… Meier.

Wie er jetzt mit dem Manuskript verfahren werde, wisse er noch nicht, erzählte uns Müller. Wahrscheinlich werde er es aber zurückschicken — mit dem Hinweis, dass er es wegen Befangenheit nicht begutachten kann.

Und die Moral von der Geschicht‘: Kooperationen klappen — oder nicht!

(Illustration: graphicgeoff / Fotolia.com)