Laborjournal Blog

Der „Fake Science-Skandal“ – eine Meinung!

25. Juli 2018 von Laborjournal

Nach langer und aufwendiger Recherche eines Journalisten-Konsortiums von Süddeutscher Zeitung, WDR und NDR haben die betreffenden Medien kürzlich ihre Beiträge zum Thema Pseudojournale und schlechte Wissenschaft veröffentlicht. Was darauf folgte, ist der aktuelle „Skandal“ um sogenannte „Fake Science“. Oder auch #fakescience.

Was ich dabei nicht verstehe, ist, warum der Hochschulverband, die Universitäten und Wissenschaftsorganisationen es unterlassen, die mangelhafte Recherche des Konsortiums zu kritisieren. Stattdessen übt man sich in Selbstkritik, kritisiert Wissenschaftler und weist nur sehr vorsichtig darauf hin, dass ja nicht alle Publikationen in sogenannten „Raubtier-Journalen“ (predatory journals) Fälschungen sein müssen. In vorauseilendem Gehorsam schreibt die Präsidentin der Universität Marburg alle Wissenschaftler an, die in vermeintlichen „Raubtier-Journalen“ publiziert haben und verlangt eine Rechtfertigung — ohne jeden Hinweis auf wissenschaftliches Fehlverhalten in Form von gefälschten Daten.

Was ist überhaupt ein „Raubtier-Journal“?

Eins, das Publikationsgebühren nimmt? Nein, das machen fast alle seriösen Journale.

Eins, das keinen Impact-Factor (IF) angibt? Nein, manche seriöse Journale verzichten ausdrücklich auf die Angabe des stark kritisierten IF.

Eins, das kein beziehungsweise ein schlechtes Peer Reviewing hat? Woher sollen die Wissenschaftler das wissen, wenn das Journal behauptet, dass ein Peer Review stattfindet?

Eins, dass Wissenschaftler anschreibt und zu Publikationen auffordert? Das ist lästig und verstopft den E-Mail Ordner. Aber nein, das tun solide Journals bisweilen auch!

Der Übergang von soliden Journalen zu „Raubtieren“ ist fließend. Große Verlage geben sowohl Qualitäts-Journals als auch minderwertige Zeitschriften heraus, die zumindest im Graubereich der „Raubtiere“ liegen. Der (leider noch immer) renommierte Elsevier-Verlag „verkauft“ das beliebte „Scopus-Indexing“ an alle möglichen Zeitschriften, die sehr viel irrelevante Papers mit unzureichenden Daten publizieren. Das sind meist keine Fälschungen, sehr oft aber Publikationen von schlechter Qualität oder mit Daten von geringem allgemeinen Interesse (gegen letzteres ist nichts einzuwenden!).

Was ist schlechtes oder fehlendes Peer Reviewing? Wenn sich eine Zeitschrift eine Gruppe „großzügiger“ Gutachter hält, die allen „Junk“ durchwinken? Oder wenn der Editor alleine entscheidet, ein Manuskript anzunehmen? Als Geschäftsmodell ist das gewiss unmoralisch — aber die Autoren wissen das (meistens) nicht. Und: „großzügige“ Gutachter findet man auch mehr oder weniger häufig bei renommierten Journalen. Ich erinnere mich, dass ein Manuskript bei einer sehr (!) renommierten amerikanischen Zeitschrift innerhalb von fünf Stunden (einschließlich zwei Reviews) angenommen wurde. Das Paper war gut, aber die Begutachtung war — vorsichtig ausgedrückt — etwas oberflächlich.

Die „weltweite“ Betrachtung von „Raubtier-Journalen“ verzerrt vermutlich die Untersuchung — wohl vor allem, weil eine ordentliche Definition fehlt. In vielen weniger entwickelten Ländern gibt es eine Unmenge wissenschaftlicher Zeitschriften, die viele minderwertige sowie schlecht oder gar nicht überprüfte Daten veröffentlichen. Teilweise sind sie staatlich subventioniert, teilweise durch Scopus „geadelt“ — alle nehmen, für europäische Verhältnisse, moderate Publikationsgebühren. Im Gutachtergremium sitzen meist einige gute Wissenschaftler aus den USA, Europa oder Japan.

 

Ich habe selbst ein Jahr lang im Editorial Board einer solchen Zeitschrift gesessen, die von einer der Top-Universitäten Indonesiens herausgegeben wurde. Nachdem alle Manuskripte, die ich zu begutachten hatte, trotz meiner Ablehnung unverändert publiziert wurden, bin ich zurückgetreten. Sind das „Raubtiere“? Nach meiner Ansicht nicht. Es sind schlechte Zeitschriften, und sie publizieren viel „Junk“ — aber das wird leider von den dortigen Wissenschaftssystemen (inklusive dem Wissenschaftsministerium) ausdrücklich gefordert!

Muss man einem deutschen Wissenschaftler, der im Rahmen einer Zusammenarbeit auf einem Paper in einer minderwertigen Zeitschrift steht (nicht unbedingt einem minderwertigen Paper!), einen Vorwurf machen?

Die Autoren berichten vom tragischen Fall der Krebspatientin Miriam Pielhau, die falschen Studien zum Opfer gefallen ist. „Miriam war eine Krebsexpertin“, wird gesagt. Nein, war sie nicht! Wissenschaftliche Publikationen sind für ein Fachpublikum geschrieben, und Fachexperten können solche Arbeiten auch beurteilen. „Laien-Experten“ können das nicht. Frau Pielhau wäre der Fake-Therapie, die in Deutschland nicht zugelassen ist, nicht zum Opfer gefallen, wenn sie wirkliche Experten gefragt und sich auf die Zulassungsordnung in Deutschland verlassen hätte.

Eine gewisse Schuld tragen aber auch die Medien, die in Talkshows Nicht-Fachleute als Experten präsentieren und ihnen Raum für wissenschaftlich zweifelhafte Statements geben. So entsteht der Eindruck, dass jeder der googeln kann, innerhalb kürzester Zeit zum Fachexperten wird.

Süddeutsche, NDR und WDR implizieren, dass (fast) alle Artikel in „Raubtier-Journalen“ Fälschungen sind oder Interessen der Industrie vertreten. In „Exklusiv im Ersten“ wird berichtet, dass sie 170.000 Paper „ausgewertet“ haben. Wie viele davon wirklich Fälschungen sind, haben sie nicht untersucht. Gehen wir von ein bis zwei Prozent deutscher Publikationen in sogenannten „Raubtier-Journalen“ aus. Wie viele davon sind „Fake“ (enthalten gefälschte Daten), „Junk“ (enthalten schlechte Daten) — und wie viele enthalten korrekte Daten von geringem allgemeinem Interesse, die man nicht in einem Top-Journal unterbringen kann? Die Autoren bleiben die Antwort schuldig, berichten aber über einen „Skandal“. Der Anteil an „echtem Fake“ wird vermutlich im unteren Promillebereich liegen.

Fake-Konferenzen dagegen sind meist gut getarnte Geldschneiderei, aber inzwischen kennt man die Masche. Die im Film gezeigte „Weltkonferenz“ mit schätzungsweise dreißig Teilnehmern ist eigentlich ein gutes Zeichen: Darauf fällt kaum noch jemand herein.

Es ist jedoch auffällig, dass die öffentlichen Medien weit überproportional schlechter oder gefälschter Forschung zum Opfer fallen — unabhängig davon, ob sie in renommierten Zeitschriften oder in mutmaßlichen „Raubtier-Journalen“ steht. Bisweilen schaffen es sogar „Pseudo-Daten“ ohne jeden wissenschaftlichen Hintergrund in die Schlagzeilen. Das schlimmste Beispiel ist eine „wissenschaftliche“ Facebook-Publikation, die von einer politischen Partei inszeniert wurde. Ohne Recherche wurde sie in viele sogenannte Qualitätsmedien aufgenommen. Auf Anfrage antwortete ein Journalist dazu: „Das ist eine zuverlässige Quelle, eine Recherche war nicht erforderlich.“ Geht’s noch! Sollte man nicht gerade von Wissenschaftsjournalisten erwarten, dass sie recherchieren, die Glaubwürdigkeit eines Artikels überprüfen und zuverlässige Experten kennen, die sie befragen können.

Ganz zweifellos ist die Wissenschaft zur Selbstkontrolle verpflichtet. Wissenschaftliches Fehlverhalten wird von Universitäten, Forschungsinstituten und den Förderinstitutionen sorgfältig untersucht und gegebenenfalls geahndet. Ob neben Ombudsleuten und Ethikkommissionen eine weitere „Publikationspolizei“ erforderlich und hilfreich ist, möchte ich bezweifeln. Zumindest in den Naturwissenschaften gibt es zwar einen gewaltigen Publikationsdruck, Publikationen in minderwertigen Zeitschriften sind jedoch weder für die wissenschaftliche Karriere noch für die Einwerbung von Fördergeldern förderlich.

Sicher, der Markt an wissenschaftlichen Zeitschriften ist sehr unübersichtlich geworden. Der Publikationsdruck ist hoch, aber es wird auch exponentiell mehr Wissen produziert. Soll man den Publikationsmarkt daher regulieren? Ich hielte das für einen fatalen Eingriff in die Wissenschaftsfreiheit. Es gibt viele großartige Beispiele dafür, wie sich Wissenschaft selbst reguliert, wie Daten angezweifelt werden und dann mit mehr oder mit besseren Experimenten bestätigt oder falsifiziert werden — ohne dass jemand gefälscht oder betrogen hat. Und es gibt viele Experimente, mit denen tatsächlich spektakuläre (aber falsche) Publikationen experimentell widerlegt wurden. Von den Medien werden die spektakulären Ergebnisse indes allzu gerne aufgegriffen, ihre Falsifizierung aber leider zu oft ignoriert.

Ist es Paranoia? Oder könnte es sein, dass von einem dringend reformbedürftigen Wissenschaftsjournalismus die Glaubwürdigkeit von Wissenschaft durch Skandalisierung grundsätzlich diskreditiert werden soll? Wenn es so viel „Fake Science“ gibt, dann ist Wissenschaft doch nichts anderes als eine Meinung unter vielen, die gleichberechtigt neben Homöopathie, alternativer Medizin und biodynamischem Landbau steht — und eine flache Erde ist ebenso eine Hypothese wie der Globus.

„Fake Science“ ist eine Verallgemeinerung. Der Journalismus hat sich massiv gegen den Begriff „Lügenpresse“ gewehrt, weil er einige wenige Falschinformationen in den öffentlichen Medien auf die gesamte Branche extrapoliert. Wenn Journalisten jetzt den Begriff „Fake Science“ erfinden, ist das dann in Ordnung?

Wolfgang Nellen

 

(Wolfgang Nellen war bis 2015 Professor für Genetik an der Universität Kassel und ist seitdem Gastprofessor an der Brawijaya University in Malang, Indonesien. Von 2011 bis 2014 war er Präsident des Verbandes Biologie, Biowissenschaften und Biomedizin in Deutschland, VBIO e. V.)

 

Tschüss, Donald – Tschüss, Vladimir

24. Juli 2018 von Laborjournal

(Manchmal, aber nur manchmal fällt uns Redakteuren auch etwas völlig… also wirklich VÖLLIG Anderes ein. Wie dieser fiktive Dialog…)

„Tschüss, Donald.“

„Tschüss, Vladimir. War schön, mal ein bisschen mehr Zeit mit Dir zu haben. Und Dein Palast ist ja echt der Hammer. War der teuer?“

„Bin ich günstig drangekommen. Ach ja — und vielen Dank nochmal, dass Du denen da draußen gesagt hast, dass man mir trauen kann. Du weißt schon, wegen Euerm Wahlkampf und so.“

„Hab‘ ich doch gerne gemacht, Vladimir. Aber wahrscheinlich kriege ich jetzt deswegen Ärger zuhause. Du weißt ja: Journalisten, Demokraten, Geheimdienst — alles Idioten.“

„Ja, ja — das kenne ich. Sag‘ doch einfach, Du hast dich versprochen und lass dann Gras drüber wachsen. Die Leute, die Dich wählen, wissen ganz genau, dass Du Dich nicht versprochen hast — und die anderen vergessen das irgendwann. Den Trick habe ich auch meinen Freunden in Deutschland verraten. Erstmal so richtig nazimäßig vom Leder ziehen — und dann dementieren. Die Anhänger wissen dann schon, wie es gemeint war.“

„Toller Trick.“

„Und noch was, Donald: Was macht denn eigentlich der Bannon gerade?“

„Steve? Golfspielen, nehme ich an.“

„Der hat doch gerade nichts Wichtiges vor. Den könnten wir doch nach Europa schicken, damit er alle Rechten Nationalparteien im EU-Parlament zu einem Block zusammenbringt. Dann könnten die Europa blockieren, und vielleicht fällt der Sauhaufen von EU dann endgültig in sich zusammen. Dann sind wir endlich wieder alleine. So wie früher.“

„Saugute Idee. Das mache ich. Du hast ja echt ganz schön was auf dem Kasten. Wo hast Du denn sowas gelernt?“

„Das ist geheim.“

„Ach so.“

„Also bis bald, Donald.“

„Bis bald, Vladimir.“

Kai Herfort

Welche Forschung ist exzellent?

19. Juli 2018 von Laborjournal

Gehen wir die Frage mal mit einem Gedankenexperiment an: Stellen Sie sich vor, Sie begutachten Forschungsanträge für einen großen europäischen Forschungsförderer. Und nehmen wir an, dieser Förderer hätte als Leitlinie ausgegeben, dass einzig „wissenschaftliche Exzellenz“ als Kriterium für die Entscheidungen gelte. Das Anwendungspotenzial der Projekte sei unerheblich, es gebe keinerlei thematische Prioritäten und auch der Grad an Interdisziplinarität spiele keine Rolle. Nur die pure „Exzellenz“!

Okay, verstanden! Sie nehmen sich also die Anträge vor. Der erste formuliert eine brillante neue Hypothese zu einem Phänomen, für das die „alte“ Erklärung erst kürzlich spektakulär in sich zusammengefallen war.

Der nächste dagegen visiert eine „ältere“, ungemein attraktive Hypo­these an, die sich bislang aber jedem rigorosen experimentellen Test entzog — und genau diese quälende Lücke wollen die Antragsteller jetzt auf höchst originelle und einleuchtende Weise füllen.

Der dritte präsentiert einen klaren Plan, wie sich gewisse neue Erkenntnisse für eine völlig neue Methode rekrutieren ließen — eine Methode, die, wenn sie dann funktionierte, ganze Batterien neuer Experimente zu bislang „verschlossenen“ Fragen ermöglichen würde.

Der vierte kombiniert verschiedene vorhandene Tools und Ressourcen auf derart geschickte Weise, dass die Antragsteller damit in der Lage sein würden, riesige Datenmassen zu erheben, zu ordnen und zu analysieren — ein „Service“, mit dem das gesamte Feld zweifellos einen Riesensprung machen würde.

Der fünfte schließlich will auf überzeugende Weise sämtliche zu einem bestimmten Kontext publizierten Daten re- und meta-analysieren, um dann mit dem Paket ein möglichst robustes Simulationsprogramm zu entwickeln — ein Programm, das sicher mannigfach die Entwicklung neuer Hypothesen ermöglichen würde…

Jetzt halten Sie erstmal inne. „Mir war bisher nicht bewusst, auf welche verschiedene Arten Wissenschaft exzellent sein kann“, denken Sie. „Genauso wie exzellente Äpfel, Birnen und Orangen alle exzellentes Obst darstellen. Und die soll man ja bekanntlich nicht miteinander vergleichen.“

Ralf Neumann

x

Kontroverse um Diagnostika

9. Juli 2018 von Laborjournal

In Laborjournal 3/2018 veröffentlichten wir zwei Artikel zum Thema zweifelhafte Qualität und Qualitätskontrolle von Diagnostika — wobei vor allem Immun-Diagnostika im Fokus standen: „Ist Diagnostik Glückssache?“ und „Diagnostika außer Kontrolle“ (S. 16-23). In Heft 6/2018 (S. 14-15) kritisierten drei in der Diagnostik tätige Ärzte die beiden Artikel in einem Leserbrief mit dem Titel „Immundiagnostik braucht Verstand und Erfahrung“. Wir veröffentlichen den Leserbrief an dieser Stelle nochmals inklusive der Antworten unserer Autorin Karin Hollricher sowie von Kira Merk, deren „Fall“ als Betroffene in den Artikeln prominent geschildert wurde. Dies verbunden mit der Hoffnung, dass sich vielleicht die eine oder der andere ebenfalls mit einem Kommentar zu dem offenkundig sehr kontroversen Thema äußern möchte.


Der Leserbrief

„Immundiagnostik braucht Verstand und Erfahrung“

Sehr geehrte Redaktion,

am 9. Januar veröffentlichte die Süddeutsche Zeitung unter dem Titel „Bluts­bande“ einen Artikel, der den diagnostischen Leidensweg der Patientin Kira Merk beschrieb. Das Laborjournal nahm das gleiche Thema erneut auf. Frau Merk leidet an einer seltenen Autoimmunkrankheit, die auf Grund unspezifischer Symptome zu Beginn der Erkrankung, der großen Variabilität der Erkrankungs­manifestationen sowie nicht standardisierter Immundiagnostik sehr schwer zu diagnostizieren ist.

Frau Merk fiel auf, dass ihre Laborergebnisse unterschiedlich sind, je nachdem, in welchem Labor mit welchem Test ihr Blut untersucht wird. Das ist für einen Laien schwer verständlich. Leider sind solche Probleme im Praxisalltag nicht ungewöhnlich.

Die Ursachen hierfür sind vielfältig. Zum einen handelt es sich bei den für die Diagnostik von Autoimmunerkrankungen zu testenden Autoantikörpern um heterogene Analyten, wodurch biologisch bedingte Unterschiede bei Einsatz unterschiedlicher Nachweismethoden resultieren. Ein auf Immundiagnostik spezialisiertes Labor muss aber solche Probleme durch Plausibilitätstestungen erkennen und über Kontrollanalysen lösen können. Das für jedes Labor geforderte Qualitätsmanagement erweist sich selbst bei Akkreditierung meist als nicht ausreichend. Immundiagnostik braucht Verstand und Erfahrung. Zum anderen ist das Abrechnungssystem für Laborleistungen nicht darauf ausgelegt, die hier erforderliche Stufen- und Multiparameteranalytik durchzuführen.

Deshalb wird häufig darauf verzichtet, widersprüchlichen Befunden im Detail nachzugehen. Immundiagnostik gehört in speziell dafür ausgelegte Labore. Die von Krankenkassen geförderte ASV (ambulante spezialärztliche Versorgung) könnte dazu beitragen, die Immundiagnostik zu verbessern. Nicht auf Immundiagnostik spezialisierte Labore sollten keine spezielle Autoimmundiagnostik anbieten. Nur ein enger und regelmäßiger Dialog zwischen klinisch tätigem Arzt, Labormediziner/Immunologen und Testkithersteller kann die Qualität in der Labordiagnostik verbessern und einen hohen Standard gewährleisten.

Der dargestellte Fall greift ein für die Patientenbetreuung sehr relevantes Problemfeld auf. Allerdings finden sich in dem Artikel von Frau Hollricher erschreckend viele Fehler, die von einem grundsätzlichen Nichtverständnis der Autoimmundiagnostik zeugen. Diesen Beitrag weiterlesen »

Der gute, alte Journal Club

4. Juli 2018 von Laborjournal

Wer geht denn noch in den Journal Club? Ja, gibt es diese Veranstaltung überhaupt noch überall?

Nun, wenigstens die Älteren sollten diese wöchentliche Routineveranstaltung aus ihrer Diplom- und Doktorandenzeit noch kennen. Der Autor hatte etwa an seinem Ex-Institut immer montags um 12 Uhr Journal Club. Was jede Woche für ein bisweilen skurilles Schauspiel sorgte: Einer nach der anderen kam am Montagmorgen meist noch wochenendmüde ins Institut, schlurfte ziemlich unmotiviert ans schwarze Brett, las gelangweilt den Titel des anstehenden Journal Clubs — und trabte noch weniger begeistert wieder ab. Jedenfalls die meisten. Und gesehen hat man dann um 12 Uhr nur wenige.

Ja, so haben viele den guten, alten Journal Club wohl als lästige Institutsroutine im Kopf, die einen nur von den ach so wichtigen Experimenten abhält.

Aber hat der Journal Club das verdient? Wohl nicht wirklich, denn wo sonst kann man besser lernen, die Qualität von Publikationen zu beurteilen. Gerade heute gibt es wahrscheinlich mehr wundervolle Paper als jemals zuvor in der Geschichte der Biowissenschaften — und es ist unglaublich lohnend herauszuarbeiten, warum diese Paper so wundervoll sind. Genauso gibt es heute so viele wirklich furchtbare Paper wie noch nie zuvor in der Geschichte der Biowissenschaften — und es lohnt sich sehr darüber zu sprechen, warum sie so furchtbar sind. Nicht zuletzt auch, da man sich nach den Erfahrungen der letzten zwei bis drei Jahrzehnte kaum noch auf die simple Faustformel „Gute Paper in guten Journals, schlechte in schlechten“ verlassen kann.

Völlig klar: Gute Artikel von schlechten zu unterscheiden zu können, gehört zu den wichtigsten Schlüsselqualitäten des fortgeschrittenen Wissenschaftlers. Gesunder Wissenschaftlerverstand alleine liefert einem diese Qualität jedoch nur bedingt — man muss sie vielmehr trainieren. Und wie? Zum einen natürlich, indem man Paper wirklich liest. Zum anderen, indem man sie diskutiert.

Und wo geht das besser als im guten, alten Journal Club?

x

Engländer kommen billiger in Gen-Datenbank „FlyBase“

27. Juni 2018 von Laborjournal

(Gerade folgender Hinweis in der Redaktion eingegangen:)

„Ich wollte gerade ein Gen in der Drosophila-Datenbank FlyBase nachsehen. […] Hier ein Screenshot von dem, was ich vorfand (für größere Version auf’s Bild klicken):

x

x

Interessant, dass Flybase unterstützt wird:

[…] by a grant from the National Human Genome Research Institute at the U.S. National Institutes of Health U41HG000739.

Und dass die den Support jetzt kürzen!

Noch interessanter aber ist die neue „Preisliste“: Europa gehört zu den „other countries“, wo jede Person 300 US-Dollar pro Jahr für den Zugang zur Datenbank zahlt — Amis und Engländer zahlen dagegen nur die Hälfte.

Hmm?…“

x

Reproduzierbarkeitskrise? — Selber schuld!

13. Juni 2018 von Laborjournal

(Zugegeben, der folgende Text erschien bereits in etwas anderer Form als Editorial unserer Print-Ausgabe 10/2014. Kürzlich versicherte uns jedoch ein Leser, dass sich bis heute nichts an der Brisanz des Inhalts geändert habe — und dass es durchaus Sinn mache, ihn nochmals zu reproduzieren. Womit wir beim Thema wären…)

 

Die Forschung hat ein Reproduzierbarkeitsproblem. Mehrere Handvoll Studien zum Thema sind inzwischen publiziert — allesamt mit dem ernüchternden Ergebnis, dass die Autoren jeweils weit über die Hälfte speziell ausgewählter Studien nicht „nachkochen“ konnten (LJ 3/2014: 18-23). Und bekanntlich gilt ja nur als robustes wissenschaftliches Resultat, was unabhängig in Oslo, Osaka, Ouadougou oder wo auch immer reproduziert werden kann.

Doch nicht nur die Reproduzierbarkeit macht Sorgen. Seit 2005 mahnt der inzwischen berühmt-berüchtigte US-Epidemiologe John Ioannidis unermüdlich, dass die Mehrzahl der Forschungsergebnisse falsch sei — und zwar schlichtweg wegen lausiger und somit unhaltbarer Statistik (siehe auch unser Interview mit Ioannidis in Lab Times 4/2014: 30-33). „Why Most Published Research Findings Are False“ lautete damals der Titel seines aufsehenerregenden Papers in PLoS ONE (Bd. 2(8): e124).

Seitdem ist er nicht allein geblieben. Erst kürzlich griff etwa der Berliner Neurologe Ulrich Dirnagl das Thema in unserem Jubiläumsheft „20 Jahre Laborjournal“ mit einer eigenen Analyse auf (LJ 7-8/2014: 38-41). „Sind die meisten Forschungsergebnisse tatsächlich falsch?“, fragte er in Anlehnung an Ioannidis in der Überschrift. Und gab die Antwort bereits im Vorspann: „Leider ja — Bias und schlechte Statistik fluten viele Paper mit falsch positiven Resultaten.“

Bias, schlechte Statistik, Reproduzierbarkeitsmangel — all dies zusammen ergibt schnell ein übel riechendes Gebräu, über dem man leicht naserümpfend diagnostizieren kann: „Der Patient Wissenschaft ist wirklich krank.“ Doch worin könnte die Therapie bestehen? Man kann es drehen und wenden, wie man will — man landet immer wieder bei den Autoren und ihren Pflichten. Die folgenden zwei, gar nicht mal ganz neuen Studien sollen dies unterstreichen…       Diesen Beitrag weiterlesen »

Der ewige Postdoc… SPRICHT!

6. Juni 2018 von Laborjournal

In unserer Laborjournal-Ausgabe 3/2018 wie auch hier im Blog präsentierten vor einigen Wochen den unten folgenden Jubiläums-Cartoon „20 Jahre Forscher Ernst“ — damals allerdings mit leeren Sprechblasen, also ganz ohne Worte.

Für die zugehörige Story beziehungsweise Pointe baten wir Euch, liebe Leser, um Ideen und Mithilfe. Und tatsächlich erreichten uns einige Vorschläge…

Ganz zuletzt lieferte auch Zeichner Rafael Florés selbst den folgenden Dialog:

x

x

Und tja, was sollen wir sagen — er gefiel der Redaktion einfach am besten! Was nicht wirklich überrascht, da Rafael ja schon seit über zwanzig Jahren mit unserem „ewigen Postdoc“ zusammenlebt.

Aber auch die nächsten vier Text-Ideen fanden wir kaum schlechter, als da im einzelnen wären:

x

… von Blog-Kommentator“Elliott“

x

… von Lorenz Adlung, Weizmann Institute of Science, Rehovot/Israel

x

… von Blog-Kommentator „knaxel“

x

… von Kurt Stueber, Max-Planck-Institut für Züchtungsforschung in Köln

x

Vielen Dank für’s Mitmachen! Neue Laborjournal-T-Shirts gibt’s für alle fünf Texte — sobald sie aus der Produktion endlich bei uns angekommen sind…

x

Gene machen nix, und „Molekül“ ist nicht gleich „Verbindung“

4. Juni 2018 von Laborjournal

Ganz ehrlich — wir geben uns sehr viel Mühe, die teilweise komplexen wissenschaftlichen Zusammenhänge exakt auszudrücken.

Ein Beispiel: Nahezu alle Printmedien schreiben inzwischen, dass Gene etwas machen. „Gen X macht Krebs“, „Gen Y macht hässlich“, „Gen Z macht lange Finger“, und und und … Wir machen das nicht! Wir achten peinlich genau darauf, dass in unseren Texten Gene NICHTS machen. Denn in der Zelle machen sie schließlich auch nichts, da liegen sie nur mehr oder weniger verpackt herum. Vielmehr macht die Zelle mittels ihrer Enzyme was mit den Genen: Aktiviert und exprimiert sie, legt sie wieder still, vervielfältigt sie, repariert sie, modifiziert sie, ver- und entpackt sie,…

Nein, Gene an sich machen nix. Und selbst wenn es sich mittlerweile auch im Laborsprech etabliert hat, den komplexen Weg vom Gen zum Effekt schnell mal als „Gen X macht Effekt Y“ abzukürzen — in unseren geschriebenen Texten würden wir das als unexakt, ja sogar als schlampig empfinden. Daher versuchen wir, die „machenden Gene“ zu vermeiden — obschon uns sicherlich in manchem Text das eine oder andere doch mal durch die Lappen geht.

x

Wieviele Moleküle, wieviele Verbindungen?

x

Dass uns bisweilen aber noch weitere begriffliche Schlampigkeiten durch die Lappen gehen, darauf haben uns kürzlich zwei Leser aufmerksam gemacht. Und was sie jeweils genau anprangern, ist nicht nur richtig — sondern durchaus auch interessant, da die betreffenden Ungenauigkeiten womöglich auch vielen Leserinnen und Lesern nicht bewusst sind.

Leser Nr. 1 schrieb:

Sehr geehrte Damen und Herren,

in dem Untertitel zum Beitrag von Andrea Pitzschke innerhalb des Specials „Bioaktive Materialien“ ist mir ein Fehler aufgefallen:

Dort ist die Rede von „[…] regelmäßigen Sterilisationsmaßnahmen […]“ zur Prävention von Wundinfektionen. Hier hätte es Desinfektionsmaßnahmen heißen sollen. Eine nachträgliche Sterilisation einer Wunde ist nicht möglich, allenfalls eine Desinfektion, da die für eine Sterilisation erforderlichen physikalischen oder physikalisch-chemischen Verfahren für lebendes eukaryotisches Gewebe (und sicher auch für menschliches Gewebe) nicht verträglich sind.

Zum Trost: Ich bemühe mich schon einige Jahrzehnte Doktoranden und anderen Mitarbeitern die Unterschiede zwischen Desinfektion und Sterilisation beizubringen.

Mit freundlichen Grüßen, …

x

Und Leser Nr. 2 schrieb etwas ausführlicher:

Sehr geehrte Damen und Herren,

als ein Medium für Medizin- und Biowissenschaften, also im naturwissenschaftlichen Bereich angesiedelt, ist das Laborjournal dem exakten Ausdruck wissenschaftlicher Begriffe verpflichtet. Schließlich ist eine saubere Ausdrucksweise notwendig für die eindeutige Kommunikation und das unbeschwerte Verständnis zwischen den Wissenschaftlern, besonders wenn sie aus verschiedenen Bereichen kommen. Auch bemühen wir Hochschullehrer uns sehr, den Studierenden klarzumachen, warum es so wichtig ist, sich klar und eindeutig auszudrücken. Ich glaube, diese Aspekte sind nicht sonderlich kontrovers.

Als Chemiker stört mich deswegen die Nutzung des Begriffs „Molekül“, wo „Verbindung“ (oder „chemische Verbindung“) gemeint ist. Ein Beispiel: Im Laborjournal Nr. 1-2 lese ich […in der Rubrik „Frisch erforscht“; die Red.]: „Trüffelaroma kann nämlich im Labor synthetisiert werden, der typische Geruch beruht im Wesentlichen auf vier bis sechs Molekülen.“ So empfindlich dürfte nicht einmal eine trüffelsuchende Schweineschnauze sein, dass vier bis sechs Moleküle ausreichten!

Ich vermute, dass der Autor vier bis sechs chemische Verbindungen meinte — aber was er schreibt, bedeutet einfach was anderes und ist schlicht falsch. Der Ausdruck oben sagt etwas anderes aus als vom Autor beabsichtigt. Diese schlampige Nutzung der beiden Begriffe, mit „Molekül“ als Synonym für „Verbindung“, sieht man leider zunehmend auch in rein chemischen Zeitschriften. Chemical and Engineering News, immerhin publiziert von der American Chemical Society, ist ein abschreckendes Beispiel dafür.

Man kann nur darüber spekulieren, warum diese Fehlnutzung so um sich greift. Findet ein Laborjargon Eingang in die Literatur? Ist die sprachliche Präzision kein Wert mehr? Sucht der Autor vielleicht nach einem Synonym für Verbindung? (Dann gibt es andere und unkritische Möglichkeiten: Substanz, Spezies, Material, et cetera — je nach Situation.) Wie auch immer — jedenfalls ist es für jeden Autor ratsam, seine eigenen Formulierungen immer wieder kritisch zu betrachten.

Mit freundlichen Grüßen, …

x

Wir können uns bei diesen beiden Lesern nur bedanken. Vielleicht machen uns ihre Zuschriften in puncto exakte Begriffe ja wirklich künftig noch ein kleines bisschen besser.

x

Nur nicht zu viel riskieren

4. Mai 2018 von Laborjournal

Damit die Karriere nicht stockt, brauchen Postdocs und End-Doktoranden zwingend Paper. Und für Paper brauchen sie Ergebnisse.

Sichere Ergebnisse liefern jedoch in aller Regel nur risikoarme Projekte. Risikoarm insofern, als dass gewisse Vorarbeiten schon gezeigt haben, dass das Projekt solide ist und die nächsten Ergebnisse nur darauf warten, hinter der nächsten Ecke abgeholt zu werden.

Ob das dann noch aufregende Ergebnisse sind, ist eine andere Frage. Denn die erhält man in aller Regel, wenn man eben nicht nur hinter die nächste Ecke schaut — sondern sich eher auf Reisen weit über den Horizont hinaus begibt. Was einen dort genau erwartet, weiß man nicht und ist demnach hochgradig unsicher — schließlich ist es ja gerade das Unbekannte, das man erforschen will. Logisch daher, dass das Risiko, am Ende mit leeren Händen dazustehen, nicht gerade klein ist.

Die erwähnten Postdocs und End-Doktoranden können es meist kaum eingehen. Doch wer testet dann wirklich neue Ideen mit entsprechend hohem Fehlschlag-Risiko? Wem ist nicht gleich die Karriere versaut, wenn die Projektidee letztlich in einen „Satz mit X“ mündet? Wer braucht (noch) nicht die ganz runde Story?

Richtig, die „Anfänger“ — Bachelor/Master-Studenten und vielleicht mancher Doktoranden-Frischling.

Ob das aber der Sache gerecht wird? Denn nach welchem Schema das Neue-Ideen-Testen dann ablaufen kann, erzählte uns ein Gruppenleiter vor einiger Zeit an folgendem, selbst erlebten Beispiel…

Demnach erhielt Bachelor A im vierten Anlauf endlich ein halbwegs aussagekräftiges Basisergebnis; die nächsten zwei Mal scheiterte er wieder — danach verließ er das Labor. Später berichtete Master B, er habe zwei von sechs Mal ein positives Ergebnis erhalten und schrieb das auch in seiner Arbeit. Allerdings fiel den Kollegen daraufhin ein, dass niemand ihn derart oft an den Geräten gesehen hatte. Von der Gewissheit, ob die Idee was taugt und ein „richtiges“ Projekt mit vernünftigem Ergebnispotenzial tragen könnte, war man also weiterhin weit entfernt.

In den Händen des etwas erfahreneren Doktoranden C lieferte das vermeintliche Kernexperiment sofort ein positives Ergebnis. Allerdings konnte er es danach mehrere Male nicht wieder bestätigen — bis ihm Kollegin D beichtete, dass sie vor Wochen das empfindliche Schlüssel-Reagenz Z tagelang aufgetaut auf ihrer Laborbank vergessen hatte. Mit frischem Reagenz Z reproduzierte C sein Startergebnis zwar sofort wieder; allerdings verließ er das Labor zwei Wochen später überraschend zugunsten eines Bioinformatik-Jobs in der Industrie, ohne dass er die Ergebnisse je abschließend aufgeschrieben hatte.

Dennoch hielt der Chef den Basisbefund jetzt von A bis C für ausreichend solide belegt — und übergab „das Projekt“ einem neuen Postdoc. Ein knappes Jahr kam er wegen ungeahnter Schwierigkeiten mehr schlecht als recht voran — bis er schließlich befürchten musste, auf dem „Projekt“ nicht rechtzeitig die notwendigen Veröffentlichungen für den nächsten Antrag zusammenzubekommen. Also schmiss er es hin und wechselte aus „Karrieregründen“ doch wieder auf ein sicheres „Just around the Corner“-Projekt.

Nur ein Beispiel, wie schwer das derzeitige System das robuste Testen von wirklich neuen Ideen macht. Es gibt sicher noch mehr.

(Illustr.: Fotolia / pict rider)
Information 1


Information 2


Information 4


Information 5





Information 7