Wirklich nur kleine Lügen?

24. Juni 2020 von Laborjournal

Forschung sei stets auf der Suche nach Wahrheit, heißt es ein wenig pathetisch. Dennoch greifen Forscherinnen und Forscher gerne zu kleinen Lügen — vor allem dann, wenn sie ihre Paper schreiben. Denn wären sie immer und überall grundehrlich, müssten sie die „Storys“ ihrer Erkenntnisse in den allermeisten Fällen nach ähnlichem Muster erzählen wie im Folgenden dieser Pflanzenforscher hier:

„Eigentlich hatten wir den Verdacht, dass Substanz X die Entwicklung von Wurzelhaaren beeinflusst. Doch als wir sie testeten, passierte nix mit den Wurzelhaaren. Zum Glück fiel uns bei älteren Pflanzen jedoch auf, dass mit den Blättern irgendetwas nicht stimmte: Die Leitbündel waren etwas weniger stark verzweigt als normal. Aus der Literatur weiß man nun aus völlig anderen Zusammenhängen, dass Substanz X die Aktivität einiger Kinasen blockiert. Zugegeben, wir hatten X getestet, weil wir ursprünglich vermuteten, dass Kinasen eine Rolle bei der Wurzelhaarbildung spielen. Jetzt scheint dies aber eher bei der Leitbündel-Differenzierung der Fall zu sein. Was ja auch nicht schlecht ist, oder?“

Klar, dieses hypothetische Szenario würde so nie in einem Journal stehen. Dort würde man eher eine „Story“ nach dem folgenden — verkürzten — Schema lesen:

„Aus diesen und jenen Gründen fanden wir es durchaus plausibel, dass Kinasen eine regulatorische Rolle in der Leitbündel-Differenzierung spielen könnten. Also unterwarfen wir unseren Verdacht einem ersten Test, indem wir prüften, ob der Kinase-Hemmer X irgendwelche Auswirkungen auf die Leitbündel-Verzweigung hat. Dies war tatsächlich der Fall, womit unsere Ausgangshypothese vorläufig untermauert ist.“

Ein wenig gelogen also. Aber ist es nicht legitim, die Ergebnisse auf diese Art in einen logischen und nachvollziehbaren Zusammenhang zu bringen? Damit man sie besser versteht? Es scheint jedenfalls gemeinhin akzeptiert.

Doch Vorsicht: Allzu schnell wird aus solchen „kleinen Lügen“ eine große. Im obigen Beispiel lautete die Ausgangshypothese „X hemmt Wurzelhaarbildung“. Beobachtet man daraufhin etwas ganz anderes, kann das zwar durchaus interessant sein — aber man muss es zwingend in einem neuen Experiment mit neuer Hypothese testen. Nur dann kann man ausschließen, dass man im ursprünglichen Test einem zwar signifikanten, aber letztlich doch falsch-positiven Unterschied zwischen Experiment und Kontrolle aufgesessen ist.

Lässt man dies weg und konstruiert gleich um den Zufallsfund eine „passende“ Hypothese, führt man die Leserinnen und Leser an der Nase herum. Und nicht selten wahrscheinlich auch sich selbst.

(Übrigens: Auf diese Art eine Hypothese zu formulieren, nachdem man gewisse Ergebnisse hat, nennen die Spezialisten HARKing — von hypothesizing after the results are known. Der Sozialpsychologe Norbert Kerr charakterisierte den Begriffs bei bei seiner Einführung 1998 als „presenting a post hoc hypothesis in the introduction of a research report as if it were an a priori hypothesis“.)

Ralf Neumann

Hypothesen im Herz

15. Januar 2020 von Laborjournal

Was ist wichtiger in der Forschung: Antworten zu finden oder die richtigen Fragen zu stellen? Viele favorisieren Letzteres, da sie Fragenstellen in einem Aufwasch sehen mit dem nach­fol­gen­den Formulieren testbarer Hypothesen. Und Hypothesen gelten ja schließlich als das Kernstück der Forschung schlechthin.

Hand auf’s Herz, wie oft sind Sie tatsächlich zu diesem Kern vorgestoßen? Wie oft haben Sie tatsächlich eine Hypothese formuliert?

Anhand dieser Frage lassen sich womöglich grob vier Klassen von Forscherinnen und Forschern einteilen:

1) Diejenigen, die erstmal gar keine Hypothesen aufstellen wollen. Stattdessen sammeln sie blind (sie selber sprechen lieber von vorurteilsfrei) Daten, einfach weil es technisch geht. Siehe etwa Metagenom-Projekte und Co. Standard-Spruch dieser Spezies: „Wir liefern Daten, aus denen man dann charakteristische Muster herauslesen kann — und mit denen kann man dann wiederum Hypothesen aufstellen.“ „Hypothesen-generierende Forschung“ nennt sie das Ganze dann.

2) Diejenigen, die sich an gängige Hypothesen dranhängen. Sie bestätigen hier ein Detail oder fügen dort eines hinzu, entwickeln kaum eigene Hypothesen, machen noch weniger Vorhersagen und testen am Ende praktisch gar nichts.

3) Diejenigen, die sich Hypothesen förmlich abringen. Diese erlauben sogar einige testbare Voraussagen, jedoch reicht dies gerade, um die eigene Forschung am Laufen zu halten. Deshalb werden sie eifersüchtig gehortet — und man bekommt sie erst nach vielen Tests glatt poliert im fertigen Paper präsentiert.

4) Diejenigen, die mehr gute Hypothesen samt testbarer Vorhersagen aufstellen, als sie selbst bearbeiten können — und diese daher auch mitteilen. Diese seltene Spezies beginnt dann auch mal einen Vortrag mit: „Hört zu, ich hab’ mir die Literatur zum Thema X angeschaut, darüber nachgedacht und ein paar vorläufige Experimente gemacht. Von daher scheint mir, dass die ganze Story so und so geht. Allerdings, sicher bin ich mir natürlich nicht — also lasst uns das mal gemeinsam durchdenken…“ Oder macht es wie der Zürcher Entwicklungsbiologe Konrad Basler, der vor einigen Jahren in der PLoS Biology-Rubrik „Unsolved Mysteries“ für alle Kollegen eine umfassende Arbeitshypothese zur Evolution des Hedgehog-Signalwegs samt einer ganzen Reihe abgeleiteter und testbarer Vorhersagen vorgestellt hat (Bd. 7(6): e1000146).

Keine Frage, sind es Momente wie die letzteren, in denen deutlich wird, dass das Hypothesen­aufstellen tatsächlich das Herzstück der Wissenschaft ausmacht.

Ralf Neumann

(Zeichnung: Peter Kapper)

 

Zum Tod von Sydney Brenner

9. April 2019 von Laborjournal

Am 5. April starb im Alter von 92 Jahren Sydney Brenner, einer der großen Pioniere der Molekularbiologie. Einige Monate, bevor Brenner Ende 2002 den Nobelpreis erhalten sollte, sprach unser Chefredakteur während eines Fest-Symposiums am Biozentrum Basel ausgiebig mit ihm. Das Gespräch veröffentlichten wir schließlich in unserer Ausgabe 4/2002.

Wir bringen dieses Gespräch hier 17 Jahre später nochmals online. Zum einen, weil es einen äußerst „lebendigen“ Eindruck von einem der sicherlich schärfsten und originellsten Denker der jüngeren Biologie-Geschichte vermittelt. Zum anderen aber auch, weil es als eine Art Zeit-Dokument illustriert, wie kontrovers die Forschergemeinde damals noch dem laufenden Humangenomprojekt sowie der Transformation ins „Omics“-Zeitalter gegenüber stand.

Hier also als kein Nachruf, sondern Sydney Brenner selbst als „Einsame Stimme aus der Prägenomik-Ära“ (Für das gesamte Gespräch bitte auf das Bild unten klicken!)…

 

Zeigt her eure Ideen!

28. März 2019 von Laborjournal

Was macht einen guten Forscher generell aus? Mal ganz plakativ: Er sollte offene Probleme erkennen, die richtigen Fragen sowie plausible Hypothesen dazu formulieren — und insbesondere Ideen generieren, wie man dieHypothesen und Fragen auf elegante Weise testen und beantworten könnte.

Das Dumme dabei ist: Jemand, der wirklich gut in alledem ist, wird viel mehr Ideen produzieren, als er tatsächlich in konkreten Projekten verfolgen — geschweige denn zur „Erkenntnisreife“ bringen kann. Das ist die Kehrseite der immer engeren, zugleich aber immer aufwendigeren Spezialisierung der letzten Jahrzehnte. (Nicht umsonst kursiert zu diesem Dilemma schon lange der Spruch: „Wir erfahren immer mehr über immer weniger — und das wiederum mit immer höherem Aufwand.“)

Nehmen wir etwa Max Perutz, der bekanntlich die allermeiste Zeit seines Forscherlebens ausschließlich — und sehr erfolgreich — an Hämoglobin arbeitete. Glaubt jemand tatsächlich, dieser brillante Forscher hätte nur gute „Hämoglobin-Ideen“ gehabt? Sicher nicht. Die meisten davon hat er jedoch nicht weiter verfolgen können, weil sein Hämoglobin-Projekt schon sämtliche finanziellen, technischen und personellen Ressourcen komplett beanspruchte. Also wird Perutz die große Mehrheit seiner guten Ideen wie Sand zwischen den Fingern zerronnen sein — sofern er nicht mit der einen oder anderen davon jemand anderen anstecken konnte.

Und so wird es womöglich auch heute vielen gehen. Sie werden selbst erfahren haben, dass nur wenige ihrer initialen Ideen am Ende tatsächlich in ein Projektmünden — weil es unter den Zwängen des aktuellen Systems „gerade einfach nicht realisierbar ist“. Schade eigentlich! Und nicht auszudenken, wie viele überaus fruchtbare Körner da heranwachsen, die dann doch unbemerkt vertrocknen.

Der US-Physiker David Harris sah es vor vier Jahren offenbar genauso, als er sagte: „Gute Wissenschaftler haben in der Regel viel mehr Ideen, als sie verwerten können. Es wäre besser, wenn sie diese mit anderen teilen könnten.“ Zu eben diesem Zweck gründete er 2015 das Journal of Brief Ideas. „Citable ideas in fewer than 200 words“ sollte man dort wenigstens zur Diskussion stellen können.

Sicher keine schlechte Idee. Leider scheint es, als hätte sie bis heute nicht wirklich gezündet. Oder vielleicht doch? Woanders und auf andere Weise?

Ralf Neumann

Grafik: iStock / kutubQ

Die Crux mit dem Projekt

7. Februar 2019 von Laborjournal

Wer Geld für seine Forschung haben will, muss einen Projektantrag stellen. Sicher, wenn es ein bisschen größer sein soll, heißt das Ganze auch mal „Programm“ oder „Initiative“. Aber woraus setzen sich diese in aller Regel zusammen? Genau, aus lauter Einzel-Projekten! Schon lange ist Forschung auf diese Weise nahezu ausschließlich in Projekten organisiert. Das Projekt ist die Keimzelle einer jeden Forschungsförderung.

Paradox ist das schon. Denn zumindest in der reinen Grundlagenforschung kann nur „projektiert“ werden, was noch unbekannt ist. Andernfalls wäre es keine. Oder anders gesagt: Sonst wäre das Projekt kein Forschungsprojekt. Zugleich muss das Unbekannte aber bekannt genug sein, um ein Forschungsvorhaben überhaupt in Form eines Projektes organisieren zu können. Schließlich lässt sich nur mit einem hinreichenden Maß an Bekanntem vorweg eine klare Forschungsplanung hinsichtlich Zielvorgaben, zeitlichem Ablaufen, finanzieller und personeller Ressourcen et cetera entwerfen. Dummerweise gilt aber ohne solch einen klaren Plan nix als Projekt — und wird auch nicht gefördert.

Es passt also nicht wirklich zusammen: Das Ideal von Forschung als offener, durch reine Neugier gelenkter Prozess einerseits — und die Projektierung von Forschung andererseits. Zumal in der Forschung auch anfängliche Zielvorgaben schnell und flexibel umformuliert werden können müssen, wie auch ein beträchtliches Risiko zu scheitern bewusst eingeschlossen ist.

Für ein Projekt dagegen ist das Vorwegnehmen von offensichtlich Neuem zu Beginn eines Prozesses unvermeidbar. Der Vorstellung von Wissenschaft als Prozess fortlaufender Entdeckungen widerspricht dies jedoch fundamental. In Projekten kann man naturgemäß nicht einfach nur von irgendwelchen Prämissen ausgehen — und dann durch fortlaufende Exploration schauen, was daraus wird. Ebenso wenig, wie sich Änderungen leicht hinnehmen lassen. Wie könnten Projekte sonst auf die ihnen innewohnende Art alle möglichen Unsicherheiten minimieren?

Daher stellen sich zwei Fragen: Wie kann man etwas vorweg bestimmen, das man gerade durch die Forschungstätigkeit entdecken will? Und welche Art Wissenschaft könnte überhaupt projektierbar sein? Letzteres mag funktionieren, wenn man ganz konkrete Fälle analysiert und auf jegliche Form der Generalisierung verzichtet. Forschung, die allerdings genau dieses Ziel verfolgt — nämlich ein generalisierendes Modell oder eine übergeordnete Theorie zu entwerfen —, ist in der Organisationsform „Projekt“ denkbar schlecht aufgehoben.

             Ralf Neumann

 

Zu spekulativ? — Na und!

17. Januar 2019 von Laborjournal

(Vor knapp vier Jahren erschien der folgende Text in unserer Print-Kolumne „Inkubiert“. Wir finden, er hat eine neuerliche Diskussion verdient.)

Zu den zentralen Aufgaben wissenschaftlichen Arbeitens gehört es, Modelle und Theorien zu entwickeln. So sollte man jedenfalls meinen.

Die Realität jedoch sieht anders aus. Seitdem Forschung zunehmend projektorientiert stattfindet und sich über Publikationsmetriken definiert, scheint „Theoriearbeit“ nicht mehr angesagt. Vor einiger Zeit bilanzierte etwa eine Studie zu exakt diesem Thema, dass von 500 untersuchten Forschungs­projekten nur etwa zehn Prozent „genuine Theoriearbeit“ beinhalteten. Der gewaltige Rest beschränkte sich laut den Autoren  größtenteils auf die punktuelle Analyse eines konkreten Falles und verzichtete schon im Ansatz auf jegliche Form der Generalisierung.

Welche Art Forschung auf diese Art herauskommt, ist klar: Überschaubare Projekte, die fest auf bekannten Theorien fußen und daraus abgeleitete Fragen mit bekannten Methoden bearbeiten — Forschung mit eingebauter Ergebnisgarantie, bei gleichsam dürftigem Erkenntnispotenzial.

Aber sollte Forschung nicht eigentlich Türen ins Unbekannte aufstoßen? Augenscheinlich muss man es sich wirklich wieder neu in Erinnerung rufen. Denn offenbar scheint der Löwenanteil aktueller Forschungsprojekte nicht wirklich daraufhin angelegt. Was natürlich auch dadurch unterstützt wird, dass das Klima gerade generell von einer Theorie-feindlichen Großwetterlage geprägt wird. Denn was passiert beispielsweise, wenn sich doch mal jemand traut, in einem Manuskript über den Tellerrand zu blicken und aus den vorgestellten Daten ein generalisierendes Modell entwickelt? Die Chance ist groß, mit der Totschlag-Floskel „zu spekulativ“ wieder zurück auf Start geschickt zu werden.

Doch warum ist „spekulativ“ heutzutage derart negativ besetzt? Natürlich sind Modelle und Theorien spekulativ — was denn sonst? Es wird ja auch kaum einer von Vorneherein behaupten, sein Modell sei korrekt. Weil Modelle und Theorien allenfalls nützlich sein können, das Unbekannte weiter zu entschlüsseln. Ganz in dem Sinne, wie Sydney Brenner es vor einiger Zeit formulierte:

„Die Hauptsache ist, sich mit Möglichkeiten befassen zu können. Dinge einfach auszusprechen, auch wenn sie falsch sein mögen. Indem ich sie ausspreche, kann ich besser erkennen, was daran falsch sein könnte. Und das kann wiederum zu einer robusteren Idee führen. Letztlich geht es also darum, die Dinge nicht zurückzuhalten.“

Oder vorschnell als „zu spekulativ“ abzuqualifizieren.

 

Fehlermeldungen

29. Oktober 2018 von Laborjournal

(Im Zusammenhang mit den „Vertrackten Artefakten“ [siehe letzter Post unten] fiel uns ein, dass wir bereits vor knapp zwei Jahren das unten folgende Online-Editorial zu diesem Thema gebracht hatten. Allerdings ging es darin weniger um die beiden geschilderten Artefakte an sich, als vielmehr darum, wie unterschiedlich die Folgen für die Betroffenen sein können, wenn sie aus Unwissenheit darauf reinfallen…)

 

Aus Fehlern lernt man, heißt es. Doch gilt das auch in der Forschung? Hat der immer engere Wettbewerb um Stellen und Fördermittel nicht mittlerweile dafür gesorgt, dass das Forschungsgeschäft mit Fehlern ziemlich gnadenlos umgeht? Auch weil jede kleine Nachlässigkeit oder Schlamperei der wachsamen Kon­kurrenz potentielle und willkommene Angriffs­flä­chen bietet? Und wenn ja: Muss ein solcher „Geist“ nicht vor allem auf Kosten des wissenschaftlichen Nachwuchses gehen, der ja auch — vielleicht sogar gerade — durch Fehler lernen sollte?

Nehmen wir etwa den jungen Doktoranden M. Dieser versuchte vor einiger Zeit ein bestimmtes Membranprotein zu isolieren — und hatte offenbar Erfolg: Nach monatelanger „Putzerei“ präsentierte er in der entscheidenden Bahn des Proteingels eine Bande — und sonst keine. Chef und Doktorand zweifelten nicht: Das musste es sein. Zumal nach der heiligen Regel „n  3“ dieselbe Bande auch in den folgenden Wiederho­lun­gen zuverlässig übrig blieb.

Chef und Doktorand schrieben also ein Paper. Es wurde begutachtet und schließlich publiziert. Was dummerweise weder Doktorand noch Chef oder Gutachter wussten (letztere waren wohl schon zu lange „weg von der Bench“), fiel erfahrenen Proteinfärbern sofort auf: Die Bande entsprach exakt dem 68 kDa-Artefakt, das man oft nach Mercaptoethanol-Behandlung der Proteinprobe erhält.

Nur zwei Monate nach dessen Erscheinen zerpflückte Chefs Erzrivale das Paper in einer „Correspondence“ mit klarem Artefakt-Beweis. Frustriert und voller Scham schmiss M. seine Doktorarbeit hin.

Bei aller Härte am Ende doch gut für die Wissenschaft? Vielleicht.

Allerdings geht es auch ganz anders — wie das Beispiel der Doktorandin K. beweist, der einst ganz Ähnliches widerfuhr. Diese fiel auf ein Artefakt herein, das Ungeübten oft bei der Aufnahme neuronaler Signale mit Multielektrodenarrays droht. Und auch sie hatte ihre Ergebnisse frisch publiziert. Kurz darauf meldete sich einer der „Großkönige“ der neuronalen Ableitung telefonisch bei K.: „Gratuliere zum Paper. Allerdings scheint mir ein Schlüsselbefund nicht zu stimmen. Ich habe meinen Postdoc das Experiment nachmachen lassen — und er meint, Du hättest bei der Elektrodenmessung was vergessen…“

Sein Postdoc wiederum habe jedoch Wichtigeres zu tun, erklärte er weiter — weshalb es besser sei, wenn K. ihren Fehler selbst nachweisen würde. Anschließend weihte der Anrufer K. noch in einige weitere Geheimnisse und Fallstricke bei der Arbeit mit den entsprechenden Elektroden ein und skizzierte überdies noch, wie sie die „Richtigstellung“ seiner Meinung nach am geschicktesten angehen könne.

K. tat wie vorgeschlagen und veröffentlichte bald darauf die „Correction“ ihres eigenen Papers. Heute, über zwanzig Jahre später, gilt sie als herausragende Forscherin in ihrem Feld.

Wer weiß, so weit hätte M. womöglich auch kommen können…

Ralf Neumann

(Anmerkung: Die beiden Beispiele von K. und M. haben sich zwar nicht ganz genau so abgespielt, wie hier beschrieben — aber prinzipiell doch sehr ähnlich.)

x

Vertrackte Artefakte

23. Oktober 2018 von Laborjournal

Kommt jemandem das folgende Szenario bekannt vor? Man hat eine Idee, macht entsprechende Experimente — und findet in seiner Probe tatsächlich die vermutete Struktur oder Aktivität. Klar, jetzt muss der „Fund“ weiter analysiert werden. Das geht auch einige Zeit gut, bis eines Tages das Reagenz X für die Probenvorbereitung ausgeht. Aus Kostengründen bestellt man dieses jetzt bei einem anderen Hersteller — und plötzlich ist alles weg.

Genau so eine Pleite erlebte ich vor langer Zeit. Konkret ging das damals so:

In Membranfraktionen von Keimlings-Sprossachsen hatte ich eine starke Bindeaktivität für das Pflanzenhormon Auxin aufgespürt. Das Signal im Zähler war eindeutig und kam zuverlässig mit jeder neuen Membranpräparation. Klar, das musste ein Auxin-Rezeptor sein. Also nichts wie ran und ihn reinigen!

Sofort lief alles nach Plan. Innerhalb kurzer Zeit hatte ich das vermeintliche „Bindeprotein“ aus der Membranfraktion isoliert und konnte die Auxin-Bindung auch in Lösung messen. Dabei störte mich auch anfangs nicht, dass die In-vitro-Bindung nur auftrat, wenn sich eine kleine Menge des Detergens Octyl-ß-D-glucosid im Inkubationsansatz befand. Schließlich sind Detergenzien zur Solubilisierung von Membranproteinen sowie deren Stabilisierung in Pufferlösung notwendig.

Als mein Detergens-Fläschchen fast leer war, bestellte ich den Nachschub diesmal billiger bei Sigma — und nicht wie zuvor bei Biomol. Und mit Sigma war die Bindeaktivität von einem Tag auf den anderen wie weggeblasen.

Es war offensichtlich: Der Wechsel des Detergens-Fläschchens ließ die schöne Bindeaktivität einfach verschwinden. Hatte ich tatsächlich monatelang mit einem Artefakt gearbeitet? Oder steckte doch eine angenehmere Erklärung dahinter?

Leider nicht. In mühsamer Kleinarbeit fügte ich die Mosaiksteinchen zusammen, und am Ende ergab sich das Bild eines fast schon kunstvollen Artefakts:

Das gereinigte “Bindeprotein” entpuppte sich als Peroxidase, die mit der Membranfraktion mitgereinigt wurde. Peroxidasen oxidieren in vitro nahezu alles, was nur irgendwie oxidierbar ist — so auch Auxin. Dabei entstehen als Zwischenprodukt hochreaktive Auxin-Radikale, die wiederum mit allem Möglichen Komplexe bilden können — beispielsweise auch mit Tensiden. Nun benutzen die Hersteller von Laborchemikalien häufig gewisse Tenside zur Reinigung der Laborgefäße vor ihrer Befüllung. Und tatsächlich konnte ich mit dem alten Fläschchen von Biomol nachweisen, dass es neben dem Detergens auch Reste dieser Reinigungs-Tenside enthielt.

Es waren also nicht Rezeptor und Ligand, die mich eine Bindung messen ließen, sondern Komplexe aus Auxin-Radikalen mit Tensiden. In meinen Experimenten täuschten sie eine Bindeaktivität vor, da die Bildung der Artefakt-Komplexe von der enzymatischen Umsetzung des Auxins durch die Peroxidase abhängig war. Kinetik und Sättigung sahen daher im Test wie die spezifische Bindung von Auxin an ein Rezeptorprotein aus.

Ziemlich frustrierend, wenn man monatelang glaubt, einer größeren Entdeckung auf der Spur zu sein — und dann auf diese Weise umso härter auf der Schnauze landet. Dabei gehören Artefakte zum Laboralltag wie Stechmücken zu lauen Sommerabenden. Dennoch spricht kaum jemand darüber, wälzt die dubiosen Gelbanden, merkwürdigen Sequenzen und sonderbaren Markersignale lieber in schlaflosen Nächten weiter durch den Kopf.

Sicher, die Kollegen mögen erstmal schmunzeln — oftmals eher hämisch als mitfühlend. Aber aufgeschrieben und gesammelt könnten mit solchen „Artefakt-Alarmen“ wichtige Erfahrungen an Laboranfänger weitergegeben werden. Wer weiß denn etwa schon, mit welchen Assays die oben geschilderten Reinigungs-Tenside womöglich noch interagieren? Teilt uns deshalb die kniffeligsten „Holzwege“ eures Forscherlebens mit, bevor auch andere sich dort schmerzhafte Splitter einfangen — entweder gleich hier im Blog oder via E-Mail an redaktion@laborjournal.de. Und wer dabei überdies nicht mit Sarkasmus und Selbstironie spart, dem spendiert die Redaktion womöglich einen Magenbitter…

Ralf Neumann

Foto: Fotolia / Schmutzler-Schaub

Von Daten, die in Schubladen verstauben

17. September 2018 von Laborjournal

Haben Sie auch noch jede Menge Daten in der sprichwörtlichen Schublade liegen? Daten, die schon lange eine nette, kleine „Story“ ergeben würden — wenn man sie nur mal in Manuskriptform bringen würde?

Wie bitte, in Ihrer Schublade schlummert Stoff für mehrere solcher kleinen, aber feinen Manuskripte? Oder in ihrem Regal?…

Keine Angst, Sie sind nicht allein.

Schon vor einiger Zeit stellte eine englische Forscherin den Kollegen in ihrem (leider nicht mehr existenten) Blog im Prinzip dieselbe Frage: „Stellt Euch vor, ihr bekommt keine Fördergelder mehr und könnt Euch einzig darauf konzentrieren, alle vorhandenen Daten zusammenzuschreiben — für wie lange hättet Ihr noch „Stoff“?“ Und sie meinte damit nicht das Umschreiben bereits eingereichter Manuskripte; es ging ihr vielmehr um die vielen, praktisch publikationssreif abgeschlossenen (Seiten-)Projekte, die bislang dennoch nie wirklich oben auf dem Schreibtisch gelandet waren.

Heraus kam, dass dieses Phänomen den meisten Forschern, die schon länger im Geschäft sind, offenbar wohlbekannt ist: Die Mehrzahl der Antworten lag zwischen drei und fünf Jahren.

Drei bis fünf Jahre lang könnte der Durchschnitts-Seniorforscher also noch Manuskripte schreiben — allein mit den Daten, die er längst schon hat. Da er diese Zeit aber beileibe nicht nur mit Paperschreiben verbringen kann, werden wohl jede Menge dieser interessanten kleinen (und hin und wieder vielleicht sogar großen) Geschichten niemals veröffentlicht. „Survival of the fittest results“ nennt die Autorin das treffend.

Woher aber kommt der entsprechende Selektionsdruck? Wohl daher, dass das Publikations-dominierte Belohnungssystem dem Forscher die folgende Zwickmühle beschert hat: Will er seinen Job gut machen, sollte er stets seine Resultate sorgfältig prüfen, hart nach alternativen Erklärungen fahnden und sie immer mit der aktuellen Literatur abgleichen. Das allerdings kostet Zeit. Wenn Forscher X aber zu viel Zeit mit diesen Dingen „vertrödelt“, riskiert er, als unproduktiv abgestempelt zu werden. Und dann kann es schnell schwer werden, weiterhin Fördergelder zu bekommen.

Also bunkert Forscher X das weniger dringende Material in der Schublade und schreibt lieber erstmal den nächsten Antrag — nicht zuletzt auch, um das Hauptprojekt der Gruppe weiter am Laufen zu halten. Wird dieser dann bewilligt, muss er natürlich umgehend die beantragten Projekte auch machen. Mit den resultierenden Daten muss er gleich wieder Paper schreiben, damit er frische Argumente für den nächsten Folgeantrag hat… — und so geht das Spiel in die nächste Runde

Und während diese Mühle unerbittlich weiter läuft, versinkt das, was er in der Schublade bunkert, tiefer und tiefer im Staub.

Wer weiß, wie viele kleine Schätze mit etwas weniger Antragsdruck von dort geborgen werden könnten..

Ralf Neumann

Foto: iStock / Paperkites

x

Schuldige Smartphones — oder doch nicht?

5. September 2018 von Laborjournal

(UPDATE VOM 7.9.2018: Über das Pressereferat des Leibniz-Instituts für Arbeitsforschung an der TU Dortmund, wo die unten referierte Studie entstand, erreichte uns eine Mail, in der die Autoren unter anderem „fehlgeleitete Interpretationen und Rück­schlüsse“ in unserem Blog-Artikel kritisieren. Wir haben den Text der Mail daher unmittelbar hinter dem ursprünglichen Blog-Beitrag eingefügt, damit sich die Leser ihr eigenes Bild machen können.)

x

Offenbar kann man es nicht oft genug betonen: Wenn das vorausgehende Phänomen A mit Phänomen B korreliert, dann muss A noch lange nicht die Ursache für B sein. Das alte Dilemma zwischen Korrelation und Kausalität.

Wie irreführend es sein kann, wenn man hier nicht sauber trennt, zeigt gerade ein frisches Paper von Dortmunder Arbeitspsychologen mit dem Bandwurm-Titel „Protect Your Sleep When Work is Calling: How Work-Related Smartphone Use During Non-Work Time and Sleep Quality Impact Next-Day Self-Control Processes at Work“ (Int. J. Environ. Res. Public Health 2018, 15(8)).

Was sagt der Titel? Dass Arbeiten mit dem Smartphone nach Feierabend — also E-Mails checken, Kunden anrufen, „schnell“ nach irgendwelchen Infos surfen,… — und die Qualität des Nachtschlafs die Performance am nächsten Arbeitstag mitbestimmen. Letzteres ist eigentlich trivial: Ein jeder weiß wohl selbst, dass ihm die Arbeit schwerer fällt und er mehr Fehler macht sowie schneller erschöpft ist, wenn er sich in der Nacht davor allzu lange schlaflos im Bett gewälzt hat. Und Smartphones die Schuld für irgendwelche negative Performance zu geben, ist sowieso gerade en vogue.

Doch sind die Smartphones wirklich kausal „schuld“? Diesen Beitrag weiterlesen »

Info
Info
Info

Info

Info

Erfahren Sie mehr über unsere beliebtesten Produkte unter mehr

Info

Info

INTEGRA Biosciences bietet Ihnen die Chance, ein VACUSAFE-Absaugsystem für Ihr Labor zu gewinnen. mehr