Nur nicht zu viel riskieren

4. Mai 2018 von Laborjournal

Damit die Karriere nicht stockt, brauchen Postdocs und End-Doktoranden zwingend Paper. Und für Paper brauchen sie Ergebnisse.

Sichere Ergebnisse liefern jedoch in aller Regel nur risikoarme Projekte. Risikoarm insofern, als dass gewisse Vorarbeiten schon gezeigt haben, dass das Projekt solide ist und die nächsten Ergebnisse nur darauf warten, hinter der nächsten Ecke abgeholt zu werden.

Ob das dann noch aufregende Ergebnisse sind, ist eine andere Frage. Denn die erhält man in aller Regel, wenn man eben nicht nur hinter die nächste Ecke schaut — sondern sich eher auf Reisen weit über den Horizont hinaus begibt. Was einen dort genau erwartet, weiß man nicht und ist demnach hochgradig unsicher — schließlich ist es ja gerade das Unbekannte, das man erforschen will. Logisch daher, dass das Risiko, am Ende mit leeren Händen dazustehen, nicht gerade klein ist.

Die erwähnten Postdocs und End-Doktoranden können es meist kaum eingehen. Doch wer testet dann wirklich neue Ideen mit entsprechend hohem Fehlschlag-Risiko? Wem ist nicht gleich die Karriere versaut, wenn die Projektidee letztlich in einen „Satz mit X“ mündet? Wer braucht (noch) nicht die ganz runde Story?

Richtig, die „Anfänger“ — Bachelor/Master-Studenten und vielleicht mancher Doktoranden-Frischling.

Ob das aber der Sache gerecht wird? Denn nach welchem Schema das Neue-Ideen-Testen dann ablaufen kann, erzählte uns ein Gruppenleiter vor einiger Zeit an folgendem, selbst erlebten Beispiel…

Demnach erhielt Bachelor A im vierten Anlauf endlich ein halbwegs aussagekräftiges Basisergebnis; die nächsten zwei Mal scheiterte er wieder — danach verließ er das Labor. Später berichtete Master B, er habe zwei von sechs Mal ein positives Ergebnis erhalten und schrieb das auch in seiner Arbeit. Allerdings fiel den Kollegen daraufhin ein, dass niemand ihn derart oft an den Geräten gesehen hatte. Von der Gewissheit, ob die Idee was taugt und ein „richtiges“ Projekt mit vernünftigem Ergebnispotenzial tragen könnte, war man also weiterhin weit entfernt.

In den Händen des etwas erfahreneren Doktoranden C lieferte das vermeintliche Kernexperiment sofort ein positives Ergebnis. Allerdings konnte er es danach mehrere Male nicht wieder bestätigen — bis ihm Kollegin D beichtete, dass sie vor Wochen das empfindliche Schlüssel-Reagenz Z tagelang aufgetaut auf ihrer Laborbank vergessen hatte. Mit frischem Reagenz Z reproduzierte C sein Startergebnis zwar sofort wieder; allerdings verließ er das Labor zwei Wochen später überraschend zugunsten eines Bioinformatik-Jobs in der Industrie, ohne dass er die Ergebnisse je abschließend aufgeschrieben hatte.

Dennoch hielt der Chef den Basisbefund jetzt von A bis C für ausreichend solide belegt — und übergab „das Projekt“ einem neuen Postdoc. Ein knappes Jahr kam er wegen ungeahnter Schwierigkeiten mehr schlecht als recht voran — bis er schließlich befürchten musste, auf dem „Projekt“ nicht rechtzeitig die notwendigen Veröffentlichungen für den nächsten Antrag zusammenzubekommen. Also schmiss er es hin und wechselte aus „Karrieregründen“ doch wieder auf ein sicheres „Just around the Corner“-Projekt.

Nur ein Beispiel, wie schwer das derzeitige System das robuste Testen von wirklich neuen Ideen macht. Es gibt sicher noch mehr.

(Illustr.: Fotolia / pict rider)

Laborjournal auf der Analytica (2)

10. April 2018 von Laborjournal

Tag 1 – Dienstag

Morgens noch getrübter Messe-Blick durch ungeputzte Hotelfenster.

 

 

 

 

 

 

 

 

Dann: Ran an den Stand

 

Die ersten Besucher. Der erste Test für das selbstgebastelte Autoball-Spiel.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Test bestanden. Spaßfaktor laut Mitspielern 9,5 von 10 Punkten.
Willkommen in der Laborjournal-Arena

Zellen sind schlampig

27. März 2018 von Laborjournal

Wenn man sich als Fachmagazin für biologisch-medizinische Forschung etabliert, bleibt es nicht aus, dass man bisweilen auch fachliche Fragen gestellt bekommt. Und die sind manchmal gar nicht ohne. Vor allem, weil man ja offenbar deswegen gefragt wird, da „Freund Google“ keine schnelle Antwort liefert.

Ganz in diesem Sinne fanden wir vor Kurzem etwa folgende Frage in unserer Redaktions-E-Mail:

Liebe Redaktion,

mein Sohn lernt in der Schule gerade Translation und genetischen Code. Dies habe ich zum Anlass genommen, mit ihm das Rätsel „Kennen Sie den? Der übergangene Code-Knacker“, LJ 5/2017, anzuschauen. Das hat uns auf folgende Frage gebracht:

Wieso funktioniert die Translation in einem zellfreien System auch ohne Startcodon?

Tja. Tatsächlich findet man bei „Freund Google“ und auch sonst so gut wie überall, dass in der mRNA nach einer untranslatierten Leader-Sequenz zwingend das Start-Codon AUG kommen muss, damit das Ribosom sie richtig binden und im korrekten Leseraster mit der Translation beginnen kann. Gute Frage also, wie das im erwähnten Rätsel angesprochene Poly-U-Experiment, mit dem Heinrich Matthaei im Labor von Marshall Nirenberg das Triplett-Prinzip des genetischen Codes entschlüsselte, überhaupt funktionieren konnte. Schließlich gab Matthaei lediglich blitzeblanke Poly-U-RNA-Stränge zur Translation in das ansonsten Zell- und mRNA-freie E. coli-Extrakt — von Startcodons nicht der Hauch einer Spur. Wie konnten ihm danach dann trotzdem fix und fertig translatierte Poly-Phenylalanin-Ketten im Filter hängenbleiben — ganz wie es das Phenylalanin-Triplett UUU vorsieht?

Es dauerte ein Telefonat und noch ein klein wenig länger, bis unser Chefredakteur folgende Antwort zurückmailen konnte:

Biologische Prozesse sind eigentlich immer etwas „fuzzy“ und funktionieren nie hundertprozentig schwarz oder weiß! Das heiß im konkreten Fall, dass die Ribosomen auch RNAs ohne Startcodon transkribieren können — allerdings mit viel schlechterer Affinität und Effizienz. In der Zelle kommt das praktisch nicht vor, da die RNAs mit Startcodon gnadenlos in der Überzahl sind und die Ribosomen aufgrund ihrer starken Affinität immer wieder sofort neu besetzen. Die wenigen RNAs ohne Startcodon sind da völlig chancenlos.

Im Poly U-Experiment von Matthaei dagegen waren überhaupt keine RNAs mit Startcodon vorhanden, dafür aber ein riesiger, völlig unphysiologischer Überschuss an homogener Poly U-RNA. Daher konnten die Ribosomen am Ende trotz der geringeren Affinität aufgrund der fehlenden Konkurrenz durch andere RNAs genügend Poly U-RNA transkribieren — jedenfalls genug, dass Matthaei damit das Triplett-Codon UUU für Phenylalanin nachweisen konnte.

Zudem spielten auch die gegenüber der intakten Zelle stark veränderten physiologischen Bedingungen in Matthaeis Test eine gewisse Rolle — vor allem die Magnesium-Konzentration. Dazu mehr hier: https://tinyurl.com/yalvbdt4.

Ein klein wenig konnte „Freund Google“ am Ende also doch helfen.

Dennoch muss man sich wundern, dass dieses durchaus wichtige „Startcodon-Problem“ bei all den vielen Beschreibungen des Poly-U-Experiments praktisch völlig außer Acht gelassen wird. Zumal man ja mit der „Fuzziness“ — oder auf deutsch: Schlampigkeit — der Translation noch etwas ganz Generelles über biochemische und zellbiologische Prozesse in der Zelle lernen kann.

x

Verstehen wir uns noch?

9. Januar 2018 von Laborjournal

Denn sie wissen nicht, was sie tun. — Viele dürfte diese Zeile unmittelbar an den gleichnamigen Filmklassiker mit James Dean erinnern. Heute könnte sie jedoch auch für einen großen Teil biomedizinischer Forschung gelten.

Wobei man hier ein klein wenig wie folgt präzisieren müsste: „Denn sie wissen nicht mehr, was der andere tut.“ Bittere Konsequenz dessen, dass in vielen Gebieten die einzelnen Veröffentlichungen immer komplexer werden.

Ein besonders eindrückliches Beispiel dafür schilderte kürzlich Dorothy Bishop von der Oxford University in ihrem „BishopBlog“. In dem entsprechenden Beitrag klagt sie, dass sie die Publika­tionen ihrer Kollegen immer weniger versteht, sobald sie auch nur ein klein wenig über ihren eigenen Tellerrand hinausschaut. Sie schreibt:

Für eine Art Meta-Analyse über die Anwendung bestimmter statistischer Methoden studierte ich zuletzt eine Reihe von neurowissenschaftlichen Artikeln“, schreibt sie. „Einige davon musste ich stundenlang lesen und wieder lesen, bis ich endlich verstan­den hatte, welches überhaupt die statistisch relevantesten Ergebnisse waren.

Und dann schwenkt sie auf den eigentlich beunruhigenden Punkt um:

Mir scheint daher, dass in manchen Feldern die Zahl der Kollegen, die derart komplexe Paper überhaupt noch umfassend und kompetent begutachten können, extrem zusammenschnurrt.

Selbst gute und engagierte Editoren würden daher irgendwann kaum noch Reviewer mit voll­um­fäng­lich ausreichender Expertise auftreiben können. Und umgekehrt würde es den meisten immer stärker widerstreben, solch hochkomplexe Studien zu prüfen, wenn sie derart viel Substanz jenseits der eigenen Expertise enthalten.

Und Frau Bishop ist mit solchen Befürchtungen keineswegs allein. Bereits 2013 fragte Diethard Tautz, Direktor am Plöner Max-Planck-Institut für Evolutionsbiologie, in einem Essay für Labor­journal:

Lesen wir noch, was andere schreiben? Ja, verstehen wir uns überhaupt noch?

Und er erzählte folgendes Beispiel:

Ich musste kürzlich so ein „Big Data“-Paper für ein angesehenes Journal begutachten. Es hatte 60 Autoren und präsentierte ein Feuerwerk an intelligenten Auswertungen, Statistiken und Modellierungen. Etwas seltsam war der modulare Aufbau. Die einzelnen Teile des Papers waren offensichtlich von unterschiedlichen Autoren geschrieben worden, jeder ein Spezialist für sein Feld mit einem eigenen Sprachstil und wenig Bezug zu den anderen Modulen. An ein paar ‚Kleinigkeiten‘ wie fehlenden Übergängen und unvollständigen Sätzen war zu erkennen, dass die meisten der Autoren offen­sicht­lich ihr eigenes Paper nicht vollständig gelesen haben konnten — denn zumindest einem von den 60 hätte so etwas doch auffallen müssen. Haben auch Autoren gar keine Zeit mehr zum Lesen oder ist das der Beginn der Sprachverwirrung? Auch als Gutachter konnte ich nur einen Teil kompetent begutachten, den Rest nur auf Plausibilität prüfen. Und ich vermute, dass es den anderen Gutachtern ebenso ging.

Und er schloss:

Natürlich wurde es publiziert — und ich darf annehmen, dass es so gut wie keinen Leser mehr gibt, der wirklich alles davon versteht. Wenn das so weiter geht, dann sind wir bald nahe an dem Punkt,… dass keiner des andern Sprache verstehe!

Wobei das letztere Zitat jetzt nicht aus der Filmwelt kommt.

Ralf Neumann

 

Von Interdisziplinarität und Pionieren

20. Juni 2017 von Laborjournal

Man könnte die Entschlüsselung der DNA-Struktur durch Watson und Crick durchaus als eine der ersten interdisziplinären Meisterleistungen der Wissenschaftsgeschichte werten: Ein Ornithologe und ein Physiker werteten Bilder von Kristallographen aus — und begründeten die Molekularbiologie.

Freilich hat das seinerzeit niemand so gesehen. Und gerade im Rückblick auf die damaligen Pioniertage würde heute wohl jeder Watson und Crick als Molekularbiologen bezeichnen.

Interessanterweise drängten gerade in dieser Zeit des molekularbiologischen Aufbruchs generell viele „Fachfremde“ in die Biologie — Physiker, Chemiker, Mathematiker,… Dennoch nahm damals kaum jemand das Wort „Interdisziplinarität“ in den Mund. Offenbar war nicht so wichtig, wo einen die jeweilige Ausbildung abgesetzt hatte — vielmehr zählte, wo einen die konkreten Fragen hintragen würden.

Und so erschlossen damals nicht nur Watson und Crick neue Felder. Vor allem auch deshalb, weil sie gerade als interdisziplinäre Köpfe in der Lage waren, ihre alten Disziplinen hinter sich zu lassen, um sich neuen Wegen zu öffnen — und sie auch tatsächlich zu gehen.

Nur logisch daher, dass man deren neue Erkenntnisse samt der damit eröffneten Felder dann auch ganz für sich selbst bewertete — und nicht nach der disziplinären Herkunft derer, denen man sie verdankte. Wie gesagt, ist die DNA-Struktur doch vor allem eine molekularbiologische Entdeckung, und nicht zwingend-logisches Resultat einer interdisziplinären Kooperation aus Physik, Ornithologie und Kristallographie.

Nicht zuletzt wegen solcher Beispiele schrieb der US-Biologe Sean Eddy vor einiger Zeit, dass neue Felder weniger durch interdisziplinäre Teambildung entstünden als vielmehr durch das Wirken „antedisziplinärer“ Pioniere. Siehe Watson und Crick.

Sicher, interdisziplinäre Team-Projekte sind wichtig — dies allerdings vor allem da, wo Antworten auf bisher unlösbare Fragen durch die Anwendung neu etablierter Techniken aus anderen Disziplinen realisierbar werden. Interdisziplinäre Projekte deshalb aber gleich zum Forschungsmodus Nummer eins zu erklären, wie dies Wissenschaftspolitiker heute allzu gerne tun, hieße jedoch, Vergangenes über die Zukunft zu stellen — und die Herkunft der Leute höher zu bewerten als ihre ganz konkrete Arbeit.

Klingt nicht wirklich nach einem Rezept für Pioniertaten.

Ralf Neumann

(Illustration: Flickr/Dullhunk)

Wie sich Photosynthese anhört

28. März 2017 von Laborjournal

Schon mal gehört, welche Laute Pflanzen bei Photosynthese machen?  Dann wird’s Zeit! Zoologen (!) der Universität Wien um Helmut Kratochvil starteten vor einiger Zeit mit einem Unterwassermikrophon einen Lauschangriff auf die Flora des Fischteichs Schönau in Niederösterreich — und konnten folgenden „Lärm“ aufzeichnen:

 

 

Hört sich an wie brutzelnder Speck in der Pfanne, oder?

Wie insbesondere die Geräuschmuster der Kanadischen Wasserpest (Elodea canadensis) entstehen und was sie generell den Photosynthese-Forschern sagen können, steht parallel in unserem heutigen Editorial auf Laborjournal online. Und natürlich in der frischen Originalveröffentlichung der Wiener (Scientific Reports 7, Article no. 44526)  — mit dem vielversprechenden Titel: Acoustic effects during photosynthesis of aquatic plants enable new research opportunities.

Allerdings: Tatsächlich hören — wie hier — kann man sie dort nicht.

x

Die Techniker verlangt Nicht-Wirksamkeitsnachweis von Homöopathie — und erntet einen Shitstorm

7. März 2017 von Laborjournal

Wenn jetzt jede Menge Leute der Techniker Krankenkasse (TK) den Rücken kehren würden — sie könnte sich kaum beschweren nach dem fürchterlichen Eigentor, das sie sich letzte Nacht mit dem folgenden Tweet geschossen hat:

 

 

Eigentlich haben wir ja eher Probleme mit sogenannten Shitstorms, aber denjenigen, den die TK damit umgehend auf Twitter erntete, hat sie sich wahrlich wohlverdient. Im folgenden ein paar Beispiele von vielen — fangen wir mit den eher „ernsthaften“ an:

x

x

xx

x

x

x

Und so weiter…

Die Frage nach der derart peinlich zur Schau gestellten Unwissenschaftlichkeit der TK muss einem tatsächlich Angst machen. Weswegen — wie gesagt — sich natürlich sofort einige Kunden Gedanken über einen Austritt machen:

x

x

x

xx

x

Und so weiter…

Nicht abwegig, dass einige damit tatsächlich ernst machen werden.

Wieder andere versuchen, das Kind beim Namen zu nennen. Und haben wohl auch damit keineswegs Unrecht:

x

xx


x
Und so weiter…

Tja — und wie wohl kaum anders zu erwarten, reagiert ein weiterer, sehr großer Teil mit Sarkasmus:…

x

x

x

x

x
x

x

Und so weiter…

Oder sie weisen auf das Paradox hin, dass etwa Brillen trotz nachgewiesener Wirksamkeit und großer Nachfrage nicht (!) von der TK et al. erstattet werden:

x

x

x

x

Und so weiter…

Heute morgen gegen halb Neun räumte die TK dann endlich ihren Mega-Fauxpas ein — ein bisschen patzig zwar, aber immerhin:

x x

Und fügte etwas später noch an:

x

x

Wobei jetzt schon sicher ist, dass mit dem Ergebnis dieses „Gesprächs“ die „Aufregung“ wohl kaum auf Null runtergefahren werden kann. Zu tief hat die TK das Kind im Brunnen versenkt — und sich daher den Schaden, die sie als Krankenkasse davontragen wird, leider redlich verdient.

Das einzig Schöne an der Affäre jedoch ist, wieviele Leute angesichts solch erschreckender Ignoranz mit dem Resultat schroffer Missachtung von faktenbasierter Wissenschaft sofort auf die Barrikaden gehen. Es ist zwar „nur“ ein Tweet einer Krankenkasse. Aber der reicht, dass einem angst und bange um unser Gesundheitssystem werden kann.

Die vielen krankenversicherten Twitterer dagegen machen einem Hoffnung, dass diese Angst am Ende unbegründet sein wird.

x

Warum nicht einfach verdünnen?

29. November 2016 von Laborjournal

Gerade entwickelte sich hier in der Redaktion eine ganz nette Diskussion…

Gestern hatte unsere Mitarbeiterin Juliet Merz auf Laborjournal online über den enorm hohen Salzgehalt im Blut der ach so flinken Galápagos-Meeresechsen aus der Art Amblyrhynchus cristatus berichtet. Darin schrieb sie unter anderem:

Die Autoren schätzen den Natriumgehalt im Blut der Reptilien sogar noch höher ein: Denn das verwendete Messgerät konnte nur eine maximale Konzentration von 180 mmol/L ermitteln — und bei 15 Tieren schlug die Messung an dieser Grenze an.

Daraufhin meinte Kollege Köppelle heute:

Äh… woher wissen die Forscher das denn? Der Wert dieser 15 Tiere könnte jeweils exakt 180 mmol/L betragen haben, oder 180,1 mmol/L, oder auch mal 180 und mal 190 und mal 500 oder auch dreitausend mmol/L … Letzteres natürlich eher nicht — aber wo man nichts messen kann, kann man auch nichts aussagen.

dilutionNa ja, das ist vielleicht etwas zu hart. Denn dass man den Natriumgehalt im Blut daher wohl tatsächlich noch etwas höher ansetzen muss, ist ja schon sehr plausibel. Niedriger jedenfalls ganz gewiss nicht.

Ich hatte in dieser Sache jedoch einen anderen Einwand:

Warum haben die nicht einfach verdünnt und das Ergebnis mit dem Verdünnungsfaktor wieder hochgerechnet? Lernt man doch im ersten Laborpraktikum, dass man Proben so verdünnen muss, dass die Konzentration des gewünschten Parameters in den Messbereich des Gerätes fällt…

Daraufhin Kollege Köppelle:

Stimmt, hätte man auch machen können. Jedenfalls ein Grund, nochmal nachzurecherchieren und den Artikel nachzubessern.

Gesagt, getan. Und tatsächlich steht bereits im Abstract des zitierten Original-Papers:

A notable finding was the unusually high blood sodium level; the mean value of 178 mg/dl is among the highest known for any reptile. This value is likely to be a conservative estimate because some samples exceeded the maximal value the iSTAT can detect.

Und in „Material und Methoden“ wird das Ganze folgendermaßen erklärt:

Bildschirmfoto 2016-11-29 um 13.14.59

Worauf Kollege Köppelle meinte:

Ah, das ist offenbar irgendsoein Cartridges-benutzendes Dingens:

https://www.abbottpointofcare.com/products-services/istat-handheld

Aber man muss zuvor per Hand das Blut in die Cartridge füllen.

Fazit: Die waren also bloß zu faul, nochmal ins Feld zu fahren, nochmal Blutproben zu nehmen und dann ohne ihr ach so praktisches MultiAutoTool im Labor die Werte „althergebracht“ zu analysieren!

Mein Einwand wiederum:

Wahrscheinlich hatten sie auf den Inseln nix dabei, um Blutproben einfrieren zu können. Allerdings kommen vier der acht Autoren von der „University San Francisco de Quito, Galápagos Science Center, Puerto Baquerizo Moreno, Galápagos, Ecuador“. Die dürften es also nicht allzu weit ins Labor gehabt haben…

Wie auch immer. Der Eindruck bleibt, dass man diese Messung durchaus genauer hätte machen können — wenn die Autoren nur gewollt hätten. Kollege Köppelle und ich waren uns jedenfalls einig, dass sie froh sein können, uns beide nicht als Gutachter bekommen zu haben … 😉

 

Plötzlich ist alles nur noch mittelmäßig…

16. November 2016 von Laborjournal

Kann es sein, dass die “Publish or Perish”-Regel einen geradezu zwingt, “suboptimale” Forschung zu machen? Auch wenn man es eigentlich gar nicht will?

Wie das passieren kann? Vielleicht etwa so:

Labor-0815Der Großteil an Personal- und Projektmitteln wird inzwischen bekanntermaßen befristet vergeben. Und die Fristen sind zuletzt ziemlich kurz geworden. Was folgt, ist auch bekannt: Doktoranden, Postdocs und alle anderen, die noch nicht am Ende der Karriereleiter angekommen sind, brauchen Veröffentlichungen, um es nach dem Ablauf der aktuellen Bewilligungsrunde hinüber in die nächste zu schaffen. Und auch was dies bewirkt, liegt auf der Hand: Der Ehrgeiz der angehenden bis fortgeschrittenen Jungforscher ist immer weniger darauf ausgerichtet, möglichst robuste und reproduzierbare Ergebnisse zu erhalten, sondern zunehmend darauf, so schnell wie möglich irgendwelche Veröffentlichungen zu produzieren.

Die Folge ist, dass im Schnitt die Anzahl niederklassiger und nicht-reproduzierbarer Ergebnisse zunimmt, während wirklich hervorragende Forschung in dem gleichen Tempo mehr und mehr schwindet.

Aber das ist nicht alles. Denn auch die Chefinnen und Bosse, die es eigentlich mal besser gelernt und praktiziert haben, werden selbst unmerklich zum Teil dieses Spiels — vor allem die, die sich tatsächlich um ihre Mitarbeiter sorgen. Denn was machen sie, um ihren Studenten und Mitarbeitern die schnellen Veröffentlichungen zu ermöglichen, die sie weiter in der Karriere-Spirale halten? Sie versorgen sie mit perfekt gestylten und risikoarmen Mainstream-Projekten, deren Ergebnisse quasi mitten auf dem Weg liegen — mit der Garantie baldiger und sicherer Publikationen…

Bis sie plötzlich merken, dass ihre Forschung auf diese Weise zu einem absolut vorhersehbaren und mittelmäßigen Geschäft heruntergekommen ist. Keine wirklich spannenden Ergebnisse mehr, keine überraschenden Einsichten oder wegweisende Innovationen — stattdessen nur noch das Hinzufügen kleiner Detailkrümel zu einem wohlbekannten Prozess hier oder zu einem bereits gut beschriebenen Phänomen dort.

Wie gesagt: Gewollt realisiert keiner solch ein Szenario…

Von Wissenschaft und Pfannen

21. Juli 2016 von Laborjournal

nonstickypanWorin unterscheidet sich die Wissenschaft von Pfannen? Zugegeben, der Kalauer mag an den Haaren herbeigezogen sein — aber sei‘s drum: Pfannen reinigen sich immer besser selbst, in der Wissenschaft dagegen…

Seit Jahrzehnten beschwören Forscher sie fast schon gebetsmühlenartig, die Selbstreinigungskraft der Wissenschaft — vor allem wenn es gilt, die Forschungsfreiheit als ihr höchstes Gut vor ungebetenem Regulierungseifer zu schützen. Schließlich habe man schon lange ein dreifaches Sicherheitsnetz gesponnen, um schlampige, schlechte oder gar unehrenhafte Forschung frühzeitig auszusortieren:

Netz Nummer eins bilden die Gutachter, die entscheiden, welche Forschung überhaupt Geld erhält. Ziemlich grobmaschig, zugegeben — aber allzu tumbes Zeug dürfte trotzdem darin hängenbleiben.

Netz Nummer zwei ist das Peer Review-System der Journale. Fachkundige Kollegen prüfen hierbei vor — und neuerdings auch immer öfter nach — einer Veröffentlichung peinlich genau, ob die im Manuskript beschriebene Forschung überhaupt wissenschaftlichen Standards genügt. So wenigstens das Ideal.

Wer nicht bereits in einem dieser beiden Netze zappelt, der sieht sich bald dem dritten gegenüber: der Replikation der Ergebnisse. Taugen diese was, so säen und ernten Kollegen nachfolgend weitere Resultate auf ihnen. Will auf deren Basis jedoch partout nichts mehr sprießen, so werden sie im Nachgriff oftmals selbst als fauliges Fundament enttarnt. Und stinkt dieses gar zu arg, zieht man die entsprechenden Paper zurück — und entsorgt deren Inhalt damit offiziell aus dem wissenschaftlichen Bewusstsein.

Immer öfter ist solches zuletzt geschehen. Irgendwer entdeckte plötzlich Widersprüche in den publizierten Daten, oder aber nachfolgende wollten einfach nicht dazu passen. Und da man den mitgeteilten Ergebnissen daher nicht mehr trauen konnte, zog man das betreffende Paper zurück.

Na also, funktioniert doch — könnte man meinen. Allerdings sind solche Arbeiten nicht selten bis zu ihrem Rückzug schon viele, viele Male zitiert worden, offenbar ohne dass jemand Verdacht geschöpft hatte. In einem solchen Fall versuchte ein Kollege kürzlich, diese Unstimmigkeit folgendermaßen zu begründen: „Frage und Techniken waren viel zu komplex, als dass bis dahin irgendjemand sonst die Ergebnisse in vollem Umfang hätte replizieren können.“

Nun ja, so weit kann es mit Pfannen nicht kommen — noch ein Unterschied.

Information 1


Information 2





Information 4


Information 5


Information Q2


Information 7


Information 8