Fehlermeldungen

29. Oktober 2018 von Laborjournal

(Im Zusammenhang mit den „Vertrackten Artefakten“ [siehe letzter Post unten] fiel uns ein, dass wir bereits vor knapp zwei Jahren das unten folgende Online-Editorial zu diesem Thema gebracht hatten. Allerdings ging es darin weniger um die beiden geschilderten Artefakte an sich, als vielmehr darum, wie unterschiedlich die Folgen für die Betroffenen sein können, wenn sie aus Unwissenheit darauf reinfallen…)

 

Aus Fehlern lernt man, heißt es. Doch gilt das auch in der Forschung? Hat der immer engere Wettbewerb um Stellen und Fördermittel nicht mittlerweile dafür gesorgt, dass das Forschungsgeschäft mit Fehlern ziemlich gnadenlos umgeht? Auch weil jede kleine Nachlässigkeit oder Schlamperei der wachsamen Kon­kurrenz potentielle und willkommene Angriffs­flä­chen bietet? Und wenn ja: Muss ein solcher „Geist“ nicht vor allem auf Kosten des wissenschaftlichen Nachwuchses gehen, der ja auch — vielleicht sogar gerade — durch Fehler lernen sollte?

Nehmen wir etwa den jungen Doktoranden M. Dieser versuchte vor einiger Zeit ein bestimmtes Membranprotein zu isolieren — und hatte offenbar Erfolg: Nach monatelanger „Putzerei“ präsentierte er in der entscheidenden Bahn des Proteingels eine Bande — und sonst keine. Chef und Doktorand zweifelten nicht: Das musste es sein. Zumal nach der heiligen Regel „n  3“ dieselbe Bande auch in den folgenden Wiederho­lun­gen zuverlässig übrig blieb.

Chef und Doktorand schrieben also ein Paper. Es wurde begutachtet und schließlich publiziert. Was dummerweise weder Doktorand noch Chef oder Gutachter wussten (letztere waren wohl schon zu lange „weg von der Bench“), fiel erfahrenen Proteinfärbern sofort auf: Die Bande entsprach exakt dem 68 kDa-Artefakt, das man oft nach Mercaptoethanol-Behandlung der Proteinprobe erhält.

Nur zwei Monate nach dessen Erscheinen zerpflückte Chefs Erzrivale das Paper in einer „Correspondence“ mit klarem Artefakt-Beweis. Frustriert und voller Scham schmiss M. seine Doktorarbeit hin.

Bei aller Härte am Ende doch gut für die Wissenschaft? Vielleicht.

Allerdings geht es auch ganz anders — wie das Beispiel der Doktorandin K. beweist, der einst ganz Ähnliches widerfuhr. Diese fiel auf ein Artefakt herein, das Ungeübten oft bei der Aufnahme neuronaler Signale mit Multielektrodenarrays droht. Und auch sie hatte ihre Ergebnisse frisch publiziert. Kurz darauf meldete sich einer der „Großkönige“ der neuronalen Ableitung telefonisch bei K.: „Gratuliere zum Paper. Allerdings scheint mir ein Schlüsselbefund nicht zu stimmen. Ich habe meinen Postdoc das Experiment nachmachen lassen — und er meint, Du hättest bei der Elektrodenmessung was vergessen…“

Sein Postdoc wiederum habe jedoch Wichtigeres zu tun, erklärte er weiter — weshalb es besser sei, wenn K. ihren Fehler selbst nachweisen würde. Anschließend weihte der Anrufer K. noch in einige weitere Geheimnisse und Fallstricke bei der Arbeit mit den entsprechenden Elektroden ein und skizzierte überdies noch, wie sie die „Richtigstellung“ seiner Meinung nach am geschicktesten angehen könne.

K. tat wie vorgeschlagen und veröffentlichte bald darauf die „Correction“ ihres eigenen Papers. Heute, über zwanzig Jahre später, gilt sie als herausragende Forscherin in ihrem Feld.

Wer weiß, so weit hätte M. womöglich auch kommen können…

Ralf Neumann

(Anmerkung: Die beiden Beispiele von K. und M. haben sich zwar nicht ganz genau so abgespielt, wie hier beschrieben — aber prinzipiell doch sehr ähnlich.)

x

Vertrackte Artefakte

23. Oktober 2018 von Laborjournal

Kommt jemandem das folgende Szenario bekannt vor? Man hat eine Idee, macht entsprechende Experimente — und findet in seiner Probe tatsächlich die vermutete Struktur oder Aktivität. Klar, jetzt muss der „Fund“ weiter analysiert werden. Das geht auch einige Zeit gut, bis eines Tages das Reagenz X für die Probenvorbereitung ausgeht. Aus Kostengründen bestellt man dieses jetzt bei einem anderen Hersteller — und plötzlich ist alles weg.

Genau so eine Pleite erlebte ich vor langer Zeit. Konkret ging das damals so:

In Membranfraktionen von Keimlings-Sprossachsen hatte ich eine starke Bindeaktivität für das Pflanzenhormon Auxin aufgespürt. Das Signal im Zähler war eindeutig und kam zuverlässig mit jeder neuen Membranpräparation. Klar, das musste ein Auxin-Rezeptor sein. Also nichts wie ran und ihn reinigen!

Sofort lief alles nach Plan. Innerhalb kurzer Zeit hatte ich das vermeintliche „Bindeprotein“ aus der Membranfraktion isoliert und konnte die Auxin-Bindung auch in Lösung messen. Dabei störte mich auch anfangs nicht, dass die In-vitro-Bindung nur auftrat, wenn sich eine kleine Menge des Detergens Octyl-ß-D-glucosid im Inkubationsansatz befand. Schließlich sind Detergenzien zur Solubilisierung von Membranproteinen sowie deren Stabilisierung in Pufferlösung notwendig.

Als mein Detergens-Fläschchen fast leer war, bestellte ich den Nachschub diesmal billiger bei Sigma — und nicht wie zuvor bei Biomol. Und mit Sigma war die Bindeaktivität von einem Tag auf den anderen wie weggeblasen.

Es war offensichtlich: Der Wechsel des Detergens-Fläschchens ließ die schöne Bindeaktivität einfach verschwinden. Hatte ich tatsächlich monatelang mit einem Artefakt gearbeitet? Oder steckte doch eine angenehmere Erklärung dahinter?

Leider nicht. In mühsamer Kleinarbeit fügte ich die Mosaiksteinchen zusammen, und am Ende ergab sich das Bild eines fast schon kunstvollen Artefakts:

Das gereinigte “Bindeprotein” entpuppte sich als Peroxidase, die mit der Membranfraktion mitgereinigt wurde. Peroxidasen oxidieren in vitro nahezu alles, was nur irgendwie oxidierbar ist — so auch Auxin. Dabei entstehen als Zwischenprodukt hochreaktive Auxin-Radikale, die wiederum mit allem Möglichen Komplexe bilden können — beispielsweise auch mit Tensiden. Nun benutzen die Hersteller von Laborchemikalien häufig gewisse Tenside zur Reinigung der Laborgefäße vor ihrer Befüllung. Und tatsächlich konnte ich mit dem alten Fläschchen von Biomol nachweisen, dass es neben dem Detergens auch Reste dieser Reinigungs-Tenside enthielt.

Es waren also nicht Rezeptor und Ligand, die mich eine Bindung messen ließen, sondern Komplexe aus Auxin-Radikalen mit Tensiden. In meinen Experimenten täuschten sie eine Bindeaktivität vor, da die Bildung der Artefakt-Komplexe von der enzymatischen Umsetzung des Auxins durch die Peroxidase abhängig war. Kinetik und Sättigung sahen daher im Test wie die spezifische Bindung von Auxin an ein Rezeptorprotein aus.

Ziemlich frustrierend, wenn man monatelang glaubt, einer größeren Entdeckung auf der Spur zu sein — und dann auf diese Weise umso härter auf der Schnauze landet. Dabei gehören Artefakte zum Laboralltag wie Stechmücken zu lauen Sommerabenden. Dennoch spricht kaum jemand darüber, wälzt die dubiosen Gelbanden, merkwürdigen Sequenzen und sonderbaren Markersignale lieber in schlaflosen Nächten weiter durch den Kopf.

Sicher, die Kollegen mögen erstmal schmunzeln — oftmals eher hämisch als mitfühlend. Aber aufgeschrieben und gesammelt könnten mit solchen „Artefakt-Alarmen“ wichtige Erfahrungen an Laboranfänger weitergegeben werden. Wer weiß denn etwa schon, mit welchen Assays die oben geschilderten Reinigungs-Tenside womöglich noch interagieren? Teilt uns deshalb die kniffeligsten „Holzwege“ eures Forscherlebens mit, bevor auch andere sich dort schmerzhafte Splitter einfangen — entweder gleich hier im Blog oder via E-Mail an redaktion@laborjournal.de. Und wer dabei überdies nicht mit Sarkasmus und Selbstironie spart, dem spendiert die Redaktion womöglich einen Magenbitter…

Ralf Neumann

Foto: Fotolia / Schmutzler-Schaub

Von Daten, die in Schubladen verstauben

17. September 2018 von Laborjournal

Haben Sie auch noch jede Menge Daten in der sprichwörtlichen Schublade liegen? Daten, die schon lange eine nette, kleine „Story“ ergeben würden — wenn man sie nur mal in Manuskriptform bringen würde?

Wie bitte, in Ihrer Schublade schlummert Stoff für mehrere solcher kleinen, aber feinen Manuskripte? Oder in ihrem Regal?…

Keine Angst, Sie sind nicht allein.

Schon vor einiger Zeit stellte eine englische Forscherin den Kollegen in ihrem (leider nicht mehr existenten) Blog im Prinzip dieselbe Frage: „Stellt Euch vor, ihr bekommt keine Fördergelder mehr und könnt Euch einzig darauf konzentrieren, alle vorhandenen Daten zusammenzuschreiben — für wie lange hättet Ihr noch „Stoff“?“ Und sie meinte damit nicht das Umschreiben bereits eingereichter Manuskripte; es ging ihr vielmehr um die vielen, praktisch publikationssreif abgeschlossenen (Seiten-)Projekte, die bislang dennoch nie wirklich oben auf dem Schreibtisch gelandet waren.

Heraus kam, dass dieses Phänomen den meisten Forschern, die schon länger im Geschäft sind, offenbar wohlbekannt ist: Die Mehrzahl der Antworten lag zwischen drei und fünf Jahren.

Drei bis fünf Jahre lang könnte der Durchschnitts-Seniorforscher also noch Manuskripte schreiben — allein mit den Daten, die er längst schon hat. Da er diese Zeit aber beileibe nicht nur mit Paperschreiben verbringen kann, werden wohl jede Menge dieser interessanten kleinen (und hin und wieder vielleicht sogar großen) Geschichten niemals veröffentlicht. „Survival of the fittest results“ nennt die Autorin das treffend.

Woher aber kommt der entsprechende Selektionsdruck? Wohl daher, dass das Publikations-dominierte Belohnungssystem dem Forscher die folgende Zwickmühle beschert hat: Will er seinen Job gut machen, sollte er stets seine Resultate sorgfältig prüfen, hart nach alternativen Erklärungen fahnden und sie immer mit der aktuellen Literatur abgleichen. Das allerdings kostet Zeit. Wenn Forscher X aber zu viel Zeit mit diesen Dingen „vertrödelt“, riskiert er, als unproduktiv abgestempelt zu werden. Und dann kann es schnell schwer werden, weiterhin Fördergelder zu bekommen.

Also bunkert Forscher X das weniger dringende Material in der Schublade und schreibt lieber erstmal den nächsten Antrag — nicht zuletzt auch, um das Hauptprojekt der Gruppe weiter am Laufen zu halten. Wird dieser dann bewilligt, muss er natürlich umgehend die beantragten Projekte auch machen. Mit den resultierenden Daten muss er gleich wieder Paper schreiben, damit er frische Argumente für den nächsten Folgeantrag hat… — und so geht das Spiel in die nächste Runde

Und während diese Mühle unerbittlich weiter läuft, versinkt das, was er in der Schublade bunkert, tiefer und tiefer im Staub.

Wer weiß, wie viele kleine Schätze mit etwas weniger Antragsdruck von dort geborgen werden könnten..

Ralf Neumann

Foto: iStock / Paperkites

x

Schuldige Smartphones — oder doch nicht?

5. September 2018 von Laborjournal

(UPDATE VOM 7.9.2018: Über das Pressereferat des Leibniz-Instituts für Arbeitsforschung an der TU Dortmund, wo die unten referierte Studie entstand, erreichte uns eine Mail, in der die Autoren unter anderem „fehlgeleitete Interpretationen und Rück­schlüsse“ in unserem Blog-Artikel kritisieren. Wir haben den Text der Mail daher unmittelbar hinter dem ursprünglichen Blog-Beitrag eingefügt, damit sich die Leser ihr eigenes Bild machen können.)

x

Offenbar kann man es nicht oft genug betonen: Wenn das vorausgehende Phänomen A mit Phänomen B korreliert, dann muss A noch lange nicht die Ursache für B sein. Das alte Dilemma zwischen Korrelation und Kausalität.

Wie irreführend es sein kann, wenn man hier nicht sauber trennt, zeigt gerade ein frisches Paper von Dortmunder Arbeitspsychologen mit dem Bandwurm-Titel „Protect Your Sleep When Work is Calling: How Work-Related Smartphone Use During Non-Work Time and Sleep Quality Impact Next-Day Self-Control Processes at Work“ (Int. J. Environ. Res. Public Health 2018, 15(8)).

Was sagt der Titel? Dass Arbeiten mit dem Smartphone nach Feierabend — also E-Mails checken, Kunden anrufen, „schnell“ nach irgendwelchen Infos surfen,… — und die Qualität des Nachtschlafs die Performance am nächsten Arbeitstag mitbestimmen. Letzteres ist eigentlich trivial: Ein jeder weiß wohl selbst, dass ihm die Arbeit schwerer fällt und er mehr Fehler macht sowie schneller erschöpft ist, wenn er sich in der Nacht davor allzu lange schlaflos im Bett gewälzt hat. Und Smartphones die Schuld für irgendwelche negative Performance zu geben, ist sowieso gerade en vogue.

Doch sind die Smartphones wirklich kausal „schuld“? Diesen Beitrag weiterlesen »

Welche Forschung ist exzellent?

19. Juli 2018 von Laborjournal

Gehen wir die Frage mal mit einem Gedankenexperiment an: Stellen Sie sich vor, Sie begutachten Forschungsanträge für einen großen europäischen Forschungsförderer. Und nehmen wir an, dieser Förderer hätte als Leitlinie ausgegeben, dass einzig „wissenschaftliche Exzellenz“ als Kriterium für die Entscheidungen gelte. Das Anwendungspotenzial der Projekte sei unerheblich, es gebe keinerlei thematische Prioritäten und auch der Grad an Interdisziplinarität spiele keine Rolle. Nur die pure „Exzellenz“!

Okay, verstanden! Sie nehmen sich also die Anträge vor. Der erste formuliert eine brillante neue Hypothese zu einem Phänomen, für das die „alte“ Erklärung erst kürzlich spektakulär in sich zusammengefallen war.

Der nächste dagegen visiert eine „ältere“, ungemein attraktive Hypo­these an, die sich bislang aber jedem rigorosen experimentellen Test entzog — und genau diese quälende Lücke wollen die Antragsteller jetzt auf höchst originelle und einleuchtende Weise füllen.

Der dritte präsentiert einen klaren Plan, wie sich gewisse neue Erkenntnisse für eine völlig neue Methode rekrutieren ließen — eine Methode, die, wenn sie dann funktionierte, ganze Batterien neuer Experimente zu bislang „verschlossenen“ Fragen ermöglichen würde.

Der vierte kombiniert verschiedene vorhandene Tools und Ressourcen auf derart geschickte Weise, dass die Antragsteller damit in der Lage sein würden, riesige Datenmassen zu erheben, zu ordnen und zu analysieren — ein „Service“, mit dem das gesamte Feld zweifellos einen Riesensprung machen würde.

Der fünfte schließlich will auf überzeugende Weise sämtliche zu einem bestimmten Kontext publizierten Daten re- und meta-analysieren, um dann mit dem Paket ein möglichst robustes Simulationsprogramm zu entwickeln — ein Programm, das sicher mannigfach die Entwicklung neuer Hypothesen ermöglichen würde…

Jetzt halten Sie erstmal inne. „Mir war bisher nicht bewusst, auf welche verschiedene Arten Wissenschaft exzellent sein kann“, denken Sie. „Genauso wie exzellente Äpfel, Birnen und Orangen alle exzellentes Obst darstellen. Und die soll man ja bekanntlich nicht miteinander vergleichen.“

Ralf Neumann

x

Engländer kommen billiger in Gen-Datenbank „FlyBase“

27. Juni 2018 von Laborjournal

(Gerade folgender Hinweis in der Redaktion eingegangen:)

„Ich wollte gerade ein Gen in der Drosophila-Datenbank FlyBase nachsehen. […] Hier ein Screenshot von dem, was ich vorfand (für größere Version auf’s Bild klicken):

x

x

Interessant, dass Flybase unterstützt wird:

[…] by a grant from the National Human Genome Research Institute at the U.S. National Institutes of Health U41HG000739.

Und dass die den Support jetzt kürzen!

Noch interessanter aber ist die neue „Preisliste“: Europa gehört zu den „other countries“, wo jede Person 300 US-Dollar pro Jahr für den Zugang zur Datenbank zahlt — Amis und Engländer zahlen dagegen nur die Hälfte.

Hmm?…“

x

Nur nicht zu viel riskieren

4. Mai 2018 von Laborjournal

Damit die Karriere nicht stockt, brauchen Postdocs und End-Doktoranden zwingend Paper. Und für Paper brauchen sie Ergebnisse.

Sichere Ergebnisse liefern jedoch in aller Regel nur risikoarme Projekte. Risikoarm insofern, als dass gewisse Vorarbeiten schon gezeigt haben, dass das Projekt solide ist und die nächsten Ergebnisse nur darauf warten, hinter der nächsten Ecke abgeholt zu werden.

Ob das dann noch aufregende Ergebnisse sind, ist eine andere Frage. Denn die erhält man in aller Regel, wenn man eben nicht nur hinter die nächste Ecke schaut — sondern sich eher auf Reisen weit über den Horizont hinaus begibt. Was einen dort genau erwartet, weiß man nicht und ist demnach hochgradig unsicher — schließlich ist es ja gerade das Unbekannte, das man erforschen will. Logisch daher, dass das Risiko, am Ende mit leeren Händen dazustehen, nicht gerade klein ist.

Die erwähnten Postdocs und End-Doktoranden können es meist kaum eingehen. Doch wer testet dann wirklich neue Ideen mit entsprechend hohem Fehlschlag-Risiko? Wem ist nicht gleich die Karriere versaut, wenn die Projektidee letztlich in einen „Satz mit X“ mündet? Wer braucht (noch) nicht die ganz runde Story?

Richtig, die „Anfänger“ — Bachelor/Master-Studenten und vielleicht mancher Doktoranden-Frischling.

Ob das aber der Sache gerecht wird? Denn nach welchem Schema das Neue-Ideen-Testen dann ablaufen kann, erzählte uns ein Gruppenleiter vor einiger Zeit an folgendem, selbst erlebten Beispiel…

Demnach erhielt Bachelor A im vierten Anlauf endlich ein halbwegs aussagekräftiges Basisergebnis; die nächsten zwei Mal scheiterte er wieder — danach verließ er das Labor. Später berichtete Master B, er habe zwei von sechs Mal ein positives Ergebnis erhalten und schrieb das auch in seiner Arbeit. Allerdings fiel den Kollegen daraufhin ein, dass niemand ihn derart oft an den Geräten gesehen hatte. Von der Gewissheit, ob die Idee was taugt und ein „richtiges“ Projekt mit vernünftigem Ergebnispotenzial tragen könnte, war man also weiterhin weit entfernt.

In den Händen des etwas erfahreneren Doktoranden C lieferte das vermeintliche Kernexperiment sofort ein positives Ergebnis. Allerdings konnte er es danach mehrere Male nicht wieder bestätigen — bis ihm Kollegin D beichtete, dass sie vor Wochen das empfindliche Schlüssel-Reagenz Z tagelang aufgetaut auf ihrer Laborbank vergessen hatte. Mit frischem Reagenz Z reproduzierte C sein Startergebnis zwar sofort wieder; allerdings verließ er das Labor zwei Wochen später überraschend zugunsten eines Bioinformatik-Jobs in der Industrie, ohne dass er die Ergebnisse je abschließend aufgeschrieben hatte.

Dennoch hielt der Chef den Basisbefund jetzt von A bis C für ausreichend solide belegt — und übergab „das Projekt“ einem neuen Postdoc. Ein knappes Jahr kam er wegen ungeahnter Schwierigkeiten mehr schlecht als recht voran — bis er schließlich befürchten musste, auf dem „Projekt“ nicht rechtzeitig die notwendigen Veröffentlichungen für den nächsten Antrag zusammenzubekommen. Also schmiss er es hin und wechselte aus „Karrieregründen“ doch wieder auf ein sicheres „Just around the Corner“-Projekt.

Nur ein Beispiel, wie schwer das derzeitige System das robuste Testen von wirklich neuen Ideen macht. Es gibt sicher noch mehr.

(Illustr.: Fotolia / pict rider)

Zellen sind schlampig

27. März 2018 von Laborjournal

Wenn man sich als Fachmagazin für biologisch-medizinische Forschung etabliert, bleibt es nicht aus, dass man bisweilen auch fachliche Fragen gestellt bekommt. Und die sind manchmal gar nicht ohne. Vor allem, weil man ja offenbar deswegen gefragt wird, da „Freund Google“ keine schnelle Antwort liefert.

Ganz in diesem Sinne fanden wir vor Kurzem etwa folgende Frage in unserer Redaktions-E-Mail:

Liebe Redaktion,

mein Sohn lernt in der Schule gerade Translation und genetischen Code. Dies habe ich zum Anlass genommen, mit ihm das Rätsel „Kennen Sie den? Der übergangene Code-Knacker“, LJ 5/2017, anzuschauen. Das hat uns auf folgende Frage gebracht:

Wieso funktioniert die Translation in einem zellfreien System auch ohne Startcodon?

Tja. Tatsächlich findet man bei „Freund Google“ und auch sonst so gut wie überall, dass in der mRNA nach einer untranslatierten Leader-Sequenz zwingend das Start-Codon AUG kommen muss, damit das Ribosom sie richtig binden und im korrekten Leseraster mit der Translation beginnen kann. Gute Frage also, wie das im erwähnten Rätsel angesprochene Poly-U-Experiment, mit dem Heinrich Matthaei im Labor von Marshall Nirenberg das Triplett-Prinzip des genetischen Codes entschlüsselte, überhaupt funktionieren konnte. Schließlich gab Matthaei lediglich blitzeblanke Poly-U-RNA-Stränge zur Translation in das ansonsten Zell- und mRNA-freie E. coli-Extrakt — von Startcodons nicht der Hauch einer Spur. Wie konnten ihm danach dann trotzdem fix und fertig translatierte Poly-Phenylalanin-Ketten im Filter hängenbleiben — ganz wie es das Phenylalanin-Triplett UUU vorsieht?

Es dauerte ein Telefonat und noch ein klein wenig länger, bis unser Chefredakteur folgende Antwort zurückmailen konnte:

Biologische Prozesse sind eigentlich immer etwas „fuzzy“ und funktionieren nie hundertprozentig schwarz oder weiß! Das heiß im konkreten Fall, dass die Ribosomen auch RNAs ohne Startcodon transkribieren können — allerdings mit viel schlechterer Affinität und Effizienz. In der Zelle kommt das praktisch nicht vor, da die RNAs mit Startcodon gnadenlos in der Überzahl sind und die Ribosomen aufgrund ihrer starken Affinität immer wieder sofort neu besetzen. Die wenigen RNAs ohne Startcodon sind da völlig chancenlos.

Im Poly U-Experiment von Matthaei dagegen waren überhaupt keine RNAs mit Startcodon vorhanden, dafür aber ein riesiger, völlig unphysiologischer Überschuss an homogener Poly U-RNA. Daher konnten die Ribosomen am Ende trotz der geringeren Affinität aufgrund der fehlenden Konkurrenz durch andere RNAs genügend Poly U-RNA transkribieren — jedenfalls genug, dass Matthaei damit das Triplett-Codon UUU für Phenylalanin nachweisen konnte.

Zudem spielten auch die gegenüber der intakten Zelle stark veränderten physiologischen Bedingungen in Matthaeis Test eine gewisse Rolle — vor allem die Magnesium-Konzentration. Dazu mehr hier: https://tinyurl.com/yalvbdt4.

Ein klein wenig konnte „Freund Google“ am Ende also doch helfen.

Dennoch muss man sich wundern, dass dieses durchaus wichtige „Startcodon-Problem“ bei all den vielen Beschreibungen des Poly-U-Experiments praktisch völlig außer Acht gelassen wird. Zumal man ja mit der „Fuzziness“ — oder auf deutsch: Schlampigkeit — der Translation noch etwas ganz Generelles über biochemische und zellbiologische Prozesse in der Zelle lernen kann.

x

Verstehen wir uns noch?

9. Januar 2018 von Laborjournal

Denn sie wissen nicht, was sie tun. — Viele dürfte diese Zeile unmittelbar an den gleichnamigen Filmklassiker mit James Dean erinnern. Heute könnte sie jedoch auch für einen großen Teil biomedizinischer Forschung gelten.

Wobei man hier ein klein wenig wie folgt präzisieren müsste: „Denn sie wissen nicht mehr, was der andere tut.“ Bittere Konsequenz dessen, dass in vielen Gebieten die einzelnen Veröffentlichungen immer komplexer werden.

Ein besonders eindrückliches Beispiel dafür schilderte kürzlich Dorothy Bishop von der Oxford University in ihrem „BishopBlog“. In dem entsprechenden Beitrag klagt sie, dass sie die Publika­tionen ihrer Kollegen immer weniger versteht, sobald sie auch nur ein klein wenig über ihren eigenen Tellerrand hinausschaut. Sie schreibt:

Für eine Art Meta-Analyse über die Anwendung bestimmter statistischer Methoden studierte ich zuletzt eine Reihe von neurowissenschaftlichen Artikeln“, schreibt sie. „Einige davon musste ich stundenlang lesen und wieder lesen, bis ich endlich verstan­den hatte, welches überhaupt die statistisch relevantesten Ergebnisse waren.

Und dann schwenkt sie auf den eigentlich beunruhigenden Punkt um:

Mir scheint daher, dass in manchen Feldern die Zahl der Kollegen, die derart komplexe Paper überhaupt noch umfassend und kompetent begutachten können, extrem zusammenschnurrt.

Selbst gute und engagierte Editoren würden daher irgendwann kaum noch Reviewer mit voll­um­fäng­lich ausreichender Expertise auftreiben können. Und umgekehrt würde es den meisten immer stärker widerstreben, solch hochkomplexe Studien zu prüfen, wenn sie derart viel Substanz jenseits der eigenen Expertise enthalten.

Und Frau Bishop ist mit solchen Befürchtungen keineswegs allein. Bereits 2013 fragte Diethard Tautz, Direktor am Plöner Max-Planck-Institut für Evolutionsbiologie, in einem Essay für Labor­journal:

Lesen wir noch, was andere schreiben? Ja, verstehen wir uns überhaupt noch?

Und er erzählte folgendes Beispiel:

Ich musste kürzlich so ein „Big Data“-Paper für ein angesehenes Journal begutachten. Es hatte 60 Autoren und präsentierte ein Feuerwerk an intelligenten Auswertungen, Statistiken und Modellierungen. Etwas seltsam war der modulare Aufbau. Die einzelnen Teile des Papers waren offensichtlich von unterschiedlichen Autoren geschrieben worden, jeder ein Spezialist für sein Feld mit einem eigenen Sprachstil und wenig Bezug zu den anderen Modulen. An ein paar ‚Kleinigkeiten‘ wie fehlenden Übergängen und unvollständigen Sätzen war zu erkennen, dass die meisten der Autoren offen­sicht­lich ihr eigenes Paper nicht vollständig gelesen haben konnten — denn zumindest einem von den 60 hätte so etwas doch auffallen müssen. Haben auch Autoren gar keine Zeit mehr zum Lesen oder ist das der Beginn der Sprachverwirrung? Auch als Gutachter konnte ich nur einen Teil kompetent begutachten, den Rest nur auf Plausibilität prüfen. Und ich vermute, dass es den anderen Gutachtern ebenso ging.

Und er schloss:

Natürlich wurde es publiziert — und ich darf annehmen, dass es so gut wie keinen Leser mehr gibt, der wirklich alles davon versteht. Wenn das so weiter geht, dann sind wir bald nahe an dem Punkt,… dass keiner des andern Sprache verstehe!

Wobei das letztere Zitat jetzt nicht aus der Filmwelt kommt.

Ralf Neumann

 

Von Interdisziplinarität und Pionieren

20. Juni 2017 von Laborjournal

Man könnte die Entschlüsselung der DNA-Struktur durch Watson und Crick durchaus als eine der ersten interdisziplinären Meisterleistungen der Wissenschaftsgeschichte werten: Ein Ornithologe und ein Physiker werteten Bilder von Kristallographen aus — und begründeten die Molekularbiologie.

Freilich hat das seinerzeit niemand so gesehen. Und gerade im Rückblick auf die damaligen Pioniertage würde heute wohl jeder Watson und Crick als Molekularbiologen bezeichnen.

Interessanterweise drängten gerade in dieser Zeit des molekularbiologischen Aufbruchs generell viele „Fachfremde“ in die Biologie — Physiker, Chemiker, Mathematiker,… Dennoch nahm damals kaum jemand das Wort „Interdisziplinarität“ in den Mund. Offenbar war nicht so wichtig, wo einen die jeweilige Ausbildung abgesetzt hatte — vielmehr zählte, wo einen die konkreten Fragen hintragen würden.

Und so erschlossen damals nicht nur Watson und Crick neue Felder. Vor allem auch deshalb, weil sie gerade als interdisziplinäre Köpfe in der Lage waren, ihre alten Disziplinen hinter sich zu lassen, um sich neuen Wegen zu öffnen — und sie auch tatsächlich zu gehen.

Nur logisch daher, dass man deren neue Erkenntnisse samt der damit eröffneten Felder dann auch ganz für sich selbst bewertete — und nicht nach der disziplinären Herkunft derer, denen man sie verdankte. Wie gesagt, ist die DNA-Struktur doch vor allem eine molekularbiologische Entdeckung, und nicht zwingend-logisches Resultat einer interdisziplinären Kooperation aus Physik, Ornithologie und Kristallographie.

Nicht zuletzt wegen solcher Beispiele schrieb der US-Biologe Sean Eddy vor einiger Zeit, dass neue Felder weniger durch interdisziplinäre Teambildung entstünden als vielmehr durch das Wirken „antedisziplinärer“ Pioniere. Siehe Watson und Crick.

Sicher, interdisziplinäre Team-Projekte sind wichtig — dies allerdings vor allem da, wo Antworten auf bisher unlösbare Fragen durch die Anwendung neu etablierter Techniken aus anderen Disziplinen realisierbar werden. Interdisziplinäre Projekte deshalb aber gleich zum Forschungsmodus Nummer eins zu erklären, wie dies Wissenschaftspolitiker heute allzu gerne tun, hieße jedoch, Vergangenes über die Zukunft zu stellen — und die Herkunft der Leute höher zu bewerten als ihre ganz konkrete Arbeit.

Klingt nicht wirklich nach einem Rezept für Pioniertaten.

Ralf Neumann

(Illustration: Flickr/Dullhunk)
Information 1


Information 2





Information 4


Information 5


Information 7


Information 8