Die Crux mit dem Projekt

7. Februar 2019 von Laborjournal

Wer Geld für seine Forschung haben will, muss einen Projektantrag stellen. Sicher, wenn es ein bisschen größer sein soll, heißt das Ganze auch mal „Programm“ oder „Initiative“. Aber woraus setzen sich diese in aller Regel zusammen? Genau, aus lauter Einzel-Projekten! Schon lange ist Forschung auf diese Weise nahezu ausschließlich in Projekten organisiert. Das Projekt ist die Keimzelle einer jeden Forschungsförderung.

Paradox ist das schon. Denn zumindest in der reinen Grundlagenforschung kann nur „projektiert“ werden, was noch unbekannt ist. Andernfalls wäre es keine. Oder anders gesagt: Sonst wäre das Projekt kein Forschungsprojekt. Zugleich muss das Unbekannte aber bekannt genug sein, um ein Forschungsvorhaben überhaupt in Form eines Projektes organisieren zu können. Schließlich lässt sich nur mit einem hinreichenden Maß an Bekanntem vorweg eine klare Forschungsplanung hinsichtlich Zielvorgaben, zeitlichem Ablaufen, finanzieller und personeller Ressourcen et cetera entwerfen. Dummerweise gilt aber ohne solch einen klaren Plan nix als Projekt — und wird auch nicht gefördert.

Es passt also nicht wirklich zusammen: Das Ideal von Forschung als offener, durch reine Neugier gelenkter Prozess einerseits — und die Projektierung von Forschung andererseits. Zumal in der Forschung auch anfängliche Zielvorgaben schnell und flexibel umformuliert werden können müssen, wie auch ein beträchtliches Risiko zu scheitern bewusst eingeschlossen ist.

Für ein Projekt dagegen ist das Vorwegnehmen von offensichtlich Neuem zu Beginn eines Prozesses unvermeidbar. Der Vorstellung von Wissenschaft als Prozess fortlaufender Entdeckungen widerspricht dies jedoch fundamental. In Projekten kann man naturgemäß nicht einfach nur von irgendwelchen Prämissen ausgehen — und dann durch fortlaufende Exploration schauen, was daraus wird. Ebenso wenig, wie sich Änderungen leicht hinnehmen lassen. Wie könnten Projekte sonst auf die ihnen innewohnende Art alle möglichen Unsicherheiten minimieren?

Daher stellen sich zwei Fragen: Wie kann man etwas vorweg bestimmen, das man gerade durch die Forschungstätigkeit entdecken will? Und welche Art Wissenschaft könnte überhaupt projektierbar sein? Letzteres mag funktionieren, wenn man ganz konkrete Fälle analysiert und auf jegliche Form der Generalisierung verzichtet. Forschung, die allerdings genau dieses Ziel verfolgt — nämlich ein generalisierendes Modell oder eine übergeordnete Theorie zu entwerfen —, ist in der Organisationsform „Projekt“ denkbar schlecht aufgehoben.

             Ralf Neumann

 

Zu spekulativ? — Na und!

17. Januar 2019 von Laborjournal

(Vor knapp vier Jahren erschien der folgende Text in unserer Print-Kolumne „Inkubiert“. Wir finden, er hat eine neuerliche Diskussion verdient.)

Zu den zentralen Aufgaben wissenschaftlichen Arbeitens gehört es, Modelle und Theorien zu entwickeln. So sollte man jedenfalls meinen.

Die Realität jedoch sieht anders aus. Seitdem Forschung zunehmend projektorientiert stattfindet und sich über Publikationsmetriken definiert, scheint „Theoriearbeit“ nicht mehr angesagt. Vor einiger Zeit bilanzierte etwa eine Studie zu exakt diesem Thema, dass von 500 untersuchten Forschungs­projekten nur etwa zehn Prozent „genuine Theoriearbeit“ beinhalteten. Der gewaltige Rest beschränkte sich laut den Autoren  größtenteils auf die punktuelle Analyse eines konkreten Falles und verzichtete schon im Ansatz auf jegliche Form der Generalisierung.

Welche Art Forschung auf diese Art herauskommt, ist klar: Überschaubare Projekte, die fest auf bekannten Theorien fußen und daraus abgeleitete Fragen mit bekannten Methoden bearbeiten — Forschung mit eingebauter Ergebnisgarantie, bei gleichsam dürftigem Erkenntnispotenzial.

Aber sollte Forschung nicht eigentlich Türen ins Unbekannte aufstoßen? Augenscheinlich muss man es sich wirklich wieder neu in Erinnerung rufen. Denn offenbar scheint der Löwenanteil aktueller Forschungsprojekte nicht wirklich daraufhin angelegt. Was natürlich auch dadurch unterstützt wird, dass das Klima gerade generell von einer Theorie-feindlichen Großwetterlage geprägt wird. Denn was passiert beispielsweise, wenn sich doch mal jemand traut, in einem Manuskript über den Tellerrand zu blicken und aus den vorgestellten Daten ein generalisierendes Modell entwickelt? Die Chance ist groß, mit der Totschlag-Floskel „zu spekulativ“ wieder zurück auf Start geschickt zu werden.

Doch warum ist „spekulativ“ heutzutage derart negativ besetzt? Natürlich sind Modelle und Theorien spekulativ — was denn sonst? Es wird ja auch kaum einer von Vorneherein behaupten, sein Modell sei korrekt. Weil Modelle und Theorien allenfalls nützlich sein können, das Unbekannte weiter zu entschlüsseln. Ganz in dem Sinne, wie Sydney Brenner es vor einiger Zeit formulierte:

„Die Hauptsache ist, sich mit Möglichkeiten befassen zu können. Dinge einfach auszusprechen, auch wenn sie falsch sein mögen. Indem ich sie ausspreche, kann ich besser erkennen, was daran falsch sein könnte. Und das kann wiederum zu einer robusteren Idee führen. Letztlich geht es also darum, die Dinge nicht zurückzuhalten.“

Oder vorschnell als „zu spekulativ“ abzuqualifizieren.

 

Fehlermeldungen

29. Oktober 2018 von Laborjournal

(Im Zusammenhang mit den „Vertrackten Artefakten“ [siehe letzter Post unten] fiel uns ein, dass wir bereits vor knapp zwei Jahren das unten folgende Online-Editorial zu diesem Thema gebracht hatten. Allerdings ging es darin weniger um die beiden geschilderten Artefakte an sich, als vielmehr darum, wie unterschiedlich die Folgen für die Betroffenen sein können, wenn sie aus Unwissenheit darauf reinfallen…)

 

Aus Fehlern lernt man, heißt es. Doch gilt das auch in der Forschung? Hat der immer engere Wettbewerb um Stellen und Fördermittel nicht mittlerweile dafür gesorgt, dass das Forschungsgeschäft mit Fehlern ziemlich gnadenlos umgeht? Auch weil jede kleine Nachlässigkeit oder Schlamperei der wachsamen Kon­kurrenz potentielle und willkommene Angriffs­flä­chen bietet? Und wenn ja: Muss ein solcher „Geist“ nicht vor allem auf Kosten des wissenschaftlichen Nachwuchses gehen, der ja auch — vielleicht sogar gerade — durch Fehler lernen sollte?

Nehmen wir etwa den jungen Doktoranden M. Dieser versuchte vor einiger Zeit ein bestimmtes Membranprotein zu isolieren — und hatte offenbar Erfolg: Nach monatelanger „Putzerei“ präsentierte er in der entscheidenden Bahn des Proteingels eine Bande — und sonst keine. Chef und Doktorand zweifelten nicht: Das musste es sein. Zumal nach der heiligen Regel „n  3“ dieselbe Bande auch in den folgenden Wiederho­lun­gen zuverlässig übrig blieb.

Chef und Doktorand schrieben also ein Paper. Es wurde begutachtet und schließlich publiziert. Was dummerweise weder Doktorand noch Chef oder Gutachter wussten (letztere waren wohl schon zu lange „weg von der Bench“), fiel erfahrenen Proteinfärbern sofort auf: Die Bande entsprach exakt dem 68 kDa-Artefakt, das man oft nach Mercaptoethanol-Behandlung der Proteinprobe erhält.

Nur zwei Monate nach dessen Erscheinen zerpflückte Chefs Erzrivale das Paper in einer „Correspondence“ mit klarem Artefakt-Beweis. Frustriert und voller Scham schmiss M. seine Doktorarbeit hin.

Bei aller Härte am Ende doch gut für die Wissenschaft? Vielleicht.

Allerdings geht es auch ganz anders — wie das Beispiel der Doktorandin K. beweist, der einst ganz Ähnliches widerfuhr. Diese fiel auf ein Artefakt herein, das Ungeübten oft bei der Aufnahme neuronaler Signale mit Multielektrodenarrays droht. Und auch sie hatte ihre Ergebnisse frisch publiziert. Kurz darauf meldete sich einer der „Großkönige“ der neuronalen Ableitung telefonisch bei K.: „Gratuliere zum Paper. Allerdings scheint mir ein Schlüsselbefund nicht zu stimmen. Ich habe meinen Postdoc das Experiment nachmachen lassen — und er meint, Du hättest bei der Elektrodenmessung was vergessen…“

Sein Postdoc wiederum habe jedoch Wichtigeres zu tun, erklärte er weiter — weshalb es besser sei, wenn K. ihren Fehler selbst nachweisen würde. Anschließend weihte der Anrufer K. noch in einige weitere Geheimnisse und Fallstricke bei der Arbeit mit den entsprechenden Elektroden ein und skizzierte überdies noch, wie sie die „Richtigstellung“ seiner Meinung nach am geschicktesten angehen könne.

K. tat wie vorgeschlagen und veröffentlichte bald darauf die „Correction“ ihres eigenen Papers. Heute, über zwanzig Jahre später, gilt sie als herausragende Forscherin in ihrem Feld.

Wer weiß, so weit hätte M. womöglich auch kommen können…

Ralf Neumann

(Anmerkung: Die beiden Beispiele von K. und M. haben sich zwar nicht ganz genau so abgespielt, wie hier beschrieben — aber prinzipiell doch sehr ähnlich.)

x

Vertrackte Artefakte

23. Oktober 2018 von Laborjournal

Kommt jemandem das folgende Szenario bekannt vor? Man hat eine Idee, macht entsprechende Experimente — und findet in seiner Probe tatsächlich die vermutete Struktur oder Aktivität. Klar, jetzt muss der „Fund“ weiter analysiert werden. Das geht auch einige Zeit gut, bis eines Tages das Reagenz X für die Probenvorbereitung ausgeht. Aus Kostengründen bestellt man dieses jetzt bei einem anderen Hersteller — und plötzlich ist alles weg.

Genau so eine Pleite erlebte ich vor langer Zeit. Konkret ging das damals so:

In Membranfraktionen von Keimlings-Sprossachsen hatte ich eine starke Bindeaktivität für das Pflanzenhormon Auxin aufgespürt. Das Signal im Zähler war eindeutig und kam zuverlässig mit jeder neuen Membranpräparation. Klar, das musste ein Auxin-Rezeptor sein. Also nichts wie ran und ihn reinigen!

Sofort lief alles nach Plan. Innerhalb kurzer Zeit hatte ich das vermeintliche „Bindeprotein“ aus der Membranfraktion isoliert und konnte die Auxin-Bindung auch in Lösung messen. Dabei störte mich auch anfangs nicht, dass die In-vitro-Bindung nur auftrat, wenn sich eine kleine Menge des Detergens Octyl-ß-D-glucosid im Inkubationsansatz befand. Schließlich sind Detergenzien zur Solubilisierung von Membranproteinen sowie deren Stabilisierung in Pufferlösung notwendig.

Als mein Detergens-Fläschchen fast leer war, bestellte ich den Nachschub diesmal billiger bei Sigma — und nicht wie zuvor bei Biomol. Und mit Sigma war die Bindeaktivität von einem Tag auf den anderen wie weggeblasen.

Es war offensichtlich: Der Wechsel des Detergens-Fläschchens ließ die schöne Bindeaktivität einfach verschwinden. Hatte ich tatsächlich monatelang mit einem Artefakt gearbeitet? Oder steckte doch eine angenehmere Erklärung dahinter?

Leider nicht. In mühsamer Kleinarbeit fügte ich die Mosaiksteinchen zusammen, und am Ende ergab sich das Bild eines fast schon kunstvollen Artefakts:

Das gereinigte “Bindeprotein” entpuppte sich als Peroxidase, die mit der Membranfraktion mitgereinigt wurde. Peroxidasen oxidieren in vitro nahezu alles, was nur irgendwie oxidierbar ist — so auch Auxin. Dabei entstehen als Zwischenprodukt hochreaktive Auxin-Radikale, die wiederum mit allem Möglichen Komplexe bilden können — beispielsweise auch mit Tensiden. Nun benutzen die Hersteller von Laborchemikalien häufig gewisse Tenside zur Reinigung der Laborgefäße vor ihrer Befüllung. Und tatsächlich konnte ich mit dem alten Fläschchen von Biomol nachweisen, dass es neben dem Detergens auch Reste dieser Reinigungs-Tenside enthielt.

Es waren also nicht Rezeptor und Ligand, die mich eine Bindung messen ließen, sondern Komplexe aus Auxin-Radikalen mit Tensiden. In meinen Experimenten täuschten sie eine Bindeaktivität vor, da die Bildung der Artefakt-Komplexe von der enzymatischen Umsetzung des Auxins durch die Peroxidase abhängig war. Kinetik und Sättigung sahen daher im Test wie die spezifische Bindung von Auxin an ein Rezeptorprotein aus.

Ziemlich frustrierend, wenn man monatelang glaubt, einer größeren Entdeckung auf der Spur zu sein — und dann auf diese Weise umso härter auf der Schnauze landet. Dabei gehören Artefakte zum Laboralltag wie Stechmücken zu lauen Sommerabenden. Dennoch spricht kaum jemand darüber, wälzt die dubiosen Gelbanden, merkwürdigen Sequenzen und sonderbaren Markersignale lieber in schlaflosen Nächten weiter durch den Kopf.

Sicher, die Kollegen mögen erstmal schmunzeln — oftmals eher hämisch als mitfühlend. Aber aufgeschrieben und gesammelt könnten mit solchen „Artefakt-Alarmen“ wichtige Erfahrungen an Laboranfänger weitergegeben werden. Wer weiß denn etwa schon, mit welchen Assays die oben geschilderten Reinigungs-Tenside womöglich noch interagieren? Teilt uns deshalb die kniffeligsten „Holzwege“ eures Forscherlebens mit, bevor auch andere sich dort schmerzhafte Splitter einfangen — entweder gleich hier im Blog oder via E-Mail an redaktion@laborjournal.de. Und wer dabei überdies nicht mit Sarkasmus und Selbstironie spart, dem spendiert die Redaktion womöglich einen Magenbitter…

Ralf Neumann

Foto: Fotolia / Schmutzler-Schaub

Von Daten, die in Schubladen verstauben

17. September 2018 von Laborjournal

Haben Sie auch noch jede Menge Daten in der sprichwörtlichen Schublade liegen? Daten, die schon lange eine nette, kleine „Story“ ergeben würden — wenn man sie nur mal in Manuskriptform bringen würde?

Wie bitte, in Ihrer Schublade schlummert Stoff für mehrere solcher kleinen, aber feinen Manuskripte? Oder in ihrem Regal?…

Keine Angst, Sie sind nicht allein.

Schon vor einiger Zeit stellte eine englische Forscherin den Kollegen in ihrem (leider nicht mehr existenten) Blog im Prinzip dieselbe Frage: „Stellt Euch vor, ihr bekommt keine Fördergelder mehr und könnt Euch einzig darauf konzentrieren, alle vorhandenen Daten zusammenzuschreiben — für wie lange hättet Ihr noch „Stoff“?“ Und sie meinte damit nicht das Umschreiben bereits eingereichter Manuskripte; es ging ihr vielmehr um die vielen, praktisch publikationssreif abgeschlossenen (Seiten-)Projekte, die bislang dennoch nie wirklich oben auf dem Schreibtisch gelandet waren.

Heraus kam, dass dieses Phänomen den meisten Forschern, die schon länger im Geschäft sind, offenbar wohlbekannt ist: Die Mehrzahl der Antworten lag zwischen drei und fünf Jahren.

Drei bis fünf Jahre lang könnte der Durchschnitts-Seniorforscher also noch Manuskripte schreiben — allein mit den Daten, die er längst schon hat. Da er diese Zeit aber beileibe nicht nur mit Paperschreiben verbringen kann, werden wohl jede Menge dieser interessanten kleinen (und hin und wieder vielleicht sogar großen) Geschichten niemals veröffentlicht. „Survival of the fittest results“ nennt die Autorin das treffend.

Woher aber kommt der entsprechende Selektionsdruck? Wohl daher, dass das Publikations-dominierte Belohnungssystem dem Forscher die folgende Zwickmühle beschert hat: Will er seinen Job gut machen, sollte er stets seine Resultate sorgfältig prüfen, hart nach alternativen Erklärungen fahnden und sie immer mit der aktuellen Literatur abgleichen. Das allerdings kostet Zeit. Wenn Forscher X aber zu viel Zeit mit diesen Dingen „vertrödelt“, riskiert er, als unproduktiv abgestempelt zu werden. Und dann kann es schnell schwer werden, weiterhin Fördergelder zu bekommen.

Also bunkert Forscher X das weniger dringende Material in der Schublade und schreibt lieber erstmal den nächsten Antrag — nicht zuletzt auch, um das Hauptprojekt der Gruppe weiter am Laufen zu halten. Wird dieser dann bewilligt, muss er natürlich umgehend die beantragten Projekte auch machen. Mit den resultierenden Daten muss er gleich wieder Paper schreiben, damit er frische Argumente für den nächsten Folgeantrag hat… — und so geht das Spiel in die nächste Runde

Und während diese Mühle unerbittlich weiter läuft, versinkt das, was er in der Schublade bunkert, tiefer und tiefer im Staub.

Wer weiß, wie viele kleine Schätze mit etwas weniger Antragsdruck von dort geborgen werden könnten..

Ralf Neumann

Foto: iStock / Paperkites

x

Schuldige Smartphones — oder doch nicht?

5. September 2018 von Laborjournal

(UPDATE VOM 7.9.2018: Über das Pressereferat des Leibniz-Instituts für Arbeitsforschung an der TU Dortmund, wo die unten referierte Studie entstand, erreichte uns eine Mail, in der die Autoren unter anderem „fehlgeleitete Interpretationen und Rück­schlüsse“ in unserem Blog-Artikel kritisieren. Wir haben den Text der Mail daher unmittelbar hinter dem ursprünglichen Blog-Beitrag eingefügt, damit sich die Leser ihr eigenes Bild machen können.)

x

Offenbar kann man es nicht oft genug betonen: Wenn das vorausgehende Phänomen A mit Phänomen B korreliert, dann muss A noch lange nicht die Ursache für B sein. Das alte Dilemma zwischen Korrelation und Kausalität.

Wie irreführend es sein kann, wenn man hier nicht sauber trennt, zeigt gerade ein frisches Paper von Dortmunder Arbeitspsychologen mit dem Bandwurm-Titel „Protect Your Sleep When Work is Calling: How Work-Related Smartphone Use During Non-Work Time and Sleep Quality Impact Next-Day Self-Control Processes at Work“ (Int. J. Environ. Res. Public Health 2018, 15(8)).

Was sagt der Titel? Dass Arbeiten mit dem Smartphone nach Feierabend — also E-Mails checken, Kunden anrufen, „schnell“ nach irgendwelchen Infos surfen,… — und die Qualität des Nachtschlafs die Performance am nächsten Arbeitstag mitbestimmen. Letzteres ist eigentlich trivial: Ein jeder weiß wohl selbst, dass ihm die Arbeit schwerer fällt und er mehr Fehler macht sowie schneller erschöpft ist, wenn er sich in der Nacht davor allzu lange schlaflos im Bett gewälzt hat. Und Smartphones die Schuld für irgendwelche negative Performance zu geben, ist sowieso gerade en vogue.

Doch sind die Smartphones wirklich kausal „schuld“? Diesen Beitrag weiterlesen »

Welche Forschung ist exzellent?

19. Juli 2018 von Laborjournal

Gehen wir die Frage mal mit einem Gedankenexperiment an: Stellen Sie sich vor, Sie begutachten Forschungsanträge für einen großen europäischen Forschungsförderer. Und nehmen wir an, dieser Förderer hätte als Leitlinie ausgegeben, dass einzig „wissenschaftliche Exzellenz“ als Kriterium für die Entscheidungen gelte. Das Anwendungspotenzial der Projekte sei unerheblich, es gebe keinerlei thematische Prioritäten und auch der Grad an Interdisziplinarität spiele keine Rolle. Nur die pure „Exzellenz“!

Okay, verstanden! Sie nehmen sich also die Anträge vor. Der erste formuliert eine brillante neue Hypothese zu einem Phänomen, für das die „alte“ Erklärung erst kürzlich spektakulär in sich zusammengefallen war.

Der nächste dagegen visiert eine „ältere“, ungemein attraktive Hypo­these an, die sich bislang aber jedem rigorosen experimentellen Test entzog — und genau diese quälende Lücke wollen die Antragsteller jetzt auf höchst originelle und einleuchtende Weise füllen.

Der dritte präsentiert einen klaren Plan, wie sich gewisse neue Erkenntnisse für eine völlig neue Methode rekrutieren ließen — eine Methode, die, wenn sie dann funktionierte, ganze Batterien neuer Experimente zu bislang „verschlossenen“ Fragen ermöglichen würde.

Der vierte kombiniert verschiedene vorhandene Tools und Ressourcen auf derart geschickte Weise, dass die Antragsteller damit in der Lage sein würden, riesige Datenmassen zu erheben, zu ordnen und zu analysieren — ein „Service“, mit dem das gesamte Feld zweifellos einen Riesensprung machen würde.

Der fünfte schließlich will auf überzeugende Weise sämtliche zu einem bestimmten Kontext publizierten Daten re- und meta-analysieren, um dann mit dem Paket ein möglichst robustes Simulationsprogramm zu entwickeln — ein Programm, das sicher mannigfach die Entwicklung neuer Hypothesen ermöglichen würde…

Jetzt halten Sie erstmal inne. „Mir war bisher nicht bewusst, auf welche verschiedene Arten Wissenschaft exzellent sein kann“, denken Sie. „Genauso wie exzellente Äpfel, Birnen und Orangen alle exzellentes Obst darstellen. Und die soll man ja bekanntlich nicht miteinander vergleichen.“

Ralf Neumann

x

Engländer kommen billiger in Gen-Datenbank „FlyBase“

27. Juni 2018 von Laborjournal

(Gerade folgender Hinweis in der Redaktion eingegangen:)

„Ich wollte gerade ein Gen in der Drosophila-Datenbank FlyBase nachsehen. […] Hier ein Screenshot von dem, was ich vorfand (für größere Version auf’s Bild klicken):

x

x

Interessant, dass Flybase unterstützt wird:

[…] by a grant from the National Human Genome Research Institute at the U.S. National Institutes of Health U41HG000739.

Und dass die den Support jetzt kürzen!

Noch interessanter aber ist die neue „Preisliste“: Europa gehört zu den „other countries“, wo jede Person 300 US-Dollar pro Jahr für den Zugang zur Datenbank zahlt — Amis und Engländer zahlen dagegen nur die Hälfte.

Hmm?…“

x

Nur nicht zu viel riskieren

4. Mai 2018 von Laborjournal

Damit die Karriere nicht stockt, brauchen Postdocs und End-Doktoranden zwingend Paper. Und für Paper brauchen sie Ergebnisse.

Sichere Ergebnisse liefern jedoch in aller Regel nur risikoarme Projekte. Risikoarm insofern, als dass gewisse Vorarbeiten schon gezeigt haben, dass das Projekt solide ist und die nächsten Ergebnisse nur darauf warten, hinter der nächsten Ecke abgeholt zu werden.

Ob das dann noch aufregende Ergebnisse sind, ist eine andere Frage. Denn die erhält man in aller Regel, wenn man eben nicht nur hinter die nächste Ecke schaut — sondern sich eher auf Reisen weit über den Horizont hinaus begibt. Was einen dort genau erwartet, weiß man nicht und ist demnach hochgradig unsicher — schließlich ist es ja gerade das Unbekannte, das man erforschen will. Logisch daher, dass das Risiko, am Ende mit leeren Händen dazustehen, nicht gerade klein ist.

Die erwähnten Postdocs und End-Doktoranden können es meist kaum eingehen. Doch wer testet dann wirklich neue Ideen mit entsprechend hohem Fehlschlag-Risiko? Wem ist nicht gleich die Karriere versaut, wenn die Projektidee letztlich in einen „Satz mit X“ mündet? Wer braucht (noch) nicht die ganz runde Story?

Richtig, die „Anfänger“ — Bachelor/Master-Studenten und vielleicht mancher Doktoranden-Frischling.

Ob das aber der Sache gerecht wird? Denn nach welchem Schema das Neue-Ideen-Testen dann ablaufen kann, erzählte uns ein Gruppenleiter vor einiger Zeit an folgendem, selbst erlebten Beispiel…

Demnach erhielt Bachelor A im vierten Anlauf endlich ein halbwegs aussagekräftiges Basisergebnis; die nächsten zwei Mal scheiterte er wieder — danach verließ er das Labor. Später berichtete Master B, er habe zwei von sechs Mal ein positives Ergebnis erhalten und schrieb das auch in seiner Arbeit. Allerdings fiel den Kollegen daraufhin ein, dass niemand ihn derart oft an den Geräten gesehen hatte. Von der Gewissheit, ob die Idee was taugt und ein „richtiges“ Projekt mit vernünftigem Ergebnispotenzial tragen könnte, war man also weiterhin weit entfernt.

In den Händen des etwas erfahreneren Doktoranden C lieferte das vermeintliche Kernexperiment sofort ein positives Ergebnis. Allerdings konnte er es danach mehrere Male nicht wieder bestätigen — bis ihm Kollegin D beichtete, dass sie vor Wochen das empfindliche Schlüssel-Reagenz Z tagelang aufgetaut auf ihrer Laborbank vergessen hatte. Mit frischem Reagenz Z reproduzierte C sein Startergebnis zwar sofort wieder; allerdings verließ er das Labor zwei Wochen später überraschend zugunsten eines Bioinformatik-Jobs in der Industrie, ohne dass er die Ergebnisse je abschließend aufgeschrieben hatte.

Dennoch hielt der Chef den Basisbefund jetzt von A bis C für ausreichend solide belegt — und übergab „das Projekt“ einem neuen Postdoc. Ein knappes Jahr kam er wegen ungeahnter Schwierigkeiten mehr schlecht als recht voran — bis er schließlich befürchten musste, auf dem „Projekt“ nicht rechtzeitig die notwendigen Veröffentlichungen für den nächsten Antrag zusammenzubekommen. Also schmiss er es hin und wechselte aus „Karrieregründen“ doch wieder auf ein sicheres „Just around the Corner“-Projekt.

Nur ein Beispiel, wie schwer das derzeitige System das robuste Testen von wirklich neuen Ideen macht. Es gibt sicher noch mehr.

(Illustr.: Fotolia / pict rider)

Zellen sind schlampig

27. März 2018 von Laborjournal

Wenn man sich als Fachmagazin für biologisch-medizinische Forschung etabliert, bleibt es nicht aus, dass man bisweilen auch fachliche Fragen gestellt bekommt. Und die sind manchmal gar nicht ohne. Vor allem, weil man ja offenbar deswegen gefragt wird, da „Freund Google“ keine schnelle Antwort liefert.

Ganz in diesem Sinne fanden wir vor Kurzem etwa folgende Frage in unserer Redaktions-E-Mail:

Liebe Redaktion,

mein Sohn lernt in der Schule gerade Translation und genetischen Code. Dies habe ich zum Anlass genommen, mit ihm das Rätsel „Kennen Sie den? Der übergangene Code-Knacker“, LJ 5/2017, anzuschauen. Das hat uns auf folgende Frage gebracht:

Wieso funktioniert die Translation in einem zellfreien System auch ohne Startcodon?

Tja. Tatsächlich findet man bei „Freund Google“ und auch sonst so gut wie überall, dass in der mRNA nach einer untranslatierten Leader-Sequenz zwingend das Start-Codon AUG kommen muss, damit das Ribosom sie richtig binden und im korrekten Leseraster mit der Translation beginnen kann. Gute Frage also, wie das im erwähnten Rätsel angesprochene Poly-U-Experiment, mit dem Heinrich Matthaei im Labor von Marshall Nirenberg das Triplett-Prinzip des genetischen Codes entschlüsselte, überhaupt funktionieren konnte. Schließlich gab Matthaei lediglich blitzeblanke Poly-U-RNA-Stränge zur Translation in das ansonsten Zell- und mRNA-freie E. coli-Extrakt — von Startcodons nicht der Hauch einer Spur. Wie konnten ihm danach dann trotzdem fix und fertig translatierte Poly-Phenylalanin-Ketten im Filter hängenbleiben — ganz wie es das Phenylalanin-Triplett UUU vorsieht?

Es dauerte ein Telefonat und noch ein klein wenig länger, bis unser Chefredakteur folgende Antwort zurückmailen konnte:

Biologische Prozesse sind eigentlich immer etwas „fuzzy“ und funktionieren nie hundertprozentig schwarz oder weiß! Das heiß im konkreten Fall, dass die Ribosomen auch RNAs ohne Startcodon transkribieren können — allerdings mit viel schlechterer Affinität und Effizienz. In der Zelle kommt das praktisch nicht vor, da die RNAs mit Startcodon gnadenlos in der Überzahl sind und die Ribosomen aufgrund ihrer starken Affinität immer wieder sofort neu besetzen. Die wenigen RNAs ohne Startcodon sind da völlig chancenlos.

Im Poly U-Experiment von Matthaei dagegen waren überhaupt keine RNAs mit Startcodon vorhanden, dafür aber ein riesiger, völlig unphysiologischer Überschuss an homogener Poly U-RNA. Daher konnten die Ribosomen am Ende trotz der geringeren Affinität aufgrund der fehlenden Konkurrenz durch andere RNAs genügend Poly U-RNA transkribieren — jedenfalls genug, dass Matthaei damit das Triplett-Codon UUU für Phenylalanin nachweisen konnte.

Zudem spielten auch die gegenüber der intakten Zelle stark veränderten physiologischen Bedingungen in Matthaeis Test eine gewisse Rolle — vor allem die Magnesium-Konzentration. Dazu mehr hier: https://tinyurl.com/yalvbdt4.

Ein klein wenig konnte „Freund Google“ am Ende also doch helfen.

Dennoch muss man sich wundern, dass dieses durchaus wichtige „Startcodon-Problem“ bei all den vielen Beschreibungen des Poly-U-Experiments praktisch völlig außer Acht gelassen wird. Zumal man ja mit der „Fuzziness“ — oder auf deutsch: Schlampigkeit — der Translation noch etwas ganz Generelles über biochemische und zellbiologische Prozesse in der Zelle lernen kann.

x

Information 1


Information 2


Information Q1


Information 4Information 4


Information 5


Information Q2


Information 7


Information 8