Editorial

Hypothese Nummer fünf

Ralf Neumann


Schöne Biologie

(12.12.2023) Früher hatte man‘s mehr mit Hypothesen in der Bioforschung. Im Rückblick erscheint das durchaus plausibel. Die experimentellen Methoden standen noch auf deutlich wackligeren Füßen als heute. Das konkrete Vorgehen musste folglich immer wieder neu und kreativ an jede einzelne Fragestellung angepasst werden. Kits und Fertig-Mixturen gab‘s schon gar nicht. Jeder Puffer musste folglich eigens gemischt und viele testrelevante Moleküle erst aufwändig isoliert oder synthetisiert werden. Und auch bei so mancher experimentellen Vorrichtung waren erstmal ein paar Tage Handarbeit angesagt.

Kurzum, es war nicht einfach, Daten zu generieren. Auch aus diesem Grund versuchte man daher zu Beginn eines Forschungsprojekts, zunächst alle relevanten Beobachtungen genauestens zu beschreiben, um daraus plausible Fragestellungen abzuleiten und möglichst testbare Hypothesen zu formulieren. Schließlich durfte der experimentelle Aufwand nicht beliebig ausufern – und sollte dennoch möglichst aussagekräftige Ergebnisse liefern. Hypothesen dienten demnach auch dazu, dass man mit den begrenzten Ressourcen auf die wirklich wichtigen Ergebnisse zielen konnte.

Editorial

Heute läuft es oft anders. Heute stehen der Bioforschung automatisierte Hochdurchsatzverfahren zum Einsammeln unfassbarer Datenmengen zur Verfügung. Das Organisieren, Ordnen und erstes Analysen der Datenfluten liefern die Apparate und Software-Tools dabei meist gleich mit. Oft bereitet Forscher X daher nur noch interessierende Proben vor, steckt sie in die Pipeline, dreht ein paar Knöpfchen und wartet, was hinten rauskommt – um dann über die tiefere Bedeutung des „Outputs“ nachzudenken.

Schnell war damit klar: Sowas geht natürlich auch ganz ohne Vorab-Hypothese. Man nehme beispielsweise einfach eine Probe und schäle mit solchen High-End-Pipelines sämtliche Omik-Daten aus ihr heraus: Genome, Transkriptome, Proteome, Metabolome, Lipidome, ... – alles nicht mehr schwer und auch nicht wirklich teuer.

Was infolgedessen passierte, war, dass der Hypothesen-basierten Forschung ein mächtiges Alternativkonzept an die Seite gestellt wurde. „Technology-driven Research“ wurde es passend genannt. Und um dennoch die Verbindung zu den guten, alten Hypothesen herzustellen, klebte man ihr das Etikett „Hypothesen-generierende Forschung“ gleich mit auf. Was ja nicht falsch ist, denn schließlich machen die „omikschen“ Datenberge lediglich bisher verborgenes Beobachtungsmaterial zugänglich und beschreibbar. Und daraus kann man wieder frische Fragen ableiten und neue Hypothesen formulieren.

Logischerweise aber dient die heutige Methodenmacht keineswegs nur dem Entwickeln neuer Hypothesen. Im Gegenteil, gerade angesichts lange liegengebliebener Hypothesen eröffnet sich manch neue Möglichkeit. Ein schönes Beispiel liefert etwa die Frage, wie aus der bilateralsymmetrischen Seestern-Larve das fünfstrahlig radiärsymmetrische Adulttier wird. Seit Jahrzehnten konkurrieren gleich vier Hypothesen um die Erklärung: Bifurkations-, Zirkularisations-, Duplikations- und Stapel-Hypothese. Wie sie jeweils den Symmetrieübergang erklären, kann man an den Namen erahnen. Doch auch nur eine davon robust zu testen, entzog sich bislang allen methodischen Tricks. Bis jetzt US-Forscher mit einer neuen Methode räumlicher Transkriptomik im Seestern die zeitlichen Aktivitäten nahezu aller Transkriptionsfaktoren aufzeichnen konnten, die die Entwicklung tierischer Körperpläne quasi ubiquitär mitsteuern (Nature, doi.org/k432). Und ohne auf die vielen Details einzugehen: Das räumlich-zeitliche Aktivitätsmuster dieser gesamten „Vorne-hinten-rechts-links-oben-unten“-Faktoren ist mit allen vier Hypothesen komplett inkompatibel.

Alle Hypothesen falsifiziert! Was in der Wissenschaft ja öfter passiert. Hypothese Nummer fünf wird mit den neuen Beobachtungen sicher umso robuster. Wodurch sich der Vierfach-Hypothesentest zugleich als Hypothesen-generierend entpuppt hat.

Weitere Beiträge aus der Rubrik "Schöne Biologie" finden Sie hier.