Editorial

Nützlich, lästig, idealisiert

Mario Rembold


hg_20_11_02a
Illustr.: AdobeStock / cooperr

(11.11.2020) Mathematik und Biologie gehören zusammen – und das nicht erst, seitdem Genomprojekte riesige Datenmengen generieren. Nein, auch weil mathematische Modelle die komplexe Biologie oftmals sinnvoll vereinfachen können. Der Blick über den Tellerrand lohnt sich also.

„Mathematik für Biologen und Mediziner“ – so oder ähnlich heißt manch eine Pflichtveranstaltung der ersten Semester. Nicht für alle Studierenden sind die zugehörigen Vorlesungen, Übungen und Klausuren die reinste Freude. Da mag sich der künftige Entwicklungsbiologe frustriert fragen, warum er mit Integralen und Differenzialgleichungen gequält wird. Oder die angehende Ärztin, die Leben retten und Menschen beim Gesundwerden helfen will und jetzt den Kopf schüttelt, weil sie erstmal mathematische Beweisführung zu beherrschen hat.

Andererseits flirtet die Biologie spätestens seit dem 19. Jahrhundert mit der Mathematik. Mal als schlichtes Werkzeug für die statistische Auswertung – mal, um wunderbar elegante Modelle zu liefern. Und heute, in Omics-Zeiten, ist eine Biologie ohne Mathematik gar nicht vorstellbar. Zwischen Bioinformatik, der Jagd nach kleinen p-Werten und Voraussagen über pharmakologische Effekte neuer Wirkstoffkandidaten sind die Lebenswissenschaften ständig angewiesen auf Input aus der Mathematik. Manchmal, weil es einfach keine Alternative gibt beim Umgang mit der Datenflut, manchmal aber auch, weil die Modellierer echte Wege zum Verständnis biologischer Prinzipien anbieten können. Somit stehen Biologie und Mathematik wohl irgendwo zwischen Liebesheirat und Zwangsehe.

Welche Chancen ein anschauliches Modell bieten kann, zeigte in den 1860er-Jahren ein erbsenzählender Mönch: Ohne irgendetwas über Chromosomen oder gar Gene zu wissen, stellte Gregor Mendel seine drei Regeln zur Vererbung auf. Seine Statistiken zu den Verteilungen der verschiedenen Merkmale in den Folgegenerationen waren verdächtig nahe an den Erwartungswerten, sodass ihm im Nachhinein gar Betrug vorgeworfen wurde. Wahrscheinlich aber hatte Mendel schon vor Beginn der Erbsenstudien einfach eine gute Intuition und unterlag daher einem gewissen Bias bei der Auswertung (mehr hierzu in Science 350: 159-60).

Vereinfachung erwünscht

Wäre Mendel weniger voreingenommen gewesen, hätte er vielleicht schon gekoppelte Merkmale erkannt und somit gewissermaßen die Chromosomen als Träger der Erbmerkmale entdeckt. Doch auch wenn sein Modell sehr simpel gestrickt scheint, so nimmt es doch vorweg, was Zellbiologen und Genetiker erst im Lauf des folgenden Jahrhunderts aufklären sollten: Die Rekombination der Chromosomen während der Meiose und die Existenz vererbbarer Einheiten im Organismus, die in doppelter Ausführung vorliegen (glücklicherweise war sein Modellorganismus nur diploid). Längst kennen wir Transkription, Translation und sind nun gar bei der Epigenetik angelangt. Und doch sind Mendels Regeln noch immer hilfreich. Es scheint also weniger um die Frage zu gehen, ob ein Modell „richtig“ oder „falsch“ ist, sondern was man damit anfangen will.

So gesehen ist Vereinfachung also sogar erwünscht. „Das ist etwas, womit Biologen oft ein Problem haben“, stellt Philipp Messer als Quereinsteiger aus der Physik fest. Denn je näher ein Modell der Realität kommt, desto mehr Annahmen fließen dort ein. Grundprinzipien verschwinden dann hinter der Komplexität – und letztlich braucht man das Modell gar nicht, weil man dann auch gleich direkt ins natürliche System schauen kann. „Genau das ist die ewige Herausforderung“, erklärt Messer und fragt: „Für welche Vorhersagen macht es überhaupt Sinn, einen Spezialfall zu berücksichtigen? Und würde dieser Spezialfall wirklich die grundlegenden Vorhersagen ändern?“

Messer war schon während seines Physik-Studiums an der Uni Köln von der Biologie fasziniert. Nach seiner Doktorarbeit am Berliner Max-Planck-Institut für Molekulare Genetik ging er in die USA und leitet heute eine Arbeitsgruppe am Department of Computational Biology der Cornell University. „Heute sehe ich mich nicht mehr wirklich als Physiker“, blickt Messer auf seinen Lebenslauf zurück, der seit mehr als 15 Jahren von Arbeiten zur Populationsgenetik geprägt ist. „Was ich wohl mitgenommen habe aus der Physik, ist die Denkweise.“

Historisch ist die Mathematik den Biologen gar nicht so fremd, wie man meinen möchte, legt Messer dar: „Die Populationsgenetik fing an als theoretische Wissenschaft.“ Ronald Fisher, Sewall Wright und John Haldane seien „die alten Herren dieser Disziplin“, die mit ihren Modellen zu Allelen in Populationen diploider Organismen wichtige Grundsteine legten. „Das sind Arbeiten aus den Zwanziger-, Dreißiger- und Vierzigerjahren des neunzehnten Jahrhunderts.“

Kaum Überprüfung an der biologischen Realität

Aus den 1920er-Jahren stammen auch die Lotka-Volterra-Gleichungen, die das gegeneinander versetzte periodische Schwanken zwischen Räuber- und Beutepopulationen beschreiben. Bereits 1908 wandte Godfrey Hardy Mendels Überlegungen auf Populationen an (Science 28: 49-50) – und heute gilt das Hardy-Weinberg-Gleichgewicht als Lehrbuchformel, um die Verteilung von Allelen in einer idealisierten Population sowie den Anteil homo- und heterozygoter Individuen zu berechnen.

„Das war alles sehr mathematisch, und es gab kaum eine Überprüfung an der biologischen Realität“, fasst Messer zusammen. Die Siebziger- und Achtzigerjahre seien dann geprägt gewesen durch die sogenannte neutrale Theorie der molekularen Evolution, eingeführt von Motoo Kimura. Hierbei geht man davon aus, dass die meisten Polymorphismen innerhalb einer Population weder vorteilhaft noch nachteilig sind. Mutationen sind also in der Regel neutral. „Allein rein zufällige Schwankungen bewirken, dass der eine Polymorphismus irgendwann verschwindet und ein anderer fixiert wird“, beschreibt Messer die Grundannahme und ergänzt, dass die neutrale Evolution bis vor rund 15 Jahren als das Paradigma der Populationsgenetik galt. „Mit diesem Modell konnte man wunderbar rechnen – doch lange Zeit gab es dazu überhaupt keine Daten!“

Mit der Revolution der Sequenziermethoden hat sich das aber geändert. „Jetzt können wir rausgehen und wirklich mal eintausend Genome aus einer Population sequenzieren“, freut sich Messer. Doch die Gendrift, also die Veränderung der Allelfrequenzen innerhalb einer Population, folgt eben nicht Kimuras Annahmen, wie der Blick auf die biologischen Daten zeigt. „Heute wissen wir, dass es viel komplizierter ist“, so Messer, „ anscheinend wirkt doch viel mehr Selektion, als man gedacht hatte“.

Inzwischen ist sich Messer sicher, dass Evolution nicht bloß ein langfristiger Prozess ist, der über Jahrmillionen stattfindet. „Das kann unheimlich schnell passieren, innerhalb von Tagen oder Wochen“, schlussfolgert er beispielsweise aus Beobachtungen zur Entwicklung von Resistenzen gegen Pestizide oder Antibiotika. Trotzdem sei das neutrale Modell noch immer äußerst hilfreich. „Es ist praktisch unser Nullmodell, mit dem wir Beobachtungen vergleichen können.“

Die interessanten Probleme

Auch Arne Traulsen ist eigentlich Physiker. Er leitet die Abteilung für Evolutionstheorie am Max-Planck-Institut für Evolutionsbiologie in Plön. Offenbar sind es eher Physiker und Mathematiker, die den Weg an ein biologisch ausgerichtetes Institut finden als umgekehrt. „In der Biologie liegen schlichtweg die interessanten Probleme“, erklärt Traulsen.

Traulsens Expertise liegt in der Spieltheorie – einer Disziplin, die sich von jeher nicht um „Genre-Grenzen“ schert. Die Grundidee: Interaktionen zwischen zwei Individuen betrachtet man vereinfacht als ein Spiel. Einer kann gewinnen, der andere verlieren; es können aber auch beide Spieler mit Verlust oder beide mit Gewinn nach Hause gehen. Der Gewinn kann eine Futterressource, ein Paarungspartner oder Geld sein. Und jeder Spieler wählt eine bestimmte Strategie, die zum Beispiel kooperativ oder kompetitiv ist – oder bei mehreren Spielrunden auch nachtragend oder verzeihend sein kann.

Klar, dass sich auch Wirtschaftswissenschaftler und Psychologen in der Spieltheorie austoben. Und selbstverständlich ist das Feld von Mathematik geprägt. Doch da man Strategien auch so modellieren kann, dass sie als Allel codiert sind und sich weitervererben, kann das Spiel auch einfach um Fitness und somit die Anzahl der Nachkommen laufen. Und Nachkommen erben natürlich auch die Strategien ihrer Vorfahren – womit die Spieltheorie letztlich auch bei Evolutionsbiologen und Populationsgenetikern auf Interesse stößt.

Biologen beherrschen experimentelles Design

Nun könnte man die Physiker darum beneiden, dass sie in ihren Versuchen relativ leicht Störfaktoren ausschalten können: Mal eben ein Vakuum herstellen, damit die Luft nicht stört; ein Gas auf knapp über den absoluten Nullpunkt herunterkühlen, um Eigenbewegungen der Teilchen gering zu halten; oder gar den Weltraum als ideales Labor nehmen, wo Objekte frei von Reibung umeinander kreisen oder frei fallen. In der Biologie klappt das natürlich nicht.

hg_20_11_02b
Illustr.: AdobeStock / cooperr

Doch Traulsen stellt klar: „Worin die Biologen extrem gut sind, das ist die Wissenschaft vom experimentellen Design.“ Kontrollversuche, doppelte Verblindung oder Placebogruppen dienen schließlich genau dazu, eine spezielle Variable zu isolieren. „Ein Physiker hingegen lernt im Studium eigentlich nicht wirklich, was eine Kontrolle ist.“

Traulsen legt aber ebenso Wert auf eine gewisse Eigenständigkeit der theoretischen Biologie. Auch wenn ein mathematisches Modell kein echtes biologisches System abbildet oder sich nicht experimentell überprüfen lässt, könne man daraus dennoch Erkenntnisse ableiten. „Man sollte den Mathematiker jetzt nicht stoppen, nur weil er der Biologie nicht mehr dient“, mahnt Traulsen. „Denn Wissenschaft ist mehr, als bloß Aktien zu kaufen, die gerade steigen.“

Wie fundamental eine auf den ersten Blick simple Annahme schließlich sein kann, zeigt die logistische Gleichung. Die hatte der Belgier Pierre François Verhulst 1838 vorgestellt, um das Wachstum menschlicher Populationen zu beschreiben. Diese simple rekursive Folge gibt an, wie man die Populationsgröße der jeweils nächsten Generation berechnet – unter der Annahme, dass es einen Faktor für Reproduktion und Sterben gibt (der nicht kleiner als 1 sein sollte, denn sonst stirbt die Population aus), sowie eine Obergrenze. Je näher die Population an der Obergrenze liegt, desto mehr schrumpft sie in der folgenden Generation.

Eineinhalb Jahrhunderte später kam die Komplexitätsforschung und mit ihr die sogenannte „Chaostheorie“. Und in der logistischen Formel entdeckte man periodische Zyklen und nicht vorhersagbares Verhalten ebenso wie fraktale Strukturen. Über die logistische Gleichung und deren Grenzwerte kann man, verallgemeinert auf komplexe Zahlen, letztlich auch die Mandelbrotmenge erzeugen und das berühmte „Apfelmännchen“ vom Computer zeichnen lassen.

Was mit einer biologischen Fragestellung beginnt, kann also sehr grundlegende Prinzipien vor Augen führen. Traulsen nennt dazu aus seinem Feld den Biomathematiker Josef Hofbauer von der Uni Wien. „Er hat in jungen Jahren gezeigt, dass man die Grundgleichungen der evolutionären Spieltheorie auf die Lotka-Volterra-Gleichungen abbilden kann – dieser Weg funktioniert vorwärts und rückwärts.“ Eine absolut fundamentale Erkenntnis sei das, schwärmt Traulsen. (Mehr dazu gibt es unter anderem im Buch „Evolutionary Games and Population Dynamics“ von Hofbauer und Karl Sigmund.)

Die Beispiele zeigen: Was Theoretiker herausfinden, schwappt auch mal in andere Disziplinen über. Oft aber braucht es seine Zeit, bis die Arbeiten gewürdigt werden. Und manchmal sei es auch einfach schwer, mit einer neuen Idee Gehör zu finden. „Es werden ja nicht immer diejenigen am häufigsten zitiert, die die beste Wissenschaft machen – insbesondere im Vergleich zwischen Disziplinen“, merkt Traulsen an und fordert dazu auf, sich gut zu vernetzen und auch auf Konferenzen auf sich aufmerksam zu machen. „Ein bisschen Promotion gehört dazu!“

Wer liest die Paper?

Wichtig sei es daher, seine Ergebnisse in den richtigen Fachblättern zu publizieren. Wer eine neue Erkenntnis zur Populationsgenetik in einem mathematischen Journal veröffentlicht, erreicht womöglich nicht die richtige Community. Andererseits sei es auch schon mal frustrierend, ein Paper speziell auf eine Zielgruppe hin auszurichten. „Die Biologen zwingen uns oft dazu, wirklich interessante Aspekte in die Supplements auszulagern“, bedauert Traulsen. Und auch innerhalb der eigenen Gemeinschaft der evolutionären Spieltheoretiker stößt nicht jede neue Idee gleich auf Begeisterung. „Gerade weil durch die Interdisziplinarität Erkenntnisse in der einen Disziplin grundlegend sein können, aber aus einer anderen Perspektive eher nebensächlich.“

Traulsen erinnert sich an eine eigene Arbeit, die er 2012 zusammen mit Julián García in PLoS One publizierte (7(4): e35287): „Wir hatten überlegt, wie die übliche Annahme zur Codierung von Mutationen zwischen Strategien spieltheoretische Ergebnisse beeinflusst.“ Anstatt die Veränderung einer Strategie zu einer anderen als rein zufällig anzunehmen, codierten sie einzelne Strategien als Abfolgen von Bits – analog zur Basenfolge einer proteincodierenden Sequenz. „Es ist natürlicher, solche Bits zu mutieren und zum Beispiel Strategie 011 zu 111 zu ändern“, findet Traulsen. Dadurch gibt es aber auch unterschiedliche Wahrscheinlichkeiten für die Mutation zu einer anderen Strategie, je nachdem wie viele Bits ausgetauscht werden müssen. „Ich hatte das damals mit einem Kollegen besprochen, und der meinte, das Paper würde nie jemand zitieren.“ Und tatsächlich sollte die Publikation bis Oktober 2020 auf nur rund ein Dutzend Erwähnungen kommen. Das Modell würde ja eine Grundannahme der evolutionären Spieltheorie in Frage stellen, so Traulsen über die Einwände seines Kollegen. Hier sind wohl andere Modelle einfach populärer, auch wenn sie dabei die mechanistische Basis der Mutationen schlichtweg ausblenden.

Während die Populationsgenetiker und Spieltheoretiker noch immer gern mit Papier und Bleistift oder Tafelbildern arbeiten, wie Philipp Messer und Arne Traulsen bestätigen, scheint die Auswertung genetischer Daten mehr und mehr automatisiert. Gen-Loci mit Phänotypen assoziieren – hier ist doch vor allem Rechenleistung gefragt, sollte man meinen. Doch auch zwischen Genetikern und Züchtungsforschern gibt es Modellierer, die gelegentlich fragen, ob eine Berechnungsmethode verbessert werden könnte.

Die beste Pflanze

Eine solche Arbeit erschien im Herbst 2019 in Genetics (213: 379-94). Die drei Autoren schlagen eine andere Berechnungsmethode für die bestmögliche Vorhersage von Zuchterfolgen vor. Wie man Pflanzenlinien optimal für Kreuzungen auswählt, sollte sich schließlich auch in den Gewinnen von Agrarbetrieben niederschlagen. Erst- und Seniorautor der Arbeit sind die Mathematiker Nicholas Schreck und Martin Schlather von der Uni Mannheim, dazwischen steht der Biostatistiker Hans-Peter Piepho vom Institut für Kulturpflanzenwissenschaften der Uni Hohenheim bei Stuttgart.

„Die Grundannahmen gehen davon aus, dass für ein Merkmal sehr viele Gene im Spiel sind“, erklärt Piepho die modernen Modelle, die folglich nicht mit drei Mendelschen Regeln auskommen. Inzwischen kennt man komplex vernetzte Signalwege und Genexpressions-Dynamiken, doch für die Zucht ist vor allem eine Frage praxisrelevant: Welchen Anteil der Varianz im Phänotyp lässt sich durch Unterschiede in den Genvarianten erklären? Dabei will man die Gene berücksichtigen, deren Effekte sich auf den Phänotyp einfach aufaddieren lassen. Zum Beispiel alle Gene samt deren Allelen, die den Stärkegehalt einer Kulturpflanze mitbestimmen.

Auch wenn man dabei nicht jeden einzelnen Effekt genau kennt: Für Zuchtpflanzen haben sich in den letzten Jahrzehnten jeweils bestimmte Marker etabliert, die wild über die Chromosomen verteilt sind. Zu diesen Markern existieren unterschiedliche Einzelnukleotid-Polymorphismen (SNP), sodass man sie zum Unterscheiden von Genotypen nutzen kann. „Wir tun dabei einfach so, als wäre jeder SNP mit einem Gen gekoppelt“, so Piepho.

Addierte Geneffekte

Als wichtige Kennzahl nennt der Hohenheimer den Zuchtwert einer Linie, der die Qualität des Phänotyps widerspiegelt. „Der Zuchtwert ergibt sich aus der Summe aller additiven Effekte eines Genotyps.“ Da man in der Pflanzenzucht in der Regel reinerbige Linien vorhält und diese zum Beispiel einsetzt, um gezielt bestimmte Hybride zu erzeugen, soll ein geeignetes Modell voraussagen, für welches gewünschte Merkmal welche Kreuzungen die besten Ergebnisse bringen.

Bei den derzeit üblichen Modellen, so beschreibt es Piepho, nehme man den Effekt der jeweiligen Gene als zufällig und normalverteilt an. „Wir haben aber den Spieß umgedreht und sehen die genetischen Effekte als feste Größe an“, erklärt Piepho. „Dafür betrachtet unser Modell indes die Allele eines Gens als zufällig. Und so bekommen wir eine etwas andere Schätzung für die Varianz.“

Innerhalb eines Jahres wurden die Ergebnisse dieser mathematisch-agrarwissenschaftlichen Kooperation jedoch kaum zitiert. Zählt man Manuskripte auf Preprint-Servern mit, kommt man auf nur fünf Erwähnungen. Dabei müsste das neue Modell doch bares Geld wert sein. Piepho sieht das differenzierter: „Das ist erstmal ein Grundlagen-Paper“, betont er. Ein Züchtungsprogramm sei ein komplexes Unterfangen, mit umfangreicher Logistik und einer Pipeline für die Datenanalyse. „Deshalb geht man in der Pflanzenzucht aus gutem Grund konservativ vor und hält erstmal an bewährten Methoden fest“, fährt Piepho fort. „Denn ein Modell muss sich auch in Feldversuchen an unterschiedlichsten Standorten bewähren, und da besteht noch viel Forschungsbedarf.“

In klinischen Disziplinen kommen dagegen vor allem große Genassoziationsstudien auf hohe Zitierzahlen. Und auch hier zielen Forscher insbesondere auf die additiven Effekte einzelner Genvarianten. 108 Genvarianten waren es im Fall von Schizophrenie, die ein Zusammenschluss mehrerer Konsortien und dreihundert Autoren 2014 in Nature vorgestellt hatte (511: 421-7). Mitgeschrieben hatten auch Marcella Rietschel und Josef Frank vom Zentralinstitut für Seelische Gesundheit Mannheim. Rietschel leitet dort die Genetische Epidemiologie in der Psychiatrie, Frank ist hauptverantwortlich für die Statistik in Rietschels Arbeitsgruppe. „Ich sage nichts ohne meinen Biostatistiker“, scherzt die gelernte Psychiaterin und Psychotherapeutin. Dabei betont sie, wie wichtig die interdisziplinäre Zusammenarbeit ist.

Leider werde die Qualität eines Forschers oft daran gemessen, wo der Name auf den Autorenlisten steht, kritisiert Rietschel. „Erste und Letzte bekommen den meisten Ruhm, aber wo bleiben die anderen 600?“ Denn ohne die internationale Vernetzung und die Beiträge vieler unterschiedlicher Experten wie Biostatistiker, Bioinformatiker, Genetiker und Kliniker bekomme man überhaupt nicht ausreichend Daten zusammen geschweige denn vernünftig ausgewertet, um Risikogene bei komplexen Krankheiten wie Schizophrenie oder Depression finden zu können. Auch wenn der Beitrag einzelner in einem riesigen Konsortium gelegentlich untergeht, schätzt Rietschel die internationale Vernetzung, weil man auf kurzem Wege kommuniziere und sich auch gegenseitig bei Problemen helfe.

Signifikanz und Relevanz

Vor ihrer Zeit in Mannheim war Rietschel als Oberärztin in Bonn tätig, und es sei sehr frustrierend gewesen, vielen Patienten kaum helfen zu können. „Da stand ich unter dem Eindruck, dass diese ganzen psychischen Störungen so diffus sind – also dass sich Patienten mit der gleichen Diagnose stark unterscheiden und Patienten mit unterschiedlichen Diagnosen gleiche Symptome haben können. Und dass es keinen einzigen Biomarker für die Diagnostik gibt.“

Inzwischen haben die humangenetischen Projekte aber immerhin einige Zwischenergebnisse gebracht, fasst Rietschel zusammen: „Unter anderem konnten wir tatsächlich zeigen, dass diese psychischen Störungen, die ja noch immer als Erkrankungen des Gehirns gelten, alle genetisch überlappen – die einen mehr, die anderen weniger. Die neurologischen Erkrankungen des Gehirns wie Epilepsie oder Parkinson zeigen dagegen sehr distinkte polygene Strukturen.“

Biostatistiker Josef Frank bestätigt ebenfalls, dass für Auswertungen und Vorhersagen nicht immer das komplizierte Modell das bessere ist. „Wenn wir ein sehr komplexes Modell nehmen, das ganz viele Faktoren einbezieht, und wir vergleichen das mit einem basalen und eingängigen Modell, dann stellen wir regelmäßig fest, dass die wirklich relevanten Effekte bei beiden Modellen herauskommen.“

Wichtig sei, dass bei zwanzigtausend proteincodierenden Sequenzen nicht jede Signifikanz auch für eine Relevanz stehe. „Die Anforderungen an die Signifikanz sind heute viel strenger als in Zeiten der Kandidatengene“, blickt Frank zurück auf die Jahre, in denen fast inflationär neue Gene für Krankheiten beschrieben worden waren. Wenn eine Genvariante mit einem Phänotyp assoziiert ist, sei man heute vorsichtiger. Am Ende helfe nur eines, mahnen Frank und Rietschel: Replizieren, Replizieren, Replizieren!



Letzte Änderungen: 11.11.2020