Schlauer mit Theorie

Archiv: Schöne Biologie

Ralf Neumann


Editorial

Schöne Biologie

Lange Zeit war es prinzipiell leichter, Theorien zu entwickeln, als Daten zu generieren. Einfach, weil man noch keine Methoden hatte, die einem bergeweise Daten ausspuckten. Also versuchte man, vorab eine möglichst plausible Theorie zu formulieren – um sie dann mit oftmals mühsam gesammelten Daten zu testen.

Das ist schon seit einiger Zeit anders: Im Hochdurchsatz und massiv parallel sprudeln die Datenfluten schneller in die Großrechner, als diese sie bisweilen sortieren können. Neue Geräte und Methoden haben es möglich gemacht – und wenn man nicht unbedingt will, geht das Datensammeln auch ganz ohne vorab entwickelte Theorie.

Das war prinzipiell zwar auch früher schon möglich. Dennoch „macht“ man heute mehr denn je zunächst einmal völlig hypothesenfrei Daten. Und die meisten finden das auch gar nicht schlimm. Ihr Credo: Wenn ich genug Daten beisammen habe, werden sie sich schon zu diskreten Mustern zusammenfügen – und die liefern mir am Ende eine Art Gesamtbild. Darüber nachdenken, bevor ich die Daten habe, bringt also nix.

Editorial

Hypothesen-generierende Forschung nennt man das jetzt – im Gegensatz zur guten, alten Hypothesen-basierten Forschung. Obwohl es prinzipiell ja gar nicht so viel anders läuft als früher. Der Unterschied ist nur, dass heute diejenige Seite der „Forschungs-Medaille“, die gewisse Datenwelten überhaupt erst beobachtbar und analysierbar macht, massiv zugenommen hat.

Früher sezierte man beispielsweise ein Tier nach dem anderen, analysierte deren Innenleben – und leitete dann grundlegende Baupläne und Funktionen ab. Auch damals gab es also schon klare Hypothesen-generierende Abschnitte. Heute sammele ich dagegen Komplett-Transkriptome von tausenden von Einzelzellen – und kann dann daraus meine Schlüsse ziehen. Nur muss heute wie damals zwingend Hypothesenbildung auf den Hypothesen-generierenden Abschnitt folgen. Und ferner müssen die Hypothesen explizit getestet werden. Denn wie oft entpuppten sich gerade diejenigen Muster, zu denen sich die einströmenden Datenmassen fast von selbst anordneten, am Ende als „Muster ohne Wert“, weil sie rein gar nichts mit dem wirklichen Leben zu tun hatten.

Wie man stattdessen hypothesenfrei Daten erhebt, um dann aus ihnen mit echter Theoriearbeit ein robustes Modell zu entwickeln – das lehren uns gerade US-Physiker mit einer Studie über die Interaktion von Proteinen und Membranen (Sci. Rep. 9: 451). Wie sie selber schreiben, zogen sie quasi zu einem Angel-Trip los: Ihre Angelrute war ein Rasterkraftmikroskop, als Köder verwendeten sie zwei kurze Peptide – und beides zusammen senkten sie sehr vorsichtig in die Nähe einer künstlichen Doppelmembran oder einer E. coli-Membran. Wenn die Membran den Köder „gebissen“ hatte, maßen sie anschließend die Kraft, die nötig war, um ihn der Membran wieder zu entreißen.

Die Ergebnisse waren überraschend komplex. Mal ging ein und dasselbe Peptid leicht wieder von der Membran ab, mal deutlich schwerer – und hin und wieder kam es zu einem Catch-Bond-Verhalten, bei dem die Interaktion erst einmal umso fester wurde, je stärker die „Angelrute“ zog.

Mit einem einfachen Standardmodell war diese Diversität nicht abzubilden. Also entwickelten die Physiker ein theoretisches Modell, mit dem sie sämtliche gemessenen Daten erklären konnten. Deren Fazit am Ende: Proteine können sich auf vielen verschiedenen Wegen von Membranen ablösen, zwischen denen sie während des Ablöseprozesses rein statistisch durchwechseln. Und tatsächlich konnten die Autoren mit dem Modell auch weitere Protein-Membran-Interaktionen besser voraussagen.

Egal also, wie viele Daten man sammelt – ganz ohne Theoriearbeit wird man offenbar nur begrenzt schlau aus ihnen.



Letzte Änderungen: 08.03.2019