Info

Die Kunst zu rationalisieren

Automatische Analyse von Fluoreszenzmikroskopbildern

editorial_bild

(21. Juni 2012) Fluoreszenzmikroskopie gewährt uns oftmals erstaunliche Einblicke in das Innenleben einzelner Zellen. Qualitativ können dabei entstehende Bilder schon sehr gut ausgewertet werden, die quantitative Analyse dagegen steckt noch in den Kinderschuhen. Das zu ändern, daran arbeitet Daniel Gerlich als Senior Gruppenleiter am Institut für Molekulare Biotechnologie (IMBA) in Wien. Der Systembiologe hat nun eine Methode entwickelt, die Bilder von Zellen eigenständig entsprechend ihrer aktuellen Mitosephase kategorisiert.

Sowohl für qualitative als auch für quantitative Auswertungen benötigt man im ersten Schritt bestimmte Marker, die Strukturen innerhalb der Zelle sichtbar machen. Dazu verwendeten Gerlich, der Informatikdoktorand Qing Zhong vom Institut für Biochemie der ETH Zürich und Co. den Fluoreszenzmarker mCherry, der  zusammen mit dem Histon 2B in HeLa-Zellen exprimiert wird und dadurch das Chromatin innerhalb der Zelle visualisiert (Zhong et al., Nat Methods 2012, doi:10.1038/nmeth.2046 [Epub ahead of print]).

Das nun von Gerlich entwickelte Verfahren basiert auf der Entwicklung des neuen Computeralgorithmus TC3 (temporally constrained combinatorial clustering) und ist in der Lage ganz ohne menschliches Zutun Prozesse in lebenden Zellen zeitabhängig in verschiedene Abschnitte zu unterteilen. In diesem Fall wurde von den Wissenschaftlern nur vorgegeben, dass sechs Mitosephasen (Pro-, Prometa-, Meta-, Ana-, Telo- und Interphase) zu identifizieren sind. Die Bildserien wurden zunächst in Profile mit Kontur- und Texturmerkmalen konvertiert und dann mit Hilfe von TC3 und weiteren „Machine Learning“-Algorithmen in die sechs Phasen unterteilt.

 „TC3 teilt eine Bildsequenz einer Zelle in eine vorgegebene Anzahl von Clustern auf, sodass die Differenzen innerhalb der einzelnen Cluster minimiert werden“, erklärt Gerlich. Die Bilder von Zellen zu bestimmten Zeitpunkten werden hierbei immer im zeitlichen Kontext betrachtet. Da die Analyse vollautomatisch geschieht, bedarf es keinerlei Training des Programms durch den Menschen. Diese personenunabhängige Vorgehensweise stellt einen enormen Fortschritt im Vergleich zu existierenden Verfahren dar. Obwohl bisherige Methoden zwar ebenfalls Bilder automatisch auswerten können, ist dafür anfangs aber immer die Festlegung von charakteristischen Merkmalen durch den Menschen notwendig. Im Fall der Zellteilung ist das auf Grund unseres detaillierten Wissens über den Prozess noch verhältnismäßig einfach.

Schwierig wird es wenn den Forschern die Kenntnisse über bestimmte biologische Vorgänge fehlen oder diese nur sehr lückenhaft sind. In jedem Fall ist die Festlegung der Merkmale mit einem hohen zeitlichen und somit auch finanziellen Aufwand verbunden. Der Wissenschaftler muss dem Computer anhand möglichst vieler Beispiele beibringen, welche charakteristischen Eigenschaften ein bestimmter Prozessabschnitt besitzt. Dazu kommt auch noch, dass diese Einteilung zwischen verschiedenen Personen, und wie Gerlich zeigen konnte auch bei einer einzelnen Person, erheblich variieren kann. Durch TC3 lassen sich solche menschlichen Ungenauigkeiten vermeiden und Daten objektiv erstellen und auswerten. Diese Methode des nicht kontrollierten Lernens (unsupervised learning method) könnte in vielen Forschungslaboren eingesetzt werden und dort die Analyse von Bildmaterial deutlich erleichtern und beschleunigen. „Die Methode kann auf jegliche Art von morphologischen Zellveränderungen angewendet werden, die mittels Lebendzellmikroskopie erfasst werden können“, bestätigt Gerlich. Dazu müssen lediglich geeignete Marker vorhanden sein, die die zu untersuchenden Strukturen sichtbar machen.

Der TC3-Quelltext ist für jeden unter http://www.cellcognition.org/software/tc3/ abrufbar.

 


Stefanie Haas
Bild: ad Rian / photocase.com



Letzte Änderungen: 05.07.2012
© 2009 Laborjournal und F & R Internet Agentur

Diese Website benutzt Cookies. Wenn SIe unsere Website benutzen, stimmen SIe damit unserer Nutzung von Cookies zu. Zur ausführlichen Datenschutzinformation