Editorial

Die Zukunft der personalisierten Medizin

(24.08.2021) Biobanken gibt es schon lange. Ihre Bedeutung hat sich jedoch durch den präventiven Gedanken der personalisierten Medizin gewandelt.
editorial_bild

Was hat Biobanking mit persona­lisierter Medizin zu tun? Gerade in der Onkologie werden Therapie­schemata zum Teil entsprechend individueller molekularer Tumor-Charak­teristika geplant. Ein bekanntes Beispiel ist die Antihormon­rezeptor-Therapie beim Mamma­karzinom. Die Erforschung individueller Tumormarker oder Resistenz-Gene gegen Therapeutika wird diesen Trend in Zukunft weiter bestimmen.

Biobanken liefern eine Vielzahl an Gewebe­proben, die von unterschied­lichsten Patienten mit Erkrankungen in verschiedenen Stadien stammen. Werden diese im Hinblick auf deren Biomarker-Expression analysiert und die pseudo­nymisierten Patienten­daten damit in Verbindung gebracht, etwa bezüglich Anamnese, Therapie und Outcome, lassen sich Rückschlüsse auf die Wirksamkeit von Therapien ziehen – oder abhängig vom Biomarker-Status neue Therapie­ansätze finden. Die gegen­wärtigen, mit Unikliniken verknüpften Biobanken sammeln Gewebe­proben jedoch meist nur für den eigenen Gebrauch und geben nur wenige Proben nach außen. In Deutschland existiert derzeit nur eine offene Biobank, entsprechend rar sind Gewebe­proben für die Forschung, sowohl in öffentlichen Instituten wie in der Industrie. Um mithilfe konservierter Gewebe­proben die personalisierte Medizin weiter voranzutreiben, riefen wir ein Kooperations-Projekt für eine offene Biobank ins Leben. Diese soll sowohl einen medizinischen Mehrwert liefern, als auch den Patienten mehr in den Mittelpunkt rücken. Erste Voraus­setzung für ihren Betrieb ist ein genehmigter Ethikantrag. Zusätzlich sind aber auch zahlreiche sogenannte Standard­arbeitsanweisungen (SOPs) nötig, da verschiedene Probentypen mit unterschied­lichen Anforderungen eingelagert werden müssen.

Editorial

Werden frühzeitig genügend Patienten­daten gesammelt, lassen sich mit diesen Vorhersagen für die nächsten fünf bis zehn Jahre treffen. Ein Beispiel hierfür ist das SepsisDataNet, bei dem Patienten anhand verschiedener Biomarker in Risiko­gruppen für den Verlauf einer Sepsis eingeteilt werden, um die Therapie entsprechend anpassen zu können. Die Daten der offenen Biobank sollen nicht nur kurativ, sondern auch prospektiv im sogenannten Predictive Support eingesetzt werden, um beispielsweise ein onkologisches Rezidiv vorherzusagen. Besonders wichtig ist es, die Patienten­geschichte im Datenverlauf möglichst vollständig abzudecken, also auch Outcomes nach einer Therapie zu dokumentieren, um daraus Rückschlüsse für andere Patienten mit ähnlichen Parametern ziehen zu können.

Bereits heute verwendet man künstliche Intelligenz, um die gespeicherten Daten den eingelagerten Proben und deren Verwendung zuzuordnen – etwa beim sogenannten Septin-9-Test, mit dem man von absterbenden Tumorzellen freigesetzte zellfreie DNA im Blut nachweist, um ein Rezidiv bei Kolorektal­karzinomen zu erkennen. Die Biomarker-Untersuchung erfolgt zeitnah und schnell, um die Diagnose für die Patienten möglichst rasch abzusichern. Auch bei einer Blutvergiftung lässt sich anhand von Daten, die innerhalb der ersten 24 Stunden nach der Einlieferung erfasst wurden, bereits mit einer 83-prozentigen Wahrschein­lichkeit vorhersagen, welche Patienten die folgenden dreißig Tage überleben werden.

Lange Zeit war man der Auffassung, dass die erforderlichen molekularen Untersuchungen trotz eingeschränkter Proben­qualität funktionieren – solange die hierzu eingesetzten Technologien ausgefeilt genug sind. Hier hat sich jedoch ein Paradigmen­wechsel vollzogen: Nur eine optimale Proben­qualität einschließlich eindeutiger Dokumentation führt auch zu einem optimalen Analyse­ergebnis. Durch technische Neuent­wicklungen, wie zum Beispiel Next Generation Sequencing und Laser Capture Microdissection, die es erlauben, mit recht kleinen Probenmengen hochkomplexe Analysen durchzuführen, wurde die molekulare Analytik deutlich verbessert. Die für diese Methoden benötigte hohe Qualität und Reinheit des Proben­materials beziehungs­weise der Gewebe­proben wird durch viele Faktoren bestimmt. So können aus einem während der Operation entnommenen Tumor mehrere unterschiedliche Proben präpariert werden. Abhängig von Operation und Tumor ist aber oft nicht ausreichend Gewebe für eine Frischgewebe-Probe vorhanden. In den meisten Fällen wird daher nur ein Teil des Gewebes mit Formalin fixiert sowie in Paraffin eingebettet (FFPE-Block) und zusätzlich ein per Hämatoxylin-Eosin-Färbung behandelter Schnitt mit der Lokalisation des Tumors versehen und eingelagert.

Je nach Verwendungs­zweck und geplanten Analysen müssen Aufbereitung beziehungs­weise Fixierung und Lagerung unterschiedlich erfolgen, um eine gute Proben­qualität sicherzu­stellen. Wichtig ist eine zeitnahe, reprodu­zierbare und hochreine Proben-Asservierung, die den Status quo des biologischen Gewebe­zustandes zur Entnahmezeit möglichst physiologisch konserviert. Nur so ist gewährleistet, dass sensible Molekül­strukturen erhalten bleiben, die für das Untersuchungs­ergebnis entscheidend sind.

Die Zeitspanne zwischen der Isolierung der Gewebeprobe und der (Kryo-)Konservierung wirkt sich ebenfalls stark auf die Proben­qualität aus. Die kalte und warme Ischämiezeit sollte aus diesem Grund ebenfalls in den Probendaten dokumentiert werden. Damit die sehr empfindliche mRNA der Proben möglichst intakt bleibt, um beispielsweise eine Genexpres­sionsanalyse durchführen zu können, muss der Ablauf von Operation und Proben­entnahme klar geregelt sein. Der Chirurg spielt hier eine zentrale Rolle, da die in den SOPs festgelegten Ischämiezeiten eingehalten und das Material schnellst­möglich entweder in Stickstoff oder in die Stabilisierungs­lösung RNAlater verbracht werden muss. Hier kommt es also sehr auf die Disziplin und Schulung des Personals an. Nur wenn die erforderliche Probenqualität gewonnen wird und keine histologisch relevanten Strukturen beeinträchtigt werden, ist eine korrekte Tumor­analytik möglich. Auch die Zusammen­arbeit mit der Pathologie ist essenziell für die morpho­logische Qualitäts­kontrolle. Gewebe­proben, die aus nekrotischem statt aus normalem Tumorgewebe stammen, führen bei der Auswertung schnell zu falschen Ergebnissen.

Konventionell werden für die Proben­lagerung Gefriertruhen eingesetzt, in denen Proben häufig in RNase- und DNase-freien Spezial-Mikroreaktions­gefäßen aller möglichen Größen eingelagert werden. Bei Ein- oder Auslagerungs­vorgängen werden daher immer mehrere Proben einer veränderten Umgebungs­temperatur ausgesetzt, wenn die entsprechende Lagerungs­fraktion bei diesem Prozess bewegt wird. In häufiger geöffneten Lagerorten verhindern vorgelabelte Gefäße, dass sich Beschriftungen durch wiederholtes Auftauen oder erhöhte Luft­feuchtigkeit ablösen. Hierzu ist ein einheitliches System zur Beschriftung nötig, das mit der strukturierten Daten­speicherung harmoniert. Die zahlreichen Öffnungs- und Schließ­vorgänge haben aber auch einen beträchtlichen Einfluss auf die Proben­qualität. Um eine dauerhafte Wärme­exposition zu vermeiden, ist ein automatisiertes System notwendig, das Einzelproben in einem temperierten Umfeld, in und aus strukturierten Lager­formaten bewegen kann. Die vollauto­matisierte Stickstoff-Lagerung bei Temperaturen unter -130 °C nach dem Cherry-Picking-Prinzip ist bereits heute möglich. Bei dieser lagert ein vollauto­matisierter Roboterarm einzelne, definierte Proben ein und aus, ohne andere Proben zu bewegen und der Umgebungs­wärme auszusetzen.

Die Verwaltung der Lager­positionen übernimmt ein Biobank-Informations- und-Management-System (BIMS), das eine ungeordnete Lagerung der Proben verhindert. Ein sogenanntes Black-Box-Verfahren mit einer eindeutigen Zuordnung per 2D-Code auf den Kryoröhrchen reicht hier aus, da die Lagerung an einer Zielposition durch die automatisierten Lager übernommen wird. Die Automa­tisierung sorgt zudem dafür, dass Mitarbeiter nicht mit flüssigem Stickstoff in Kontakt kommen.

Auch das Daten­management ist elementar wichtig, um die in der Biobank lagernden Gewebe­proben optimal nutzen zu können. Denn was hilft eine perfekt entnommene und konservierte Probe, wenn die entscheidenden Fragen unklar sind: Woher stammt die Probe? Wie wurde sie entnommen? Wurde sie bereits mehrfach aufgetaut – und damit empfindliche Moleküle potenziell zerstört?

Am Institut für Pathologie Viersen, das Enrico Pelz leitet, werden Gewebe­proben für zehn Jahre verwaltet und danach vernichtet. Gegenwärtig pflegt es Proben von 1.200 bis 1.600 Brustkrebs­neuerkrankungen pro Jahr. Um sicherzustellen, dass das Outcome einer Therapie der entsprechenden Probe zugeordnet werden kann, ist eine Vernetzung mit Datenbanken des Landes, zum Beispiel Krebs- und Sterberegister, ebenso notwendig wie die Nachverfolgung. Die Proben werden pseudo­nymisiert und sind nicht re-identifizierbar. Auch die Möglichkeit der Spender, die Einwilligung zu widerrufen und die Proben und Daten uneingeschränkt vernichten zu lassen, muss gewahrt bleiben. Die vollständige Anony­misierung ist aufgrund der fortlaufend entstehenden medizinischen Daten und Forschungs­ergebnisse nicht praktikabel. Mit ihr ließe sich beispielsweise ein positives oder negatives Therapie-Outcome nicht mit den dazugehörigen Biomarkern verknüpfen. Die Rück­auflösung des Pseudonyms auf einen primären Identifikator darf aber nur durch einen Treuhänder und in Kombination mit medizinischem Fachpersonal erfolgen.

Neben der Diagnose zählen zu den wichtigen Daten auch das Alter und Geschlecht der Patienten sowie die prä- und intraoperative Medikation. Bei Tumorgewebe sind unter anderem das TNM-Stadium, mit dem das Fortschreiten des Tumors bewertet wird, das Grading des Tumors, das klinische Tumorstadium sowie Daten zu bereits durchgeführten Therapien zu dokumentieren. Neben diesen krankheits­spezifischen Daten sind auch Informationen, die den Zustand und die Qualität der Probe näher charakterisieren, von großem Interesse. Zu diesen gehören die Dokumentation der kalten Ischämiezeit, die Art der Lagerung – und im Falle einer Gewebe­probe ein histolo­gisches Bild zur Dokumentation des eingelagerten Gewebes. Außerdem sollten zusätzliche Daten wie zum Beispiel die Anzahl der Auftauzyklen und die Temperatur­dokumentation mit der Probe verbunden sein.

Die wichtigste verknüpfte Information, die auch in einem Verwaltungs­system sicher und reproduzierbar hinterlegt und einsehbar sein muss, ist der Status der Einwilligung in die Forschung mit der Gewebeprobe. Hier sind unter­schiedliche Stufen und Alternativen möglich, etwa ein Ausschluss von Industrie­forschung. Diese Einwilligungen sollten möglichst weitreichend gefasst sein, um auch zukünftige Forschungs­fragen abdecken zu können.

Die lückenlose Dokumentation erfolgt über einen sogenannten Audit-Trail, der jede Erstellung, Änderung und Löschung von Informationen festhält – etwa das Datum, die Uhrzeit, den Datenpunkt, den Benutzer sowie die geänderten Werte. Sinnvoller­weise könnte die Software einer automa­tisierten Biobank gleichzeitig wichtige Informationen wie die Temperatur der Proben erfassen und dokumentieren. Die Dokumentation der Daten sollte standardisiert sein, damit sie international vergleichbar ist, etwa in der Erforschung seltener Erkrankungen. Es ist zum Beispiel einfacher, aus stark strukturierten Daten im Anschluss wieder schwach strukturierte herzustellen, etwa einen Arztbrief, als umgekehrt. Die Daten sollten also möglichst wenig über Freitext-Felder dokumentiert werden und zur Fehler­vermeidung bei der manuellen Dokumentation direkt aus den vorhandenen Primär­systemen der klinischen Versorgung stammen.

Auch wenn Krankenhaus­informations- und Laborsysteme weiter benötigt werden, müssen alle Daten­management-Systeme über geeignete Schnittstellen in das Biobank-Informations-Management-System (BIMS) integriert werden. Wo noch keine sinnvolle Daten­erfassung stattfindet, kann ein entsprechendes Software­system eingerichtet werden. Das Universitäts­klinikum der Ruhr-Universität Bochum ist zum Beispiel auf mehrere Standorte verteilt, entsprechend müssen die Daten von insgesamt acht Kliniken vereint werden. Die hierfür nötige Dachstrategie zur Datenerhebung wird von dem Anbieter von Biobanking- und Studien­management-Software KAIROS entwickelt.

Die Organisation einer Biobank ist aufgrund der vielen beteiligten Parteien sehr komplex. Um allen Anforderungen gerecht zu werden, wollen sich die vier Initiatoren der offenen Biobank mindestens alle drei Monate zusammenfinden, um ihre Biobank-Strategie an aktuelle Gegebenheiten anzupassen. Aber auch schon vor Inbetrieb­nahme müssen sowohl ein positives Ethik-Votum der zuständigen Ethik-Kommission als auch eine positive Stellungnahme durch den zuständigen Datenschutz­beauftragten vorliegen. Natürlich muss auch feststehen, welche Zuständigkeiten bei welchem der beteiligten Partner liegen, wie die Verbindung zu bestehenden Strukturen abläuft und wie das Nutzungs­konzept aussieht. Letzteres regelt, welche Proben primär gesammelt werden und wie der Turnover optimal umgesetzt wird. Ein Vergabe­gremium entscheidet über die Priorisierung der Sammlung und die Vergabe von Proben an Studien- beziehungsweise Arbeitsgruppen.

Trotz aller Bürokratie kann zentral organisiertes Biobanking zu einer wesentlichen Verbesserung der Probenqualität und damit beschleunigter translationaler Forschung führen. Der Aufbau einer hochwertigen Biobank, die Proben in höchster biologischer Qualität mit reprodu­zierbaren und validierten Daten annotiert vorhält, wird in den nächsten Jahrzehnten einen Standortvorteil für die Biomarker­forschung und die Forschung in der personalisierten, zielgerichteten Medizin darstellen. Das Kompetenzteam sieht in der offenen Biobank auch eine interessante Plattform für die pharmazeutische Forschung. Mit Spannung blickt es auf zukünftige molekular­pathologische beziehungsweise molekular­biologische Untersuchungen, die bei der arrows biomedical Deutschland GmbH im Rahmen einer Kooperation bearbeitet werden können.

Momentan liegen Probendaten meist noch isoliert an verschiedenen Stellen. Die offene Biobank soll ihre systematische Speicherung und Analyse ermöglichen und damit den Sprung von einer kurativen allgemeinen Behandlung zu einer präventiven individualisierten Therapie beschleunigen. Ihr Ziel ist nicht, den Arzt zu ersetzen, sondern ihn bei seinen Entscheidungen auf dem Weg zur idealen Diagnostik und Therapie zu unterstützen (decision support) – was angesichts komplexer Daten, komplizierter biologischer Systeme und ständig neuer Erkenntnisse dringend geboten ist.

Zusätzlich ließe sich der Datenpool für neue pharmazeutische Entwicklungen nutzen. Liegen bereits Einverständnis­erklärungen für den Einsatz des Gewebematerials zu Forschungs­zwecken vor, ist es beispielsweise einfacher, klinische Studien durchzuführen und ihre Ergebnisse zu publizieren. Das Institut für Pathologie Viersen führt anhand solcher Daten zusammen mit der Westdeutschen Studiengruppe regelmäßig Multivarianz­analysen von bis zu 900 Genen durch. Mithilfe der offenen Biobank können auch weitere privat geführte Institute in die Grundlagen­forschung integriert werden und Ergebnisse kurzfristig veröffentlichen – bei einer Untersuchung von 119 Genen geschah dies beispielsweise innerhalb von neun Monaten beim Meeting der American Society of Clinical Oncology (ASCO).

Die gesammelten Daten unabhängig von Richt- und Leitlinien personalisiert zu nutzen, ist das Ziel der offenen Biobank. Übliche Therapie-Leitlinien sind nicht individualisiert, sondern geben nur generalisierte Empfehlungen für die Therapie. Traditionell beginnt der Arzt bei einer Krebstherapie erst über eine individuellere Therapie nachzudenken, wenn ein Tumor metastasiert und die Erstlinien­therapie versagt hat. Auch in der Erstlinie kann sich jedoch eine Therapie abseits des Standards lohnen. Wir haben die Vision, dass sich aus den Daten der offenen Biobank zukünftig neue Therapie­optionen generieren lassen, die gerade die überarbeiteten Onkologen bei der Auswahl einer möglichst erfolg­versprechenden Therapie unterstützen können. Viele Patienten sterben, überspitzt formuliert, aufgrund von Datenschutz­bestimmungen, Untätigkeit sowie der Ansicht, man habe etwas schon immer so gemacht. Daher wollen wir Kliniker, Pathologen und Experten aus der Molekular­analytik zusammenführen, um die großen Potenziale ihrer Daten und Auswertungen Sektor-übergreifend nutzbar zu machen.

Da Patienten Informationen zu Therapien sehr leicht online finden, fragen sie im Rahmen der Nach­betreuung immer häufiger nach personalisierter, zielgerichteter Medizin und Off-Label-Therapien. Es ergibt sich also auch hier eine interessante Perspektive für Patienten, die sich aktuell in der Versorgung befinden. Mithilfe eines großen Datenpools könnte etwa überprüft werden, wie die Behandlung bei vergleichbaren Patienten ablief und welche Therapie­optionen beispielsweise das Outcome verbessert haben.

Weitere detaillierte Informationen zum Thema Biobanking finden Sie auch in der zweiten Auflage des Lehrbuchs „Immunoassays – ergänzende Methoden, Troubleshooting, regulatorische Anforderungen“ von Arnold Maria Raem und Peter Rauch (Springer-Verlag Heidelberg), das bald als Paperback & eBook in einer deutschen und englischen Version erscheinen wird.

Zu den Autoren
Günther Winde ist Direktor der Universitätsklinik für Allgemein- und Viszeralchirurgie, Thoraxchirurgie und Proktologie am Klinikum Herford, Ruhr-Universität Bochum.

Enrico Pelz ist Pathologe und leitet das 1994 von ihm gegründete Institut für Pathologie Viersen.

Christian Stephan ist IT-Leiter (CIO) von KAIROS, einem Anbieter für Biobanking- und Studienmanagment-Software. Er habilitierte in Bioinformatik an der Heinrich-Heine-Universität Düsseldorf und war Abteilungsleiter für Bioinformatik/Biostatistik am Medizinischen Proteom-Center der Ruhr-Universität Bochum.

Arnold M. Raem ist promovierter Biochemiker und Gründer sowie Geschäftsführer der arrows biomedical Deutschland GmbH, Fachlabor für Molekularpathologie, Hämatopathologie & Tumorgenetik im Centrum für Nanotechnologie der Westfälischen Wilhelms-Universität Münster.

Bild: AdobeStock/fran_kie

Dieser Essay erschien zuerst in Laborjournal 7/8-2021.


Weitere Essays aus früheren Laborjournal-Ausgaben:


- Verlorene Sterne und erfundene Zielscheiben (von Bettina Bert, Berlin)

Warum gute Wissenschaft und guter Tierschutz zusammengehören.

- Wie obskure Algenproteine zu den Lieblingen von Neurowissenschaftlern avancierten (von Georg Nagel, Würzburg)

Die Optogenetik wurde 2010 von Nature Methods als „Methode des Jahres“ auserkoren. Bis sie ihren Siegeszug antreten konnte, war aber jede Menge zäher Laborarbeit nötig. Und wer viel arbeitet, macht hin und wieder auch Klonierungsfehler.

- Präklinische Wirksamkeit? Wen schert’s! (von Daniel Strech, Berlin)

Als Professor für Medizinethik durfte Daniel Strech mit seinen Kollegen kürzlich einen Blick in die Antragsdokumente für frühe klinische Forschung werfen – und stellte dabei Erstaunliches fest: Sicherheit und Wirksamkeit scheinen niemanden zu kümmern.

 

 



Letzte Änderungen: 24.08.2021