„Der Medizinbetrieb ist zu unbeweglich“

(02.08.2022) Zwanzig Jahre nach dem Human­genom-Projekt sprach Laborjournal mit einem seiner Pioniere – Hans Lehrach, Emeritus des MPIs für Molekulare Genetik.
editorial_bild

Editorial

Das vollständige humane Genom wurde im März 2022 veröffentlicht. Dabei hieß es doch schon vor zwanzig Jahren, es sei „entschlüsselt“. Wofür waren weitere zwei Jahrzehnte nötig?
Hans Lehrach: Signifikante Teile des Genoms blieben damals mit der Sanger-Sequenzierung völlig unanalysierbar. Für Regionen mit vielen Repeats, wie zum Beispiel den Millionen Basenpaaren langen Satelliten­sequenzen nicht-codierender Genomabschnitte, mussten erst Sequenzierungs­methoden entwickelt werden, die Hunderte Kilobasen am Stück durchlesen wie zum Beispiel die Nanoporen-Technologie. Erst dank ihnen sind jetzt einzelne Chromosomen von Ende zu Ende sequenziert.

Wenn Sie auf das Humangenom-Projekt zurückblicken, hätten Sie etwas anders gemacht?
Lehrach: Vieles. [lacht] Zum einen war ich überrascht, dass Genom­sequenzierungen schließlich nicht mit neuartigen Techniken und ein paar Doktoranden durchgeführt wurden, sondern mit recht einfachen Technologien, aber großem personellen und materiellen Aufwand. Vor allem aber habe ich die starke politische Komponente unterschätzt. Als ich 1978 versuchte, das EMBL in Heidelberg zu überzeugen, als erstes Genomzentrum E. coli zu sequenzieren, waren die meisten meiner Kollegen nicht interessiert.

Editorial

Weshalb Sie 1987 die Leitung der Abteilung Genomanalyse beim Imperial Cancer Research Fund in London übernahmen?
Lehrach: Auch damals wurde in Deutschland die Idee, das menschliche Genom zu sequenzieren, noch immer nur von wenigen diskutiert. Ich dachte, jedem sei klar, dass wir derartige Grundlagen­daten brauchen. Ein Großteil der wissenschaftlichen Community sah das aber anders.

Mit welchen Argumenten?
Lehrach: Als das Genomprojekt in Deutschland vom enorm vorausschauenden BMBF unterstützt wurde, schrieben etliche Spitzen­wissenschaftler ans Ministerium und erklärten, das sei nur eine stupide Arbeit. Deutschland solle lieber in intelligente Forschung wie die Zellbiologie investieren. Wenn wir aus politischen Gründen am Humangenom-Projekt mitmachen müssten, sollten wir Geld an ein US-Genomzentrum überweisen und uns vom Genom-Projekt freikaufen.

Im Nachhinein ein merkwürdiger Vorschlag gerade in Anbetracht der Corona-Pandemie. Wann erkannten Sie selbst, wie wichtig umfassende Genomdaten sind?
Lehrach: Eigentlich schon Ende der Siebzigerjahre als wir noch die Sequenzierungs­methoden nach Maxam-Gilbert und Sanger einsetzten. Nach der Jahrtausendwende begannen wir dann ernsthaft, Patienten auf Basis ihrer Genom- und Transkriptomdaten zu modellieren. Denn jedes Jahr sterben in Europa fast 200.000 Menschen an Nebenwirkungen ihrer Medikamente, die sich durch eine detaillierte molekulare Analyse voraussagen lassen. Dieses Problem muss die Medizin unbedingt lösen.

Für derartige Voraussagen sind ja mehr als nur Genomdaten nötig …
Lehrach: Weshalb ich mit George Church, Marie-Laure Yaspo und anderen in Berlin das Krebsdiagnostik-Unternehmen Alacris Theranostics gegründet habe, das Next-Generation-Sequenzierung mit Systembiologie und modernster Bioinformatik kombiniert. Das Kernprodukt von Alacris ist die meines Wissens umfassendste, kommerziell verfügbare Analyse von Krebspatienten und darauf aufbauend ein einzigartiges Computermodell namens ModCell – der erste Schritt zu einem „digitalen Zwilling“ von Patienten.

Editorial

Was sicher mehr als eine reine Datenbank ist. Wie funktioniert es?
Lehrach: Abhängig von Krankheits­bereich und Therapieform enthielte ein digitaler Zwilling unterschiedliche Komponenten. Bei Immuntherapien spielen ja immunologisch wirksame Zellpopulationen die entscheidende Rolle, bei neurodege­nerativen Erkrankungen Aspekte des Nervensystems, bei Herz-Kreislauf-Erkrankungen die Modellierung des Herzens und der Blutzirkulation. In der Krebstherapie müssen wir wiederum die Reaktion heterogener Tumore auf Medikamente modellieren. Wir müssen charakterisieren, wie ein bestimmter Patient Medikamente metabolisiert, ob sie infolge des jeweiligen Genoms überhaupt aktiviert werden oder inakzeptable Nebenwirkungen in wichtigen Zelltypen hervorrufen; und ebenso, wie sein Darmmikrobiom Medikamente modifiziert, abbaut oder aktiviert. Diese biochemischen Daten zu Zellpopulationen und Signalwegen vereinen wir mithilfe objekt­orientierter Programmier­sprachen wie Python zu Modellen aus Differential­gleichungen, die numerisch gelöst werden können, um Voraussagen zu treffen – übrigens nicht nur für schwere Krankheiten wie Krebs, sondern auch um Wege zu entwickeln, Krankheiten zu vermeiden und die gesunde Lebensspanne zu verlängern.

Schaut sich Alacris dafür Einzelnukleotid-Polymorphismen an oder komplette Genome?
Lehrach: Es reicht nicht aus, nur nach den SNPs häufiger Genvarianten zu schauen. Der Großteil der Krebspatienten hat seltene Änderungen im Genom ihres Tumors, auf die man nur schlecht gezielt testen kann. Zusätzlich kann ein rezessives Tumor-Gen ebenso leicht durch epigenetische Modifikationen wie Methylierungen seines Promotors ausgeschaltet sein. Deshalb sequenzieren wir bei Alacris den gesamten Protein-codierenden Bereich des Tumor-Genoms sowie sein Transkriptom.

Was sind die wissenschaftlichen Flaschenhälse bei all dem?
Lehrach: Der Mangel an kinetischen Daten. Oftmals sind sie völlig unbekannt oder in Labor­experimenten unter nicht-physiologischen Bedingungen gemessen worden. Wir müssen sie also durch eine Parametri­sierungs-Strategie bestimmen, was viele Daten, große Rechen­kapazitäten und Zeit braucht. Unser Flaschenhals ist es also, an Trainingsdaten Parametersätze zu identifizieren, die Testdaten richtig voraussagen.

Welche maschinellen Lern-Algorithmen setzt Alacris dafür ein?
Lehrach: Maschinelle Lernstrategien suchen meist nur nach Korrelationen. Korrelationen wie die zwischen Storchpopulationen und Geburtenraten existieren, sind aber – außer bei Storchenbabys – offensichtlich nicht kausal und daher nicht nützlich. Mechanistische Modelle bringen für die Krebsdiagnostik dagegen drei enorme Vorteile mit sich: Sie sind erklärbar. Wir können sehen, warum eine Voraussage gemacht wird. Schließlich könnten falsche Voraussagen Patienten schaden. Sie sind kausal. Wir können sehen, was sich am Modell ändert, wenn sich zum Beispiel eine Genomsequenz ändert. Und sie sind genügsam. Wir brauchen viel weniger Information, um ein Modell zu parametrisieren, als ein Deep-Learning-Netzwerk zu trainieren.

Im Endeffekt individualisiert Alacris also bestimmte Therapien für den Einzelfall. Wie skalierbar ist das?
Lehrach: ModCell soll unter etablierten Therapien die Medikamente mit der besten Wirkung und den geringsten Nebenwirkungen für den jeweiligen digitalen Zwilling finden. Klinische Versuche macht das zwar nicht überflüssig, aber sie können auf einem höheren Niveau einsetzen und zum Beispiel die Behandlungs­erfolge nach ModCells Voraussagen mit alternativen Behandlungs­strategien vergleichen.

Wie oft wird derartige personalisierte Medizin bereits am Patientenbett umgesetzt?
Lehrach: Eher schlecht als recht. Eigentlich sollte von jedem Krebspatienten direkt zu Anfang Patienten-Exom, Tumor-Exom und Tumor-Transkriptom analysiert werden, um zu sehen, ob ein Tumor mit mechanistischen Medikamenten nicht effektiver und nebenwirkungs­ärmer als durch eine Standard-Chemotherapie behandelt werden kann. Leider ist das völlig unüblich. Oft werden nur ein paar Tumor-assoziierte Kandidaten-Gene oder Gen-Panels auf DNA-Niveau auf Mutationen gecheckt. Seltene Genvarianten und epigenetische Effekte berücksichtigt das nicht.

Warum sind Tiefenanalysen nicht schon längst Routine?
Lehrach: Weil sich die Ökosysteme im Medizinbetrieb nur langsam an technische Neuerungen anpassen. Ärzte fühlen sich von den enormen Mengen an Genom­information überfordert. Stakeholder wollen im Vorfeld wissen, wie sich neue Verfahren finanziell auswirken. Lieber setzen sie weniger leistungsfähige Verfahren ein, nur weil sie schon existieren und sie selbst daran verdienen. Zwar wollen Initiativen wie der „Gesetzesentwurf zur Weiter­entwicklung der Gesundheits­versorgung“ Tumorgewebe regulär mittels Genom­sequenzierung analysieren lassen, doch welche Labore diese Analysen finanziert bekommen, wird nicht sachlich anhand von Kosten-Nutzen-Überlegungen, sondern politisch entschieden: Unizentren sollen sie durchführen, die vielleicht weder Erfahrung noch Interesse daran haben.

Apropos Profit: Sobald Alacris‘ Computermodell andere als die Standard-Medikamente für bestimmte Indikationen als wirksamer erachtet, resultieren finanzielle Einbußen für die Hersteller …
Lehrach: Nein, das Gegenteil ist der Fall. Unsere Modellierungs­verfahren suchen nicht nur nach optimalen Medikamenten, sondern machen auch die Medikamenten­entwicklung selbst schneller und billiger. Anhand von Voraussagen zu möglichen Interaktions­partnern sollten sich virtuelle präklinische Versuche an Substanzen durchführen lassen, die noch gar nicht synthetisiert sind. Auch sollte ModCell klinische Studien vorbeugen, die scheitern, weil die Patienten­population zu heterogen ist. Spricht zum Beispiel nur jeder zehnte Studien­teilnehmer auf ein Medikament an, geht das in den Gesamtdaten unter. Doch identifiziert eine vorherige Modellierung anhand von Biomarkern die Patientengruppe, bei der der Medikamenten­kandidat wirkt, reicht vielleicht schon ein gezielter und rascher klinischer Versuch zur Zulassung. Personalisierte Medizin reduziert also Kosten.

Wäre es nicht zielführender, statt in personalisierte Medizin zu investieren, den Lebensstandard der Bevölkerung zu verbessern? Schließlich sind Risikofaktoren für Volkskrankheiten seit Jahrzehnten bekannt – wie hoher Blutdruck, hoher Nüchtern­blutzucker, Übergewicht, hohe Cholesterin-Werte im Blut, Alkohol, Rauchen, Feinstaub und so weiter...
Lehrach: Das sind doch zwei Paar Schuhe. Klar sollten wir die Umwelt- und Verhaltens­einflüsse auf unsere Gesundheit verbessern. Das steht aber nicht im Gegensatz zu einer personalisierten Behandlung von Krebspatienten. Wir behandeln Patienten mit Medikamenten, die nicht wirken oder schaden können, was zu erneuten Krankenhaus­aufenthalten führen kann. All das verursacht dem Gesundheits­system Kosten, die wir durch eine weitgehende Personalisierung der Medizin vielleicht halbieren und gleichzeitig seine Qualität verbessern könnten. Durch Werbekampagnen für gesündere Lebensführung lässt sich das nicht erreichen.

Beispiel Lungenkrebs: Sicher wäre doch mehr Geld gespart, wenn Menschen nicht länger rauchen würden, als wenn für jeden an Lungenkrebs erkrankten Raucher eine personalisierte Medizin zur Verfügung stünde …
Lehrach: Deutschland blockierte auf EU-Ebene lange Zeit die Versuche, die Zigaretten­reklamen der Tabakindustrie einzuschränken. Besteht also politisches Interesse an Ihrem Vorschlag? Ich bezweifle es. Verhaltens­änderungen müssen von jedem Einzelnen kommen, zum Beispiel, indem er anhand eines personalisierten Modells vor Augen geführt bekommt, wie jede Zigarette seine Lebenserwartung verkürzt. Auch zur Prävention wäre eine Personalisierung von Gesundheitsdaten also hilfreich. Im Übrigen haben wir doch gerade erst in der COVID-19-Pandemie erlebt, wie die Interessen von Stakeholdern eine Eindämmung des Virus verhindern konnten.

Damit spielen Sie auch auf einen Laborjournal-Artikel im September 2020 an, in welchem Sie flächendeckende PCR-Massentests befürworteten, um SARS-CoV-2 in die Knie zu zwingen. Warum haben politische Entscheidungs­träger diese Möglichkeit weitestgehend ignoriert?
Lehrach: Weil das Hauptgewicht auf die Impfstoff­entwicklung gelegt wurde, ohne das vorhersehbar hohe Risiko der Selektion immunitäts­brechender Varianten zu berücksichtigen, und alternative Strategien ohne dieses Risiko in Betracht zu ziehen. Es gab erstaunlicher­weise keinen Plan B. Außerdem existierte im Bereich der Testung eine starke Lobby derer, die mit Standard-qPCR-Tests Milliarden Euro verdienten, und den Aufbau sensitiver, aber weit billigerer PCR-Tests verhinderten. Stattdessen gab die deutsche Regierung Milliarden für Antigen-Schnelltests aus, die zu spät ansprechen, als dass sie durch Unterbrechung von Infektions­ketten den R-Wert reduzieren könnten. Infizierte wurden erst erkannt, wenn sie schon Symptome zeigten und Dritte unwissentlich angesteckt hatten. Die ersten drei Tage von SARS-CoV-2s zehntägiger Inkubationszeit haben wir epidemiologisch vergeudet. Mit populations­weiten Massentests hätten wir uns wahrscheinlich – wie unsere im März 2022 erschienene Publikation in Nature Scientific Reports (12: 5618) aufzeigt – neunzig Prozent aller COVID-19-Toten, also die zweite, dritte und vierte Welle sowie monatelange Lockdowns und Hunderte Milliarden Euro Wirtschafts­schäden erspart.

Im Oktober 2020 veröffentlichte Laborjournal ein Gespräch mit Christian Drosten, in dem er erklärte, warum Massentests nur theoretisch machbar sind …
Lehrach: Sein Hauptargument, dass diagnostische PCR-Tests im großen Maßstab nicht verwendet werden könnten, wurde durch das „Alles Gurgelt“-Programm in Wien widerlegt. Das zugrunde­liegende Verständnis­problem könnte sein, dass es das wissenschaftliche Personal in der Virologie im Gegensatz zu jenem in der Genomforschung nicht gewohnt ist, mit Milliarden Probenzahlen umzugehen. Selbst wenn PCR-Massentests nur 50 Prozent sensitiv wären und nur 60 Prozent der Bevölkerung teilgenommen hätten, wissen wir aus unseren rückblickenden, epidemio­logischen Modellierungen, dass R-Werte in Deutschland binnen zwei bis drei Monaten unter einen Wert von eins gesunken wären. Mit Antigen-Schnelltests war es dagegen von vornherein unmöglich, die Pandemie zu unterdrücken.

Auch Herr Drosten sah in PCR-Massentests eine Strategie für zukünftige Pandemien …
Lehrach: Und trotzdem diskutiert die deutsche Regierung Hochdurchsatz-Teststrategien nicht. Uns läuft doch die Zeit weg. Wenn als Nächstes eine SARS-CoV-2-Variante kommt, die die Infektiosität von Omikron mit den Todesraten von Ebola kombiniert, dann wäre die halbe Bevölkerung Deutschlands tot, bevor wir die zur Eindämmung notwendigen Testkapazitäten aufgebaut hätten. Sollte eine rational handelnde Gesellschaft nicht Vorkehrungen treffen, und zwar jetzt im Sommer?

Scheitern populationsweite Massentestungen nicht schon an der logistischen Mammutaufgabe, täglich Dutzende Millionen Abstrich­stäbchen, Pipettenspitzen, Teströhrchen et cetera zur Verfügung zu stellen?
Lehrach: Die Wiener COVID-19-Teststrategie „Alles Gurgelt“ mit zehn Millionen durchgeführten Tests zeigt klar, wie effektiv Nasen­abstriche oder Gurgelproben auch in Deutschland im großen Maßstab funktionieren würden. Die Leute registrieren sich online, bekommen Testkits per Post zugeschickt oder holen sie beim nächsten Einkauf ab, testen sich binnen dreißig Sekunden beim Zähneputzen und stecken ihre mit Barcodes versehenen Teströhrchen in Supermärkten, Tankstellen oder Apotheken in Träger für 96 Proben. Die Träger werden einmal oder zweimal pro Tag in zentrale Prozessie­rungslabore transportiert, ihre Barcodes eingelesen, ihre Kappen in einem 30-Sekunden-Arbeitsgang automatisiert entfernt, je vier Mikroliter pro Probe von einer semiauto­matischen Pipettier­vorrichtung in 384-Well-Platten überführt, die Platten versiegelt, in Wasserbad-PCRs amplifiziert und in Plattenlese­geräten mit Mikroplatten-Staplern ausgelesen. Eine einzige Wasserbad-PCR mit 100 x 384 PCR-Platten pro Durchlauf kann täglich 600.000 RT-PCR-Reaktionen durchführen – also doppelt so viele wie alle momentan vorhandenen qPCR-Testlabors in ganz Deutschland. Testresultate werden dann sofort über eine Nachricht aufs Handy übermittelt.

Bei 600.000 Proben pro Tag und Wasserbad-Thermocycler wären noch immer Dutzende Standorte deutschlandweit nötig …
Lehrach: Allein in die Räumlichkeiten von Alacris könnten wir drei solche Maschinen stellen. Die einzige Frage ist, ob mehrere Analysezentren und damit kürzere Transportwege oder ein zentrales Prozessie­rungslabor logistisch vorteilhafter wären.

Natürlich hängt auch alles von der Bereitwilligkeit der Bevölkerung ab teilzunehmen …
Lehrach: In den letzten zwei Jahren hätte der Großteil der Deutschen teilgenommen, weil sie vom Einkauf bis hin zu Kulturveran­staltungen negative Testresultate vorweisen mussten. Würden wir die gesamte Population täglich testen, bräuchten wir das nur so lange aufrecht­zuerhalten, bis alle Infizierten identifiziert und in Quarantäne wären – bestenfalls also eine Infektionsperiode. Natürlich wird gerade in Europa das Virus immer wieder über Landesgrenzen importiert. Aber die Pandemie-Peaks mit den höchsten Todesraten und härtesten Lockdowns lassen sich so vermeiden. Testnegative könnten völlig frei leben. Testpositive könnten isoliert und ihre Chance auf einen milden Krankheits­verlauf von Tag eins an maximiert werden.

Herr Drostens Hauptargument in LJ 10/2020 war nicht die Logistik, sondern dass bei Massen-PCR-Tests Millionen Diagnosen zustande kämen, die eine ärztliche und rechtliche Verantwortung bedeuten. Aus juristischen Gründen funktionierten Massentests also auch nicht ...
Lehrach: Etwas, das in Österreich legal kein Problem ist, soll in Deutschland illegal sein? Selbst wenn, hätte das im Rahmen der COVID-19-Gesetze geändert werden können. Der Unterschied liegt wohl eher in den Interessens­lagen entsprechender Lobbys. Angenommen wir hätten eine effektive Methode zur bevölkerungs­weiten Krebsfrüh­erkennung, könnten sie aber nicht anwenden, weil Diagnosen ärztliche Tätigkeiten sind. Also lassen wir lieber Zehntausende Leute an unerkanntem Krebs sterben, als sie zu diagnostizieren, nur weil wir unwirksame Schnelltests aus juristischen Gründen bevorzugen? Wenn Regeln idiotisch sind, ändert man sie. Außerdem könnten testpositive Menschen ja von Ärzten per qPCR nachgetestet werden. So funktionierte es nach positiven Antigen-Schnelltests in den letzten Monaten ja auch.

Wie schätzen Sie die Gesamtkosten flächen­deckender PCR-Massentests ab?
Lehrach: Die Logistikkosten wären überschaubar, weil alles mit großen Probenmengen passiert. Den Transport haben wir mit dem Apotheken­großhandel besprochen: Aus jeder Apotheke, die Großhändler sowieso täglich anfahren, nähmen sie eine Box mit Hunderten Platten mit Zehntausenden Teströhrchen gegen eine Gebühr von ein paar Euro pro Box mit. Pro Probe kostete das also unter einem Cent. Die Anschaffungs­kosten für Pipettier­roboter und Wasserbad-PCRs in Höhe mehrerer Hunderttausend bis weniger Millionen Euro lägen bei 83 Millionen zu testenden Menschen ebenfalls unter einem Cent pro Probe. Im Vergleich dazu sind qPCR-Maschinen mit Anschaffungskosten von einigen Zehntausend Euro zwar günstiger, weisen aber nur eine Kapazität von ein paar Hundert Proben pro Stunde auf und benötigen geschultes Personal.

Ihre Personalkosten wären also hoch?
Lehrach: Unsere Pipeline bräuchte wenig Personal, da alle Tests in großen Einheiten prozessiert werden und nur die wenigen, oben geschilderten Stufen durchlaufen. Auch unsere Personalkosten lägen also bei hohem Durchsatz pro Probe im Centbereich. Insgesamt sollten Kosten von etwa einem Euro pro Test oder weniger erreichbar sein – also Größen­ordnungen unter den Kosten von ähnlich empfindlichen qPCR-Tests.

Bei einem Euro pro Probe und kompletter Teilnahme seitens der Bevölkerung hätten zwei Wochen Dauertesten den deutschen Staat 1,2 Milliarden Euro gekostet …
Lehrach: Die bisher durchgeführten 130 Millionen qPCR-Tests, die Testlabore bei Kassenpatienten mit 43,56 Euro pro Test erstattet bekamen, kosteten Deutschland 5,7 Milliarden Euro; ganz zu schweigen von den 500 Millionen durchgeführten Antigen-Schnelltests, von denen etliche null Prozent Empfindlichkeit aufwiesen, aber 18 Euro pro Stück kosteten, sowie den Wirtschafts­einbußen. Sollten wir für zukünftige Krankheits­erreger – und potenziell weit letalere Virusvarianten – nicht daraus lernen?

Das Gespräch führte Henrik Müller

Zur Person
Hans Lehrach bereitete während seiner Zeit als Postdoc in Harvard (1974-78) sowie als Gruppenleiter am EMBL in Heidelberg (1978-87) den Weg für verschiedene Klonierungs­techniken. Von 1994 bis zu seiner Emeritierung (2014) war er Direktor am Max-Planck-Institut für molekulare Genetik in Berlin und fungierte von 1997 bis 2001 als Sprecher des Deutschen Humangenom-Projekts. 2008 gründete Lehrach die Firma Alacris Theranostics, die Krebstherapie und Wirkstoff­entwicklung mithilfe eines digitalen Zwillings personalisiert.

Dieses Interview erschien zuerst in Laborjournal 7-8/2022.


Weitere Essays und Interviews aus dem Laborjournal-Sommerheft


- „Wir haben uns durch die Genomik ein falsches Bild von biologischen Abläufen und Krankheiten angewöhnt“

Der Schweizer Zellbiologe Ruedi Aebersold kann auch als Professor emeritus am Institut für Molekulare Systembiologie der ETH Zürich nicht von der Massenspektrometrie lassen. Mit ungebremstem Elan macht er sich für ihre Bedeutung in der personalisierten Medizin stark. Laborjournal sprach mit ihm über die gegenwärtigen Konzepte, Grenzen und Möglichkeiten der Proteomik – nicht nur im Rahmen der Schweizer Tumor Profiler Study.

- „Wir wollen mit einer individualisierten Therapie auch letzte Tumorherde im Körper vernichten“

BioNTech kann nicht nur Corona-Impfstoff, das wissen wir schon länger. Grund genug, mal nachzufragen, was sonst so geht und ansteht. Dafür hat sich Laborjournal mit Liane Preußner unterhalten, die bei BioNTech die klinische Entwicklung leitet. Über Krebs-Vakzine, Fahndungsplakate und – natürlich – auch ein bisschen Corona.

- Erforschung, Nutzung und Erhalt von Biodiversität brauchen freien Datenzugang, Essay von Jörg Overmann und Amber Hartman Scholz, Braunschweig

Bei den laufenden internationalen Verhandlungen der UN zum globalen Biodiversitätsschutz ist der offene Zugang zu lebenswissenschaftlichen Daten zu einem zentralen Streitpunkt geworden. Sollten sich Deutschland und die Europäische Gemeinschaft drängen lassen, das Prinzip des freien Datenzugangs aufzugeben, wird dies nicht nur zu grundlegenden Umwälzungen in der modernen lebenswissenschaftlichen Forschung und den internationalen Forschungskooperationen führen, sondern letztendlich den Biodiversitätsschutz selbst beeinträchtigen.

 




Letzte Änderungen: 02.08.2022