Editorial

„Viele Entwicklungen gingen schneller als ich vermutet habe“ - KI und Biotech (II)

Gespräch: Carolin Sage, Laborjournal 04/2024


(24.04.2024) Seit Juni 2023 arbeiten im PharmaScienceHub über 300 Forscher und Forscherinnen der Universität des Saarlandes und des Helmholtz-Instituts für Pharmazeutische Forschung Saarland (HIPS) interdisziplinär an der Entwicklung neuer Wirkstoffe. Andreas Keller, Professor für klinische Bioinformatik, erklärt, wo genau dabei KI eingesetzt wird.

Porträtfoto Andreas Keller, Bioinformatik Universität der Saarlandes
Andreas Keller: „KI ist aus der Biotechnologie nicht mehr wegzudenken.“ Foto: Oliver Dietze

Laborjournal: Herr Keller, wie lange beschäftigen Sie sich schon mit KI-Anwendungen?

Andreas Keller » Seit fast 25 Jahren. Ich habe in Saarbrücken Bioinformatik studiert. Dazu gehören auch Programmierkenntnisse und sich mit maschinellem Lernen und künstlicher Intelligenz auseinanderzusetzen.

Welche Rolle spielt KI heute in Ihrer Forschung?

Keller » Wir setzen KI dafür ein, unsere Daten besser – oder vielleicht eher anders – zu analysieren. Aber auch über die reine Analyse hinaus setzen wir KI ein. Mit Sprachmodellen arbeiten wir zum Beispiel daran, komplexe Informationen zu kondensieren und verständlich wiederzugeben.

Das ist eine relativ junge Entwicklung, oder?

Keller » Ja, die letzten drei Jahre sind aus meiner Sicht dabei ganz entscheidend. Viele Entwicklungen sind schneller gegangen als ich persönlich es vermutet habe.

Editorial

Im PharmaScienceHub, PSH, werden Expertisen zur pharmazeutischen und biotechnologischen Wirkstoffforschung gebündelt. Welche Rolle spielt KI dabei?

Keller » KI hat für uns einen sehr hohen Stellenwert. Das Department für Klinische Bioinformatik am Helmholtz-Institut für Pharmazeutische Forschung Saarland, dem HIPS, besteht aus vier Gruppen, weitere vier Bioinformatik-Gruppen aus drei Fakultäten der Universität des Saarlandes arbeiten ebenfalls an unserem Zentrum für Bioinformatik. Dazu kommen Mitglieder der Fachrichtung Informatik des Deutschen Forschungszentrums für Künstliche Intelligenz oder dem Helmholtz Zentrum CISPA. Neben Pharmazeuten, Biologen, Biotechnologen und Medizinern ist mehr als jeder Vierte im PSH Informatiker oder Bioinformatiker.

Was ist Ihr Ziel?

Keller » Wir wollen schneller und effizienter werden, auch mit dem Hintergedanken, den translationalen Charakter, also von Forschung zur Anwendung hin, zu beschleunigen. Dazu gehört auch die KI, die uns an vielen Schritten in der Medikamentenentwicklung hilft. Vom Auffinden neuer Targets bis zur Lead-Optimierung oder In-silico-Toxizitätsstudien kommen Algorithmen und Modelle zum Einsatz. Das beinhaltet natürlich nicht nur neuronale Netze, sondern auch Simulationen oder gezielte Modellierung.

Welchen Ansatz verfolgen Sie dabei ganz konkret?

Keller » Wir arbeiten mit sogenannten neuro-expliziten Modellen. Das sind Algorithmen, die die Vorteile von beschreibenden Modellen und neuronalen Netzen kombinieren.

Hat in Ihrer Wahrnehmung KI in der Biotechnologie schon ein breites Anwendungsfeld gefunden oder sind es eher noch einzelne Leuchtturmprojekte?

Keller » In meinen Augen ist KI aus der Biotechnologie heute nicht mehr wegzudenken. Traditionell ist die Grundlagenforschung etwas schneller in der Adaptation – oder entwickelt die entsprechenden Algorithmen selbst. Wir haben aber auch über die Grundlagenforschung hinaus den Status einzelner Leuchtturmprojekte hinter uns gelassen.

Haben Sie den Eindruck, dass man sich in Deutschland im Vergleich zu anderen Ländern schwerer tut, KI-basierte Anwendungen zu etablieren, z.B. aufgrund hoher Anforderungen an den Datenschutz?

Keller » Der direkte Vergleich mit anderen Ländern ist schwierig. Ich glaube, wir tun gut daran, europäische Antworten auf die wichtigen Fragen zu finden. Viele Aspekte wie Datenschutz oder Datensicherheit sind dabei natürlich wesentlich. Aber auch weitere Themen, etwa möglichen „Dual Use“, sind wichtig zu berücksichtigen. KI „Made in Germany“ kann sich so durch höchste Qualitätsstandards vielleicht sogar abheben.

Wenn Sie eine Prognose wagen würden: Wie wird sich der Markt für KI in der Biotech-Branche in den nächsten fünf bis zehn Jahren entwickeln?

Keller » Positiv! Aber im Ernst: In einem sich so schnell entwickelnden Umfeld wie der KI tue ich mich manchmal schwer, die nächsten zwei Jahre korrekt zu antizipieren. Klar ist, dass der Stellenwert von KI zunehmen wird. Von Einzellösungen, ähnlich zu Expertensystemen, entwickeln wir uns hin zu immer komplexeren Modellen, die mehr Aufgaben der Entwicklungspipeline übernehmen. Es ist wichtig, dass wir diese Entwicklungen konsequent mitverfolgen, den Anschluss nicht verlieren, oder im Optimalfall, die Entwicklung mitprägen.

Welche Risiken sehen Sie im Zusammenhang mit KI-Anwendungen und werden diese Ihrer Meinung nach angemessen berücksichtigt?

Keller » Das Thema „Dual Use“ habe ich schon angesprochen. Absichtlich oder unabsichtlich können KI-Modelle negative Konsequenzen in ihrer Anwendung hervorrufen. Dual Use ist dabei aber nur ein Beispiel. Es ist wichtig, mögliche negative Auswirkungen so weit als möglich zu berücksichtigen und hohe Standards anzulegen.

Da stimme ich Ihnen zu. Sprechen wir noch ein wenig über Ihre eigene Forschung. Welchen Beitrag liefern KI-Anwendungen zum Verständnis von Erkrankungen?

Keller » Eine der Stärken von KI ist die Analyse von Bildern, dieses Potenzial wird heute zum Beispiel schon in der klinischen Onkologie eingesetzt. Aber auch in der Erforschung von Neurodegeneration oder Alterungsprozessen, meinem eigentlichen Forschungsgebiet, wird KI verwendet, um pathologische oder physiologische Prozesse zu verstehen. Dabei wird die KI mit hochauflösenden Daten, zum Beispiel Einzelzell-Sequenzierungen gefüttert. Entsprechende Datensätze bestehen aus Millionen von Gehirn- oder Immunzellen, für jede dieser Millionen von Zellen ist die Expression von Tausenden von Genen gemessen. Mithilfe von KI können wir zum Beispiel sagen, welche Gene in welchem Zelltyp zur Neurodegeneration beitragen.

Welchen Beitrag liefern KI-Anwendungen bei der Entwicklung von neuen Arzneimitteln?

Keller » Lassen Sie mich ein Beispiel aus der Medikamentenentwicklung geben, die auf Naturstoffen basiert. Naturstoffe, die unter anderem antibiotische Wirkung haben können, werden oftmals aus Bodenmikroben beziehungsweise aus anderen Bakterien gewonnen. Moderne Metagenomik erlaubt es zum ersten Mal, Tausende von Proben mit vertretbarem Aufwand zu analysieren und die kompletten Mikrobiome auszulesen. Das sind oftmals viele Hunderte Stämme in jeder Probe, wie wir sie zum Beispiel aus unserem Community-Science-Projekt Microbelix bekommen. Aber auch Patientenproben, wie Stuhl- oder Speichelproben, sind wertvolle Quellen für neue Naturstoffe. Erste internationale Studien belegen inzwischen, dass aus solchen komplexen Proben mithilfe von KI „neue“ Naturstoffe gefunden werden können, die Potenzial als Medikamente haben.

Wie kann man bei einer so großen Datenmenge sicher sein, dass der Input an Trainingsdaten der richtige ist bzw. dass er ausreicht, um eine Fragestellung zu beantworten?

Keller » Die Definition von „richtigen Daten“ ist eine Herausforderung. Um beim Beispiel der Naturstoffe zu bleiben: Hier sind Hunderttausende genetische Sequenzen bekannt, die den Bauplan zur Herstellung der Naturstoffe enthalten. Aber nur für wenige Tausend ist auch bekannt, was sie genau machen. Zur Vorhersage neuer Medikamente ist diese Information aber essenziell.

In der Vergangenheit haben sich verschiedene Lösungen wie Transfer Learning etabliert, spezielle Algorithmen, die auch aus kleinen Datensätzen Modelle generieren können, wurden entwickelt. Sensitivitätsanalysen geben Aufschluss, wie stabil Modelle sind. Eine wichtige Entwicklung ist es, Daten auch verfügbar zu machen, sodass andere KI-Forscher damit arbeiten können. Die Plattform Hugging Face ist hier ein gutes Beispiel. Um zu Ihrer Frage zurückzukommen: Gerade bei der Medikamentenentwicklung ist es wichtig, breite Kohorten in die grundlegenden Analysen zu integrieren. Ansonsten besteht gegebenenfalls die Möglichkeit, dass der Computer ein Medikament gezielt für die Gruppe vorschlägt, die in die ursprüngliche Studie eingeschlossen war.