Info

Alles halb so wild

Von Hans Zauner, Dachau


(15.07.2022) Forschungsergebnisse offener, transparenter und schneller kommunizieren – und dabei alte Zöpfe abschneiden: Dass das möglich ist, beweisen Preprints, Open Access und Co. Aber da geht noch viel mehr.

Neulich teilte der britische Neurowissenschaftler Chris Chambers auf Twitter folgende Anekdote:

Sagt ein Biologe: „In meiner Disziplin sind wir nicht bereit für Literatur, die auf Preprints basiert. Klar, die Journale haben Nachteile. Aber sie helfen uns herauszufinden, was wichtig ist. Und wir brauchen sie, um Leute für Jobs auszuwählen.“

Darauf ein Physiker: „Wenn WIR jemanden anstellen, lesen wir einfach die Preprints.”

Im Lauf der weiteren Unterhaltung über das Publizieren im Allgemeinen soll der Physiker dann noch eingeworfen haben: „Oh ja, so hatten wir das in den 1950ern auch gemacht.“

Es ist paradox: Bioforscherinnen und -forscher liefern sich Rennen, wer seine Finger zuerst an die modernsten Methoden und Geräte bekommt – wer schafft als Erster die neueste Generation hochauflösender Mikroskope an, wer analysiert Datenberge mit den schnellsten Supercomputern. Und winzige Kästchen, nicht viel größer als ein USB-Stick, sequenzieren heute ganze Genome.

bild

Info

Aber wenn es darum geht, die mit Hightech zusammengeforschten Ergebnisse zu veröffentlichen, öffnet sich ein Fenster im Raum-Zeit-Kontinuum. Der Weg, auf dem Resultate der Lebenswissenschaften in die (Fach-)Welt kommuniziert werden, unterscheidet sich heute meist nicht wesentlich von den späten Neunzigerjahren, als ein beliebter Internet-Browser „Netscape Navigator“ hieß. Und jedes Mal, wenn in den vergangenen 25 Jahren neue Ideen aufkamen, wie man den verkrusteten Publizier-Bumms besser organisieren könnte, sprangen sofort Bedenkenträger und Mahner auf. Artikel, die im Internet herumschwirren, anstatt auf Papier in einer Bibliothek zu verstauben, könnten komplett verloren gehen. Chaos bräche aus, wenn man das altehrwürdige anonyme Peer-Review-Verfahren der ebenso altehrwürdigen Journale infrage stellt. Man könne doch ungeprüfte Manuskripte nicht einfach so als „Preprint” ins Internet stellen. Und Open Access führe dazu, dass gegen Bezahlung jeder Müll Eingang in die seriöse Literatur finde. Überhaupt könnte uns der Himmel auf den Kopf fallen.

Die These dieses Essays ist:

Die ersten zaghaften Revolutiönchen im akademischen Publikationswesen haben bewiesen, dass ein Großteil dieser Sorgen und Befürchtungen unbegründet war. Digitale Publikationen, Open Access, Preprints, Open Review und Open Data sind ein gewaltiger Fortschritt, weil die real existierenden Vorteile und Chancen die oft nur imaginierten Nachteile und Risiken deutlich übertreffen. Und wenn das so ist, wenn das am Ende also alles halb so wild ist wie gedacht, dann ist jetzt vielleicht sogar eine richtige Revolution drin.

Es gibt sicher Laborjournal-Lesende, die noch nicht das Vergnügen hatten, ein Paper bei einer akademischen Zeitschrift einzureichen. Für diesen Leserkreis will ich noch mal klarmachen, über welche byzantinischen Zustände wir hier reden. (Alle anderen dürfen den folgenden Absatz überspringen.)

Die deprimierende Ausgangslage

Der traditionelle Weg vom Manuskript zur Veröffentlichung sieht etwa so aus:

Ist ein Forschungsprojekt publikationsreif, müssen sich die Autorinnen und Autoren entscheiden, welcher Fachzeitschrift sie ihr Manuskript anvertrauen wollen, denn die archaischen Regeln verbieten, ein Paper zeitgleich zu mehreren Journalen zu schicken.

Dank Internet und sozialen Medien ist es für die Verbreitungschancen eigentlich fast egal, wo man ein Paper veröffentlicht – möchte man meinen. Über PubMed und Google Scholar werden die Kollegen die Arbeit schon finden. Selbst einflussreiche und Nobelpreis-gewürdigte Arbeiten erschienen in „kleinen“ Journalen mit einem mickrigen Journal-Impact-Faktor (JIF).

Allerdings gibt es eine Renommee-Hierarchie, die auf eben diesem JIF beruht, der – kurz gesagt als Maß dafür dient, wie oft ein Artikel einer Zeitschrift „im Durchschnitt“ zitiert wird. Wenn Forscher die Wahl haben, publizieren sie daher meist lieber in einem Journal mit hohem JIF – das mehrt tatsächlich oder wenigstens vermeintlich die Chancen auf Fördergeld und macht sich gut im Lebenslauf. Die überstrapazierte Maßzahl sagt aber gar nichts aus über die Qualität eines einzelnen Artikels einer Zeitschrift oder gar über die Kompetenz der Autoren. Das wurde hier im Laborjournal und anderswo schon oft im Detail besprochen, deshalb erspare ich mir hier eine detaillierte Ausführung dieses leidigen Themas.

Wenn die Editorin des Journals der Wahl einen neu hereingeflatterten Artikel nicht sofort ablehnt, beginnt das Hochamt des wissenschaftlichen Publizierens – der Peer-Review. Will heißen: Die Editorin bettelt mit zunehmender Verzweiflung diverse Kollegen an, bis sich mindestens zwei bereit erklären, ein Gutachten zu schreiben. Aber nur, sobald sie die Zeit dafür finden. Also zum Beispiel an einem Freitagnachmittag in drei bis acht Wochen. Denn üblicherweise stapeln sich schon andere Manuskripte auf dem Schreibtisch der gefragten Expertinnen und Experten, und ihre eigentliche Arbeit in Lehre und Forschung will ja auch erledigt werden.

Am Ende bekommen nur Editorin und Autoren die Gutachten zu sehen, und wer sie geschrieben hat, bleibt ein Redaktionsgeheimnis. Das bedeutet: Nach einer Ablehnung beim Journal der ersten Wahl fängt der Zirkus bei einer anderen Zeitschrift wieder ganz von vorne an. Und wenn man sich dann sklavisch an die „Instructions for Authors“ hält, muss man vor der nächsten Einreichung auch noch diversen Nervkram machen, wie etwa das beliebte Spiel „Referenzen gemäß Journal-Style formatieren“.

Für Autoren bedeutet Peer-Review vor allem: Warten und bangen … – und sich am Ende oft ärgern über vermeintlich inkompetente anonyme Gutachter oder Gutachterinnen.

Sinn dieser etablierten Prozedur ist einerseits die Qualitätskontrolle und andererseits eine sinnvolle Sortierung. Im Bioinformatik-Journal erscheint nur Bioinformatik, im Pflanzenphysiologie-Journal nur Pflanzenphysiologie. Beides – Qualitätskontrolle und thematische Sammlung – könnte man allerdings auch nach der Publikation erledigen, das wäre entspannter. Falls Fehler in der ungeprüften Version auftauchen, könnte man sie ja einfach in einer „Version 2“ korrigieren. Aber dazu später mehr.

Zuvor noch der Gipfel der Absurdität: Wenn der Peer-Review nach diversen Revisionen ein glückliches Ende hat, verstecken traditionelle Journale den auf Herz und Nieren geprüften Artikel hinter einer Paywall, deren Preisstruktur eine ausgesprochen perfide Gestaltung aufweist. Der Zugang zu einem einzelnen Artikel ist für einen individuellen Nutzer abschreckend teuer – niemand zahlt 35 Euro, um ein Paper zu lesen. Und der Preis für ein Bündel von Zeitschriften, mit Nutzungsberechtigung beispielsweise für eine ganze Uni, bewegt sich in schwindelerregenden Höhen.

Nicht zu vergessen: Von Formatierung und Tippfehler-Beseitigung mal abgesehen erledigen üblicherweise andere Forscherinnen und Forscher die wesentliche Arbeit, also den Peer-Review. Und zwar für umsonst.

Wenn es in der Arbeitsgruppe jemanden gibt, die sich mit Layout-Programmen auskennt, bekommt man übrigens ein mindestens genauso schönes PDF hin wie Elsevier, Wiley oder Springer et al. Tatsächlich habe ich schon von Autoren gehört, die sich beschwerten, dass ihr eigenes, in liebevoller Handarbeit gefertigtes LaTeX-Manuskript sauberer formatiert war als der letztlich semi-automatisch erstellte Artikel des Verlags.

Halten wir fest: Das traditionelle Biotop der akademischen Zeitschriften ist ein dahinsiechendes Relikt aus Zeiten, als die Journale auf Papier erschienen. Die Verlage haben – bisher durchaus profitabel – versucht, dieses Geschäftsmodell in die digitale Welt zu retten.

Revolution #1: Digitale Publikationen

Die Wissenschaft hat lange gebraucht, sich vom Papier zu lösen. Besonders zögerlich waren beispielsweise die Zoologen, als es um Erstbeschreibungen neuer Arten ging.Bis 2012 (!) war es nicht regelkonform, wissenschaftliche Namen für neu entdeckte Tierarten in rein digital erscheinenden Journalen zu veröffentlichen, der „International Code for Zoological Nomenclature“ sah dafür gedruckte Kopien vor. Das hatte zur Folge, dass Artnamen „gültig“ waren, die in obskuren, selbst verlegten Zeitschriften in Kleinstauflage gedruckt wurden – nicht aber solche, die in einem seriösen Digital-Journal erschienen.

Die Begründung: Beschreibungen mit neuen Artnamen sollen auch nach Jahrzehnten und Jahrhunderten auffindbar sein. Und was passiert mit elektronischen Papern, wenn ein Journal nicht mehr existiert und die Website abgeschaltet ist? Die Frage ist berechtigt. Allerdings haben Bibliotheken und Verleger längst Systeme für eine sichere Archivierung wissenschaftlicher E-Publikationen entwickelt (ein Stichwort dafür lautet LOCKSS – „Lots of Copies Keep Stuff Safe“). Und zur Sicherheit hat die Zoologie-Community noch ihre eigene Datenbank für Artnamen aufgebaut. 2012 wurde endlich – nach jahrelanger Diskussion – eine Ergänzung des Nomenklatur-Kodex beschlossen, die es erlaubt, neue Artnamen auch digital zu verkünden.

Also: Geht doch!

bild

Revolution #2: Open Access

Digitale Publikationen bereiteten den Weg für die „Open-Access“(OA)-Bewegung. Anstatt Geld für Abonnements zu verlangen, stellen OA-Zeitschriften ihre Inhalte zur freien Nutzung ins Netz und finanzieren sich anderweitig – zum Beispiel über Gebühren, die von den Autoren eingetrieben werden. Die Vorteile liegen auf der Hand, denn eine bestmögliche Verbreitung ihrer Werke ist im Interesse der Forschenden, die möglichst viele Leser erreichen, mit der Publikation aber kein Geld verdienen wollen. Auch das Argument, dass öffentlich finanzierte Forschung öffentlich zugänglich sein muss, ergibt Sinn.

Aber der OA-Bewegung schlug Skepsis entgegen: Wenn Journale von den Gebühren der Autoren leben, wieso sollten sie dann überhaupt noch Artikel ablehnen? Wird dann jeder Müll gegen Geld publiziert? Ja, es gibt Predatory Journals, die den Anschein seriöser Journale erwecken, aber ohne Qualitätskontrolle jeden Quatsch publizieren. Aber die Abzocker sind insgesamt eher eine lästige Rand­erscheinung. Autorinnen und Leser können nämlich sehr wohl unterscheiden, welche Journale seriös sind und welche nicht – genauso wie im Abonnement-Modell, wo es längst auch nicht alle mit der Qualitätskontrolle so genau nehmen.

Dass OA-Journale solide Wissenschaft veröffentlichen und langfristig bestehen können, das jedenfalls haben Zeitschriften wie diejenigen der PLoS- und BioMedCentral-Familien (und viele andere) längst bewiesen.

Auch die großen Verlage haben letztlich einsehen müssen, dass an Open Access kein Weg vorbeiführt. Nur lassen Elsevier und Co. ungern von ihren exorbitanten Profitmargen ab und kalkulieren die Publikationsgebühren meist nicht nach tatsächlichen Kosten, sondern nach dem erprobten Kapitalistenprinzip: „Wir verlangen, was immer der Markt hergibt.“ Je höher die Reputation eines Journals (Impact-Faktor!), desto mehr Geld kann man den Autoren abnehmen. Eine Kugel Eis in einer Bar auf dem Markusplatz in Venedig kostet schließlich auch das Vielfache dessen, was man für ein Eis vergleichbarer Qualität in einem deutschen Kleinstadt-Café bezahlt.

Wie setzt man Open Access also am besten um, sodass die Wissenschaft profitiert und nicht über den Tisch gezogen wird? Welches ist die Rolle von Verlagen, was darf deren Dienstleistung pro Artikel oder pro Uni kosten, und was könnten Forscher und Bibliotheken mit eigener Infrastruktur selbst stemmen? Das ist noch ein Experimentierfeld, und dieses Fass will ich hier gar nicht weiter aufmachen. Aber halten wir fest: Entgegen manchen Unkenrufen ist das Prinzip Open Access eine Erfolgsgeschichte.

Revolution #3: Preprints

Texte und Grafiken ins Internet stellen, geht schnell und kostet quasi nichts. Wieso also warten, bis Gutachter zu Potte kommen, wenn man das Werk schon vorab öffentlich teilen kann – etwa über Preprint-Server wie arXiv oder bioRxiv? Dann können die Kollegen die Resultate in der Autorenversion lesen und nutzen, und die Autoren bekommen eventuell Hinweise für ein Update des Artikels. Den Peer-Review bei einem Journal kann man viel entspannter angehen, wenn alle Kollegen den Artikel eh’ schon lesen und zitieren können – und nein, es spricht in der Regel nichts dagegen, Preprints als Quelle zu zitieren wie ein „richtiges“ Paper.

Es hat gedauert, aber spätestens im Zuge der COVID-19-Pandemie sind Preprints auch im Lebenswissenschaften-Mainstream angekommen. Und, oh Wunder, es stellt sich heraus: Viele Befürchtungen waren unbegründet. Ja, manche auch nicht. Fehlerhafte Vorab-Veröffentlichungen können für Verwirrung sorgen. Beispielsweise kam in den ersten Wochen der COVID-19-Pandemie ein seltsamer Preprint heraus, der über Ähnlichkeiten zwischen SARS-Cov-2 und HIV berichtete. Das war falsch, der Preprint wurde zurückgezogen. Aber zugegeben: Es ist schwierig, solche Ideen wieder aus der Welt zu schaffen – vor allem, wenn Verschwörer-Kreise darauf aufmerksam werden.

Und sicher, die Masse der Preprints machte es unübersichtlich. In den ersten vier Monaten der Pandemie erschienen fast 20.000 COVID-19-Paper, ein Drittel davon Preprints. Andererseits: Dank der Vorab-Artikel konnten Forscher-Community und Entscheider in der Politik schnell auf neue Erkenntnisse reagieren; zum Beispiel, als Daten aus Preprints zeigten, dass SARS-CoV-2 wohl schon vor Symptombeginn ansteckend ist.

Vielleicht braucht man für den Sonderfall von Preprints, die für die medizinische Praxis relevant sind, daher tatsächlich eigene Regeln. Ein grober Fehler in einem Preprint über die Geschlechtschromosomen der Schnirkelschnecken hätte schließlich weniger weitreichende Folgen.

Unterm Strich bleibt jedenfalls: Preprints bringen auch in Biologie und Medizin viele Vorteile, und mit Risiken und Nebenwirkungen kann man umgehen. Da hätte man auch schon vor zwanzig Jahren draufkommen können.

Revolution #4: Peer-Review neu gedacht

Was ist denn eigentlich der große Unterschied zwischen einem „Pre“-Print und einem „richtigen“ Artikel? Nebensächliches wie Formatierung und Tippfehler-Beseitigung mal beiseite, bleibt die inhaltliche Qualitätskontrolle. Aber ob der Aufwand des Peer-Reviews Substantielles zur Verbesserung beiträgt, dafür gibt es wenig harte Evidenz. Ist die Prozedur vielleicht eher traditionelles Ritual als unabdingbare Notwendigkeit?

Es gibt die Vorstellung, Gutachterinnen und Gutachter würden sich so intensiv mit dem Manuskript beschäftigen, dass am Ende ein quasi fehlerfreier Artikel herauskommt, in dem jede Statistik nachgerechnet, jeder Datenpunkt geprüft wurde. Das wäre schön, ist aber realitätsfern. In der Praxis beugen sich die Referees vielleicht einen Nachmittag lang über das Paper. Im Idealfall findet die Gutachterin dann etwaige logische Fehler und kann prüfen, ob alle Kontrollen gemacht, ob relevante Vorarbeiten korrekt zitiert wurden und ob die Ergebnisse wirklich so robust und neu sind, wie die Autoren behaupten. Ja, das ist alles ganz nützlich.

Aber die Probe aufs Exempel kommt sowieso erst nach der Publikation, wenn die gesamte Community (und nicht nur zwei zufällig ausgewählte Kollegen) die Arbeit kennenlernt – und sie feiert, ignoriert, kritisiert oder gar komplett widerlegt.

Nun ist der traditionelle, anonyme Peer-Review eine intransparente, geheimniskrämerische Veranstaltung, und damit anfällig für Korruption und Mauscheleien. Es bleibt ein Geheimnis, ob ein Paper gründlich oder schlampig begutachtet wurde und ob die Gutachter wirklich unabhängige Experten sind.

Auch für dieses Problem gibt es eine Open-Science-Lösung: Die Gutachter unterschreiben ihre Reviews, und das Journal stellt die Kommentare online. Und schon wieder schallt es: Funktioniert nicht! Gutachter trauten sich nicht, ihre Kollegen offen zu kritisieren. Mächtige Alpha-Profs könnten bei nächster Gelegenheit eine Retourkutsche liefern und die Karriere der kritischen Kollegin zerstören.

Ganz von der Hand zu weisen sind auch diese Risiken nicht. Aber hier kann ich aus eigener Erfahrung berichten: Ich bin als Editor für das Journal GigaScience tätig, das seit seiner Gründung vor zehn Jahren mit offenen, unterschriebenen Gutachten operiert. In der Tat kommt es so gut wie nie vor, dass im „offenen Review“ ein Paper auf fiese Art verrissen wird. Zumal das sowieso nicht der Sinn der Prozedur wäre! Peer-Review soll den Autoren in erster Linie eine hilfreiche Rückmeldung von Experten außerhalb ihrer engsten Blase geben. Wenn das signierte Gutachten publiziert wird, so ist das ein positiver Anreiz, Kritikpunkte konstruktiv und verständlich aufzuschreiben sowie Interessenkonflikte offenzulegen. Zusätzlich wird auch der Beitrag der Gutachter sichtbar und Teil der Fachdiskussion.

Auch beim Thema Peer-Review gilt also: Es muss nicht auf ewig so intransparent und ineffektiv bleiben, wie es ist, nur weil die Alternativen ein paar Risiken und Nachteile haben.

Revolution #5: Offene Daten

Zu Recht ist die Erwartung an ein wissenschaftliches Paper, dass andere die Ergebnisse unabhängig prüfen und weiterverwenden können. Dazu müssen allerdings die Rohdaten verfügbar sein. Und daran hapert es. Zwar fällt häufig der Satz „Data available on request“. Doch oft sind die Daten nicht wirklich verfügbar – zum Beispiel, weil es der korrespondierende Autor nicht so mit dem Korrespondieren hat und E-Mails unbeantwortet bleiben.

Wie man Daten fair und transparent teilt, hatten Genomikerinnen und Genomiker vorgemacht. Im sogenannten Fort-Lauderdale-Agreement und in den Bermuda Principles wurden ab Ende der 1990er-Jahre Prozeduren festgehalten, wie Forscher DNA-Sequenzen teilen können und sollen – und dies auch schon vor der Publikation des zugehörigen Papers. Andere Disziplinen waren viel langsamer, aber mittlerweile verlangen immer mehr Journale, dass die Daten wenigstens zum Zeitpunkt der Publikation zugänglich sind.

Natürlich hat aber auch die Open-Data-Bewegung ihre Kritiker: „Klauen“ andere dann nicht die Früchte meiner Arbeit? In einem Editorial im British Medical Journal sprachen die US-Kliniker Dan Longo und Jeffrey Drazen gar von „Forschungsparasiten“ – und meinten damit Leute, die nicht selbst im Labor stehen, sondern sich für ihre Analysen an frei verfügbaren Datensätzen bedienen.

Allerdings: Daran ist überhaupt nichts Verwerfliches – im Gegenteil.

„Forschungsparasiten“ interessieren sich vielleicht für Fragen, die die Datenerzeuger gar nicht auf dem Schirm haben; oder sie entdecken neue Zusammenhänge oder Fehler in der Analyse der Autoren. Einzige Bedingung: Die wissenschaftliche Redlichkeit verlangt, dass die Produzenten der Daten korrekt gewürdigt und zitiert werden.

Da geht noch mehr

Digitale Publikationen, Open Access, Preprints, Alternativen zum klassischen Peer-Review, offene Daten: Es hat sich durchaus schon viel verändert – und es hat nicht mal weh getan. Wir könnten aber weiter sein, wenn nicht oft unbegründete Ängste, die Kräfte der Beharrung sowie die Lobbyarbeit der Verlage so mächtig gewesen wären.

Am Ende bleibt die Frage: Brauchen wir überhaupt Journale? Dürfen Verlage noch mitspielen oder organisieren Forscherinnen und Forscher ihre Kommunikation in Zukunft alleine? Ist Peer-Review nötig – und wenn ja, in welcher Form? Wie durchbricht man die Impact-Faktor-Obsession? Brauchen wir Metriken, um die Leistung von Forscherinnen und Forschern auf Zahlen runterzubrechen, oder ist das sowieso ein unsinniges Unterfangen?

Auf all das gibt es nicht die eine Antwort. Aber mehr Open Science ist die Zukunft – das sieht auch die UNESCO so, die Organisation der Vereinten Nationen für Bildung, Wissenschaft, Kultur und Kommunikation. In Empfehlungen, die Ende 2021 angenommen wurden, verpflichten sich die UNESCO-Mitgliedstaaten, öffentlich finanzierte Forschung an Open-Science-Prinzipien auszurichten. Auf dass wissenschaftliche Ergebnisse überall auf der Welt möglichst frei verfügbar sind – als Beitrag zu „mehr globaler Gerechtigkeit und Teilhabe am wissenschaftlichen Fortschritt“.

Um dieses hehre Ziel zu erreichen, wird allerdings mehr revolutionärer Spirit nötig sein als in den vergangenen 25 Jahren.



Zum Autor

bild
Hans Zauner ist promovierter Biologe und als Editor für das Open-Access-Journal GigaScience tätig. Die hier vorgetragene Meinung ist ausschließlich seine eigene..