Digitaler Paper-Schwund

20. März 2024 von Laborjournal

 

„Open is not forever: A study of vanished open access journals“ titelte vor gut zwei Jahren ein finnisch-deutsches Trio seine Studie über das Verschwinden digital publizierter Forschungsartikel aus dem Internet (J. Assoc. Inf. Sci. Technol. 72, 1115-16). Der Übergang zum digitalen Publizieren und insbesondere die Einführung des offenen Zugangs (Open Access) habe zu Unsicherheit und Komplexität geführt, schreiben sie im Abstract. Insbesondere sei die langfristige Zugänglichkeit von Zeitschriften nicht immer gewährleistet, sodass sie bisweilen sogar ganz aus dem Netz verschwinden können.

Als Ergebnis ihrer Analyse hielten die Drei schließlich fest:

Wir haben 174 Open-Access-Zeitschriften gefunden, die mangels umfassender und offener Archive zwischen 2000 und 2019 aus dem Netz verschwunden sind. Alle wichtigen Forschungsdisziplinen und geografischen Regionen der Welt waren abgedeckt. Unsere Ergebnisse geben daher Anlass zu großer Sorge um die Integrität der wissenschaftlichen Aufzeichnungen. Sie unterstreichen die Dringlichkeit, gemeinsame Maßnahmen zu ergreifen, um einen kontinuierlichen Zugang zu gewährleisten und den Verlust von mehr wissenschaftlichem Wissen zu verhindern.

Offenbar sahen die Autoren damals jedoch nur die berühmte Spitze des Eisbergs. Denn was der Londoner Martin Paul Eve jetzt unter dem Titel “Digital Scholarly Journals Are Poorly Preserved: A Study of 7 Million Articles” zum Thema nachlegt, dürfte die geäußerten Sorgen nochmals vergrößern (Journal of Librarianship and Scholarly Communication 12(1). doi: https://doi.org/10.31274/jlsc.16288). Eve hatte überprüft, ob 7.438.037 mit digitalen Objektkennungen (DOI) versehene Forschungsartikel in den einschlägigen Online-Archiven vorhanden sind (institutionelle Repositorien waren nicht berücksichtigt). Sage und schreibe 2.056.492 Artikel waren trotz aktiver DOI darin nicht mehr auffindbar – also rund 28 Prozent.  Diesen Beitrag weiterlesen »

Peer Review überflüssig, Preprint ist bestätigt

12. Februar 2020 von Laborjournal

Es dauert einfach zu lange! So lautet ein Standardvorwurf an das klassische Peer-Review-Verfahren. Und das ist nur zu verständlich. Denn es ärgert tatsächlich, dass es manchmal ein ganzes Jahr dauert, bis man nach allem Hin und Her zwischen Editoren, Reviewern und Autoren die längst vorhandenen Ergebnisse end­lich lesen kann. „Frisch“ sind sie dann schon lange nicht mehr — gerade angesichts des heut­zu­tage maximal beschleunigten Forschungs­trei­bens.

Das Dilemma ist also offensichtlich: Einerseits sollen frische Resultate schnellstmöglich in den wissenschaftlichen Erkenntnisfluss gelangen — andererseits will man aber auch an einer Quali­täts­kon­trolle vor deren offizieller Präsentation festhalten.

Hier allerdings bilden bekanntermaßen Preprints schon länger eine Lösung. Sobald Forscher ihre Manuskripte fertig haben, stellen sie diese umgehend online — etwa auf speziellen PreprintServern wie arXiv oder bioRxiv —, sodass jeder die Ergebnisse während des laufenden Peer Reviews schon mal Open Access einsehen kann.

Doch ganz problemfrei ist das auch nicht. Eine Frage ist etwa, ob man Preprints überhaupt zitieren kann? Schließlich sind sie zu diesem Zeitpunkt ja in aller Regel noch unbegutachtet.

Aus diesem Grund untersagten die meisten Journals erst einmal, dass die Autoren Preprints in den Referenzlisten ihrer eingereichten Manuskripte zitieren. Doch da diese inzwischen auch mit di­gi­ta­len Identifikationssystemen à la Digital Object Identifier (DOI) oder arXiv Identifier versehen werden, lassen viele Journals dies heute zu.

So mancher Forscher scheint dagegen jedoch weiterhin Probleme mit dem Zitieren von Preprints zu haben. Vor kurzem berichtete etwa einer in einem Forum, dass er erfolgreich eine Methode angewendet habe, die bis dahin lediglich auf einem Preprint-Server einzusehen war. Laut seinem Verständnis handelte es sich demnach um eine „unpublizierte Methode“, welche die Qua­li­täts­kon­trolle (noch) nicht bestanden hatte. Und als solche wollte er sie eben nicht zitieren.

Wen aber dann, denn seine Methode war es ja nicht?

Wie er das Problem letztlich löste, ist nicht bekannt. Interessant war aber der folgende Kom­men­tar dazu im Forum:

Ist die erfolgreiche Anwendung der Methode in einem ganz anderen Projekt nicht eine viel bessere Qualitätskontrolle, als wenn zwei Reviewer sie einfach nur durchlesen? Ist damit vielmehr nicht sogar bewiesen, dass sie funktioniert?

Wahre Worte! Falls das Methoden-Manuskript also immer noch in der Begutachtungsschleife irgendeines Journals rotiert: Eigentlich braucht’s das jetzt nicht mehr.

Ralf Neumann

(Foto: ASAPbio)