Vorsicht, Abschreiber und ‚Copy-Paster’…

9. Juli 2010 von Laborjournal

… — die Luft wird dünner. 83 Scientific Publishers, darunter solche „Giganten“ wie Elsevier und Springer, haben sich für die Datenbank CrossCheck eingeschrieben, die es ihnen erlaubt mit einer Software namens iThenticate eingereichte Manuskripte auf Plagiarismus zu durchleuchten.

Doch ist es weniger die Software, die das Ganze zu einem machtvollen Instrument machen könnte, sondern vielmehr die schiere Größe der Datenbank. Denn hier ist ziemlich Unerwartetes geschehen: Alle 83 Verleger mussten zustimmen ihre eigenen Manuskript-Datenbanken mit CrossCheck zu teilen – und sie taten es. Auf diese Weise ist CrossCheck inzwischen auf 25,5 Millionen Volltext-Artikel aus nahezu 50.000 Zeitschriften und Büchern angeschwollen, mit denen die Verlage nun „verdächtige“ Manuskripte relativ bequem abgleichen können.

Und „verdächtige“ Manuskripte scheint es genug zu geben. Testläufe verschiedener Journals brachten einen Anteil von 6 bis 23 % „Verdächtigen“ unter allen eingereichten Manuskripten. Kein Wunder, bestätigt auch ein US-Verleger in Nature:

“Not so many years ago, we got one or two alleged cases a year. Now we are getting one or two a month.”

Ein Problem indes sind Selbstzitate, welche die Software in der Regel als „Falsch Positive“ mit ausgräbt. Ist es denn schon unmoralisches Plagiieren, wenn jemand in „Material und Methoden“ die Elektrophorese zweimal gleich beschreibt? Oder genauso, wenn er Absätze einer bereits brillant formulierten Einleitung in einem der Nachfolge-Paper noch mal verwendet? Um hierbei das Akzeptable vom Unethischen zu trennen, wird wohl weiter „Handarbeit“ gefragt sein. Wobei in einem Punkt offenbar schon mal Einigkeit besteht, wie ein weiterer Verlagsmanager in besagtem Nature-Artikel feststellt:

„Plagiarism of results or the discussion is a greater concern.“

Übrigens: Laborjournal hatte bereits Ende 2008 von den erwähnten Problemen mit automatisierter Plagiat-Suche und „Falsch Positiven“ geschrieben. In Heft 12/2008 stand auf Seite 8 („Inkubiert“) folgendes Szenario:

„ […] Spektakulärstes Beispiel bisher ist sicherlich die Software „eTBLAST“, die Anfang diesen Jahres bei einem Medline-Durchlauf unter sieben Millionen Abstracts 70,000 verdächtige Duplikationen aufspürte. Eine ziemlich hohe Rate, sollte man meinen. Allerdings entpuppten sich viele „Verdächtige“ im Nachhinein als Fälle, bei denen ein Autor schlichtweg Texteile eines früheren eigenen Papers übernahm. Und dies gilt sogar dem US-Office for Research Integrity (ORI) nicht als Plagiarismus, sofern es sich um die Beschreibung etablierter Methoden oder vorangegangener Ergebnisse handelt. Ein Punkt, den sich übrigens so mancher Journal-Editor mal klar machen sollte – wie folgendes Beispiel veranschaulicht: Forscher X reicht ein Manuskript ein. Die Einleitung ist kurz gehalten; X verweist großteils auf einen Artikel des Vorjahres, in dem er Problemstellung und bisherigen Erkenntnisstand bereits umfassend referiert hat. Der Editor jedoch schreibt zurück, dass X die Einleitung etwas ausführlicher gestalten solle, da sich dem Leser dieses Manuskripts die Fragestellung so nicht unmittelbar erschließe. Also bastelt X aus der „alten“ Einleitung schnell eine neue, die der Vorlage natürlich sehr ähnlich gerät. Prompt schreibt der Editor zurück, dass man routinemäßig eine Anti-Plagiarismus-Software über dessen Manuskript habe laufen lassen – und diese habe natürlich die Dupletten aus seiner früheren Veröffentlichung erkannt. Um auszuschließen, dass Dritte analog auf falsche Gedanken kommen könnten, solle X seine Einleitung doch nochmals umschreiben, schließt der Editor. „Ich bin doch nicht Euer Hampelmann“, erregt sich X, der sich natürlich keinerlei Schuld bewusst ist. Er schreibt dem Editor lediglich, dass es nicht Sinn wissenschaftlicher Veröffentlichungen sein kann, Dinge, die bereits einmal klar und eindringlich ausgedrückt wurden, jedes Mal aufs Neue krampfhaft anders ausdrücken zu müssen – und schickt das Manuskript zum Konkurrenzblatt.“

Zu weit hergeholt? Vielleicht nicht, denn gleich einige nachfolgende Studien (z. B. hier und hier) kamen zu dem Schluss, dass der Anteil der „Falsch Positiven“ unter den eTBLAST-Resultaten „alarmingly high“ ist.

Schlagworte: , , , , , ,

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Captcha loading...