Journal-Tuning

3. April 2019 von Laborjournal

Wir recherchieren gerade einen Fall, in dem ein Journal seinen Impact-Faktor offenbar auf unlautere Weise aufgeblasen hat — konkret durch übermäßiges Selbstzitieren. Dabei fiel uns ein, dass wir mal vor Jahren in einem fiktiven Stück beschrieben hatten, wie ein Chief Editor den Impact-Faktor „seines“ Journals auch ohne unlautere Mittel deutlich nach oben treiben könnte. Wir stellen es daher hier nochmals zur Diskussion:

——-

Zwanzig Jahre waren es bald, die Badguy nun Herausgeber von Molecular Blabology war. Eine Zeit, in der er viele Veränderungen erlebte. Vor allem in den letzten Jahren.

Lange war der „Chief Editor“ ein ungeheuer befriedigender Job gewesen. Immerhin war Molecular Blabology die offizielle Zeitschrift der größten blabologischen Fachgesellschaft der Welt — und vielen galt sie auch als die beste. Klar dass auch Badguy selbst im Licht der Zeitschrift erstrahlte, war er damit doch unzweifelhaft ein wichtiger und mächtiger Mann in der Szene.

Lange konnte er dieses Gefühl genießen — bis die Journal-Impact-Faktoren aufkamen. Und die bereiteten ihm eine herbe Überraschung: Molecular Blabology war in der Kategorie „Blabology and Gabblistics“ völlig unerwartet nur auf Platz sechs. Fünf Journals hatten bessere Impact-Faktoren. Und was das Schlimmste war: Auf Platz eins rangierte mit dem European Journal of Molecular Blabology ausgerechnet das Organ der konkurrierenden europäischen Fachgesellschaft.

Doch Badguy konnte nicht nur genießen, er konnte auch anpacken. Schnell wusste er bescheid, wie die Impact-Faktoren berechnet wurden — und bald hatte er auch einige Schwachstellen ausgekundschaftet, die er auf dem Weg zu einem besseren Faktor gnadenlos auszuschlachten gedachte.

Fallstudien und Essays bringen im Schnitt bei weitem nicht so viele Zitierungen wie Originalarbeiten und Technical Reports, hatte Badguy schnell herausgefunden. Zwar brachte Molecular Blabology keine Fallstudien, dafür aber vier Essays pro Heft. So schön diese in der Regel waren, Badguy würde sie streichen und statt dessen mehr Technical Reports aufnehmen. Oder besser noch: Die Zahl der Reviews pro Heft von bisher 2 auf 6 anheben, denn die bringen noch mehr Zitierungen.

Ebenso hatte Badguy spitz bekommen, dass die Zahl der Zitierungen in etwa proportional zu der Länge der einzelnen Artikel ist. Er würde also die Short Communications rausschmeißen und für die Artikel mehr Text — und damit zitierbaren „Content“ — verlangen. Seine einfache Rechnung: Weniger, aber längere Artikel, die zugleich jeder für sich häufiger zitiert werden — damit müsste der Impact-Faktor sofort einen Sprung machen. 

Badguy blieb auch nicht verborgen, dass die „Herren der Impact-Faktoren“ nur Artikel, Reviews und Notes für die Gesamtzahl der Artikel eines Journals berücksichtigten — „Citable Items“ nannten sie diese. Meeting Reports, Editorials und Correspondence-Briefe dagegen zählten sie nicht, obwohl deren Zitierungen wiederum in den Impact-Faktor eingingen. Eigentlich nicht zu verstehen, für Badguy war aber klar: Möglichst viele Meeting Reports, eine große Correspondence-Rubrik und knackige Editorials — das bringt noch mal zusätzlichen Schub.

Und dann hatte Badguy noch eine besondere Idee: Zweimal im Jahr wollte er eine Nomenklatur-Konferenz einberufen, deren Ergebnisse natürlich umgehend in Molecular Blabology erscheinen würden. Die bringen — das ist bekannt — wahnsinnig viele Zitierungen, da sämtliche nachfolgenden Originalarbeiten im betreffenden Feld diese zitieren müssen. 

Schnell hatte Badguy also ein feines „Maßnahmenbündel“ geschnürt. Der „Umbau“ würde zwar noch ein kleine Weile dauern. Aber dann wollte Badguy doch mal sehen, ob er dieses European Journal of Molecular Blabology nicht doch bald… 

——-

Tatsächlich nur Fiktion? Weit weg von der Realität?

Grafik: iStock / Jossdim

Zeigt her eure Ideen!

28. März 2019 von Laborjournal

Was macht einen guten Forscher generell aus? Mal ganz plakativ: Er sollte offene Probleme erkennen, die richtigen Fragen sowie plausible Hypothesen dazu formulieren — und insbesondere Ideen generieren, wie man dieHypothesen und Fragen auf elegante Weise testen und beantworten könnte.

Das Dumme dabei ist: Jemand, der wirklich gut in alledem ist, wird viel mehr Ideen produzieren, als er tatsächlich in konkreten Projekten verfolgen — geschweige denn zur „Erkenntnisreife“ bringen kann. Das ist die Kehrseite der immer engeren, zugleich aber immer aufwendigeren Spezialisierung der letzten Jahrzehnte. (Nicht umsonst kursiert zu diesem Dilemma schon lange der Spruch: „Wir erfahren immer mehr über immer weniger — und das wiederum mit immer höherem Aufwand.“)

Nehmen wir etwa Max Perutz, der bekanntlich die allermeiste Zeit seines Forscherlebens ausschließlich — und sehr erfolgreich — an Hämoglobin arbeitete. Glaubt jemand tatsächlich, dieser brillante Forscher hätte nur gute „Hämoglobin-Ideen“ gehabt? Sicher nicht. Die meisten davon hat er jedoch nicht weiter verfolgen können, weil sein Hämoglobin-Projekt schon sämtliche finanziellen, technischen und personellen Ressourcen komplett beanspruchte. Also wird Perutz die große Mehrheit seiner guten Ideen wie Sand zwischen den Fingern zerronnen sein — sofern er nicht mit der einen oder anderen davon jemand anderen anstecken konnte.

Und so wird es womöglich auch heute vielen gehen. Sie werden selbst erfahren haben, dass nur wenige ihrer initialen Ideen am Ende tatsächlich in ein Projektmünden — weil es unter den Zwängen des aktuellen Systems „gerade einfach nicht realisierbar ist“. Schade eigentlich! Und nicht auszudenken, wie viele überaus fruchtbare Körner da heranwachsen, die dann doch unbemerkt vertrocknen.

Der US-Physiker David Harris sah es vor vier Jahren offenbar genauso, als er sagte: „Gute Wissenschaftler haben in der Regel viel mehr Ideen, als sie verwerten können. Es wäre besser, wenn sie diese mit anderen teilen könnten.“ Zu eben diesem Zweck gründete er 2015 das Journal of Brief Ideas. „Citable ideas in fewer than 200 words“ sollte man dort wenigstens zur Diskussion stellen können.

Sicher keine schlechte Idee. Leider scheint es, als hätte sie bis heute nicht wirklich gezündet. Oder vielleicht doch? Woanders und auf andere Weise?

Ralf Neumann

Grafik: iStock / kutubQ

„Fälschungen sind immer schlimm, aber seinen Daten haben wir schon länger nicht getraut“

20. März 2019 von Laborjournal

Auch in der Wissenschaft gibt es den sogenannten „Flurfunk“ — und das ist auch gut so! Wie gut, davon bekamen wir eine Ahnung in einem Gespräch, das wir vor einiger Zeit im Rahmen einer Recherche führten — und das ging etwa so:

x

LJ: „Herr Professor X, wie sehr schaden die jüngst aufgeflogenen Datenfälschungen des Kollegen Y Ihrem Feld?“

Prof. X: „Gar nicht. Wir haben schon lange bewusst vermieden, auf Ys Daten aufzubauen.“

„Das klingt, als hätten Sie seinen Daten schon vorher nicht getraut.“

Prof. X: „Exakt.“

„Aber der Aufschrei war doch riesig, als die Fälschungen bekannt wurden.“

Prof. X: „Sicher. Geschrien haben allerdings nur die Anderen. Uns ‚Insider‘ hat das überhaupt nicht überrascht. Wir wissen eben viel mehr, als in den Journalen steht. Wie woanders auch, haben wir ein gut funktionierendes Untergrund-Netzwerk. Und da wird früh Alarm geschlagen.“

„Wie muss man sich das vorstellen?“

Prof. X: „Nun ja, wenn jemand die Daten eines Kollegen nicht reproduzieren kann, dann weiß das ziemlich schnell jeder im Feld. Was meinen Sie denn, welches das ‚Flurthema‘ schlechthin auf jeder Konferenz ist? Ich sage es Ihnen: Welche Daten sind robust, und welche sind es nicht; und welcher Forscher macht solides Zeug, und wer nicht.“

„Und bei Y war die Sache schon lange klar?“

Prof. X: „Genau. Wir hatten ihn bereits unter Verdacht, als er die ersten ‚spektakulären‘ Resultate anbrachte. Der eine konnte dies nicht reproduzieren, der andere hatte jenes schon lange vorher vergeblich versucht, ein Dritter hatte ‚etwas mitbekommen‘,… und so weiter. Glauben Sie mir: Wenn sich Leute schon richtig lange mit bestimmten Dingen beschäftigt haben, erkennen sie solche ‚Probleme‘ ziemlich schnell.“

„Also viel Rauch um Nichts?“

Prof. X: „Forschungsfälschung ist immer schlimm, keine Frage. Doch meist richtet sie nicht den Schaden an, den viele befürchten, da die unmittelbar Betroffenen aufgrund der geschilderten Mechanismen sowieso schon lange vorsichtig waren. Laut schreien tun nur andere — vor allem diejenigen, die immer gleich den ganzen Wissenschaftsbetrieb in Gefahr sehen.“

x

Okay, wahrscheinlich trifft das nicht für jeden Fall von Forschungsfälschung zu. Wir können uns beispielsweise noch gut erinnern, wie die internationale Pflanzenforscher-Gemeinde zuerst ungläubig und dann zunehmend schockiert reagierte, als nach und nach die Mauscheleien in den Publikationen ihres Zürcher Kollegen Olivier Voinnet aufflogen.

Aber dennoch: Wir wünschen weiterhin guten Flurfunk! Sei es auf Konferenzen oder anderswo.

Ralf Neumann

Illustr.: CoolCLIPS

„Bitte publik machen, aber ohne meinen Namen!“

13. März 2019 von Laborjournal

In schöner Regelmäßigkeit bekommen wir anonyme Zuschriften. Mehr noch aber solche, in denen die Schreiber sich zwar zu erkennen geben, aber darum bitten, unbedingt ihre Anonymität zu wahren, falls wir über das von ihnen angeprangerte Thema berichten würden.

In all diesen Fällen brennt den Schreibern „ihr“ Thema so fürchterlich auf den Nägeln, dass sie der Meinung sind, man müsse die entsprechenden Missstände (oder gar ihre eigenen „schlimmen, aber durchaus typischen“ Fälle) unbedingt in der gesamten Forschungsszene bekannt machen. Klar, deswegen schreiben sie uns ja. Aber ihren Namen — nein, den wollen sie dann um Himmels willen nicht in dem Artikel stehen sehen.

Beispielsweise kam vor einiger Zeit im DIN A4-Kouvert ein ganzer Packen vermeintliches „Beweismaterial“, mit dem der anonyme Absender Datenmanipulationen in gleich mehreren Veröffentlichungen als klar belegt ansah. Im Begleitbrief drängte der „Whistleblower“ geradezu, dass wir „diese wichtige Sache“ unbedingt verfolgen und öffentlich machen sollten. Und am Schluss dann der typische Absatz:

Wie Sie sehen werden, sitzen die betreffenden Kollegen in politisch wichtigen Positionen und sind sehr einflussreich. Ich dagegen bin nur ein unerfahrener Doktorand […] und arbeite selbst noch am Ort des Geschehens. Aus diesem Grund muss ich schlimme Konsequenzen befürchten, wenn ich „den Mund aufmache“ — und möchte deswegen unbedingt anonym bleiben.

Viele werden jetzt sicher zustimmend nicken und denken: „Nur zu verständlich, dass dieser Doktorand unter solchen Umständen unerkannt bleiben möchte.“ Und wir? Wir prüften natürlich das „Beweismaterial“. Diesen Beitrag weiterlesen »

Die Natur ist Gentechniker!

6. März 2019 von Laborjournal

„Um sich an die Umwelt anzupassen, übernehmen Gräser bestimmte Gene von verwandten Arten — und das auf direktem Weg von Pflanze zu Pflanze.“ So stand es in einer Meldung der Uni Bern, die der Redaktion vor gut zwei Wochen auf den Tisch flatterte.

„Wow, offenbar horizontaler Gentransfer at its best“, dachte unser Chefredakteur sofort. Doch komischerweise formte sich vor seinem geistigen Auge eben nicht — wie eigentlich sonst immer — zunehmend eine Idee, wie er die beschriebene Studie in Laborjournal aufgreifen könnte. Vielmehr stieß dieses Stichwort seine Gedanken umgehend mitten in die aktuelle Gentechnik-Debatte, die angesichts der jüngsten Entwicklung des „spurenfreien“ Gene Editings via CRISPR und Co. im Hamsterrad der Irrationalitäten ja nochmal ein bis zwei Gänge hochgeschaltet hatte.

Kaum etwas ist doch annähernd so umfassend erforscht, wie die verschiedenen gentechnischen Methoden inklusive der mittelfristigen Folgen und Nicht-Folgen ihrer Anwendungen — so dachte er. Entsprechend verlegen sich die Rundum-Ablehner von Ökos, Grünen, SPD und generellen Fortschrittsfeinden ja auch immer weniger auf wissenschaftliche Argumente. Stattdessen diskreditieren sie lieber gleich die ganze Wissenschaft an sich. Oder — und jetzt kommen wir langsam zur oben erwähnten Studie — sie schwurbeln aufgrund eines romantisch-falschen Naturbegriffs irgendwas von wegen „unnatürliche Methoden“ herum.

Und jetzt das! Da finden doch Forscher tatsächlich, dass die Vorfahren einer Grasart im Laufe ihrer Evolution insgesamt sechzig Gene aus neun verschiedenen, nur sehr weitläufig verwandten Gräsern stibitzt und in ihr eigenes Genom integriert haben. Einfach so, über sämtliche Artgrenzen hinweg! In freier Natur, ohne Labor — und noch viel kruder, als CRISPR und Co. es jemals könnten!

Dabei sind die Gräser beileibe nicht das erste Beispiel, wie schamlos die Natur seit jeher ohne jegliches Zutun des Menschen „Gentechnik“ betreibt. Sie sind auch nicht erst die zehnte oder zwanzigste „Ausnahme“! So scheint vielmehr in sämtlichen evolutionären Linien horizontaler Gentransfer stattgefunden zu haben. Bereits zuvor hatte die Wissenschaft beispielsweise festgestellt, dass sich Farne wichtige Gene aus Moosen holten, dass Läuse sich bei Bakterien bedienten, dass die Süßkartoffel ein natürlich gentechnisch veränderter Organismus (GVO) ist. Gleiches gilt für Fliegen, Würmer und und und… bis hin zu uns Menschen. Knapp 150 Gene übernahmen unsere Primaten-Vorfahren offenbar aus Bakterien, Einzellern und Pilzen in ihr Genom, wo sie heute wichtige Funktionen für uns erfüllen — etwa im Fettstoffwechsel oder der Immunabwehr.

Alles Natur pur also! Und das aktuell so heiß diskutierte Genome Editing sowieso. Im Darm eines jeden einzelnen von uns CRISPR’t es wahrscheinlich millionenfach — pro Tag!

Nein, die Natur ist nicht romantisch, sie ist pragmatisch. Und ihre Exekutive ist die Evolution. Komplett wertfrei probiert sie alles Mögliche aus — und wenn ein Organismus von irgendeiner evolutionären Rumprobiererei einen Nutzen hat, wird das Resultat über die nächsten Generationen in der gesamten Population fixiert. Klar, dass sie dazu als Werkzeug auch gerne den horizontalen Gentransfer über Artgrenzen hinweg benutzt. Oder Transformation via Plasmid oder Virus-Vektor. Oder Genome Editing… Schlichtweg alles, was man heute Gentechnik nennt, und noch viel mehr.

Einiges davon kriegt der Mensch inzwischen auch im Labor hin, und einiges davon inzwischen auch deutlich schneller und zielgerichteter als die Natur. Aber prinzipiell unnatürlich wird es dadurch nicht. Auch wenn die Gentechnik-Gegner es gerne so hätten. Nein, ganz im Gegenteil: Dass Gentechnik unnatürlich sei, ist ein ganz schwaches Argument — und kann nur von Leuten kommen, die die Natur nicht verstanden haben…

Ralf Neumann

(P.S.: Natürlich fragt sich unser Chefredakteur jetzt, ob er genau diese Gedanken nicht mal in Laborjournal schreiben sollte — statt diese Gräser-Studie etwa routinemäßig als Nachricht oder Journal Club zu referieren. Aber wäre das gerade den Laborjournal-Lesern gegenüber nicht lediglich „Preaching to the Converted“, wie die Engländer so schön sagen?… Hm, vielleicht aber doch nicht nur…)

x

Zehnmal #Forscherfrust

28. Februar 2019 von Laborjournal

In der vergangenen Woche eröffneten wir auf Twitter den Hashtag #Forscherfrust. Unsere zehn Beispiele für entsprechende Frusterlebnisse rund um das Forscher-Dasein sind hier nochmals zusammengetragen:

x

x

Wenn jemand noch weitere Beispiele loswerden will — entweder hier unten im Kommentarfenster oder unter dem Hashtag #Forscherfrust auf Twitter.

x

Muss man wirklich alle Daten zeigen?

18. Februar 2019 von Laborjournal

Hat es überhaupt jemand gemerkt: Heimlich, still und leise ist ein lange Zeit durchaus gängiger Ausdruck aus den Papern verschwunden: „Data not shown“.

Bevor das Internet so richtig aufblühte, war Platz eben knapp im gedruckten Journal — und so verzichtete man gerne auf die Abbildung nicht allzu entscheidender Experimente, frei nach dem Motto: „Vertraut uns, wir haben die Daten!“ Und da das damals meistens auch stimmte, machten in der Regel auch die Reviewer kein Problem.

Seit einiger Zeit ist es vorbei damit. Seitdem Paper zumindest parallel online erscheinen, gibt es kaum noch Platzbeschränkungen. Was natürlich jede Menge naheliegender Verbesserungen nach sich zog. Zum Beispiel können Verhaltensforscher seitdem ganze Videos ihrer Experimente als „virtuellen Anhang“ online präsentieren. Ebenso umfangreiche Omics-Rohdaten, seitenlange Spezies-Listen, Computercodes — jede Menge sinnvolle Masse, die den räumlichen Rahmen des gedruckten Papers sprengen würde, konnte nun dem geneigten Leser als „Supplementary Material“ online vorgelegt werden.

Dummerweise jedoch erzeugen neue Möglichkeiten oft auch neue Zwänge. Vernachlässigbare Daten nicht aufarbeiten und zeigen zu müssen, konnte nun nicht mehr hinter Platzproblemen versteckt werden. Sind Daten showable — egal, wie unwichtig sie auch sein mögen —, so sollen sie auch als „Supplementary Online Material“ präsentiert werden. Und weil es keine Beschränkungen mehr gibt, verlangen die Reviewer nun auch ganz automatisch, pro Paper immer mehr solche Daten zu zeigen. Im „Online Supplement“ ist ja jede Menge Platz. Und schon sind — schwuppdiwupp — die Standards hochgeschraubt, welche Datenmengen tatsächlich für ein Paper „reichen“.

Die Folge jedoch ist, dass in den Tiefen des Internet die erwähnte Population sinnvoller Online-Anhänge von einem ziemlichen Geschwür eher unbedeutender „Supplemental Data“ durchwuchert wird, die sich allenfalls ein paar Desperados anschauen. Tatsächlich findet man inzwischen durchaus runde und schlüssige „Kern-Paper“, die dennoch auf mehr als 50 (!) „Supplementary Figures“ verweisen.

In solchen Fällen behaupten wir einfach mal: Dürften die Autoren noch das gute, alte „Data not shown“ verwenden, hätte man ihnen viel Zeit für Wichtigeres geschenkt — ohne dass deren Paper an echter Qualität verlören und ohne dass auch nur irgendjemand die Daten vermissen würde. Denn die „Supplements“ machen viele dieser Paper nicht besser — sondern einfach nur „dicker“.

Ralf Neumann

Die Crux mit dem Projekt

7. Februar 2019 von Laborjournal

Wer Geld für seine Forschung haben will, muss einen Projektantrag stellen. Sicher, wenn es ein bisschen größer sein soll, heißt das Ganze auch mal „Programm“ oder „Initiative“. Aber woraus setzen sich diese in aller Regel zusammen? Genau, aus lauter Einzel-Projekten! Schon lange ist Forschung auf diese Weise nahezu ausschließlich in Projekten organisiert. Das Projekt ist die Keimzelle einer jeden Forschungsförderung.

Paradox ist das schon. Denn zumindest in der reinen Grundlagenforschung kann nur „projektiert“ werden, was noch unbekannt ist. Andernfalls wäre es keine. Oder anders gesagt: Sonst wäre das Projekt kein Forschungsprojekt. Zugleich muss das Unbekannte aber bekannt genug sein, um ein Forschungsvorhaben überhaupt in Form eines Projektes organisieren zu können. Schließlich lässt sich nur mit einem hinreichenden Maß an Bekanntem vorweg eine klare Forschungsplanung hinsichtlich Zielvorgaben, zeitlichem Ablaufen, finanzieller und personeller Ressourcen et cetera entwerfen. Dummerweise gilt aber ohne solch einen klaren Plan nix als Projekt — und wird auch nicht gefördert.

Es passt also nicht wirklich zusammen: Das Ideal von Forschung als offener, durch reine Neugier gelenkter Prozess einerseits — und die Projektierung von Forschung andererseits. Zumal in der Forschung auch anfängliche Zielvorgaben schnell und flexibel umformuliert werden können müssen, wie auch ein beträchtliches Risiko zu scheitern bewusst eingeschlossen ist.

Für ein Projekt dagegen ist das Vorwegnehmen von offensichtlich Neuem zu Beginn eines Prozesses unvermeidbar. Der Vorstellung von Wissenschaft als Prozess fortlaufender Entdeckungen widerspricht dies jedoch fundamental. In Projekten kann man naturgemäß nicht einfach nur von irgendwelchen Prämissen ausgehen — und dann durch fortlaufende Exploration schauen, was daraus wird. Ebenso wenig, wie sich Änderungen leicht hinnehmen lassen. Wie könnten Projekte sonst auf die ihnen innewohnende Art alle möglichen Unsicherheiten minimieren?

Daher stellen sich zwei Fragen: Wie kann man etwas vorweg bestimmen, das man gerade durch die Forschungstätigkeit entdecken will? Und welche Art Wissenschaft könnte überhaupt projektierbar sein? Letzteres mag funktionieren, wenn man ganz konkrete Fälle analysiert und auf jegliche Form der Generalisierung verzichtet. Forschung, die allerdings genau dieses Ziel verfolgt — nämlich ein generalisierendes Modell oder eine übergeordnete Theorie zu entwerfen —, ist in der Organisationsform „Projekt“ denkbar schlecht aufgehoben.

             Ralf Neumann

 

Monolog von einem, der sich auf die Sitzung einer Berufungskommission vorbereiten will

30. Januar 2019 von Laborjournal

(Szene: Professor Schneider sinnierend am Schreibtisch, seine Stimme ertönt aus dem Off…)

„Okay, die Zellbiologie-Professur — also schauen wir mal… Wie viele Bewerbungen waren es noch mal insgesamt? Egal, mehrere Dutzend. Jetzt sind also noch acht im Rennen. Hmm… nach Prüfung der Unterlagen schenken sie sich nix. Alle in etwa auf der gleichen Stufe.

Was also tun? Soll ich jetzt etwa die Publikationen jedes einzelnen studieren? Klar, damit würde ich den einzelnen Bewerbern am ehesten gerecht werden. Aber andererseits ist das wahre „Monsterarbeit“, da brauch’ ich ja ewig für…

Am besten schaue ich mir erstmal die einschlägigen Kennwerte an. Zitierzahlen zum Beispiel… Obwohl — dass hohe Zitierraten nicht unbedingt brillante Forschung widerspiegeln, weiß man ja inzwischen. Andererseits stehen hohe Zitierzahlen natürlich jeder Fakultät gut zu Gesicht — egal, wie sie zustande kommen.

 

Auch mit teurer Methodik erntet man zuweilen nur tiefhängende Früchte.

 

Aber was macht man beispielsweise mit einem Forscher, der viel zitiert wird, weil er eine ganz bestimmte Technik ziemlich exklusiv beherrscht — und wenn dann diese Technik zwei Jahre später wegen einer brandneuen, besseren und billigeren Methode plötzlich obsolet wird? Ist schließlich alles schon vorgekommen…

Na gut, dann schau’ ich mir doch mal an, wie viele Drittmittel die einzelnen Bewerber für ihre bisherigen Projekte eingeworben haben. Schließlich profitiert doch die gesamte Fakultät von Leuten, die ordentlich Fördermittel bei DFG & Co. loseisen können.

Allerdings wird nicht zu Unrecht kritisiert, dass eine zu starke Gewichtung von Drittmittelvolumen bei Berufungsverfahren die Forscher erst recht dazu treibt, vor allem teure Projekte zu verfolgen. Ob da nicht vielleicht doch manchmal eine brillante, aber „billige“ Idee zugunsten eines teuren Low Hanging Fruit-Projekts geopfert wird? Eben weil man dann mit dickerem Drittmittel-Volumen protzen kann?

Viele Kollegen lästern ja auch schon darüber. Da fällt mir ein, wie Kollege Maier das Ganze bei unserem Stammtisch mal als „wissenschaftlichen Benzinverbrauch“ betitelt hat — und weiter gespottet, dass einige Fahrer auch mit viel verfahrenem Benzin nur im nächsten Ort landen. War schon witzig. Und Kollege Müller ergänzte süffisant, dass man ja auch die Qualität eines Gemäldes nicht nach den Kosten für Pinsel, Farbe, Leinwand und so weiter beurteilt…

Tja, ganz klar: Da ist was dran, dass diese Kennzahlen allzu oft nicht das liefern, was man sich von ihnen erhofft. Ganz im Gegenteil! Es hilft also nichts, ich werde mir wohl doch zumindest einige Publikationen der Kandidaten etwas genauer anschauen müssen…“

Ralf Neumann

x

Zu spekulativ? — Na und!

17. Januar 2019 von Laborjournal

(Vor knapp vier Jahren erschien der folgende Text in unserer Print-Kolumne „Inkubiert“. Wir finden, er hat eine neuerliche Diskussion verdient.)

Zu den zentralen Aufgaben wissenschaftlichen Arbeitens gehört es, Modelle und Theorien zu entwickeln. So sollte man jedenfalls meinen.

Die Realität jedoch sieht anders aus. Seitdem Forschung zunehmend projektorientiert stattfindet und sich über Publikationsmetriken definiert, scheint „Theoriearbeit“ nicht mehr angesagt. Vor einiger Zeit bilanzierte etwa eine Studie zu exakt diesem Thema, dass von 500 untersuchten Forschungs­projekten nur etwa zehn Prozent „genuine Theoriearbeit“ beinhalteten. Der gewaltige Rest beschränkte sich laut den Autoren  größtenteils auf die punktuelle Analyse eines konkreten Falles und verzichtete schon im Ansatz auf jegliche Form der Generalisierung.

Welche Art Forschung auf diese Art herauskommt, ist klar: Überschaubare Projekte, die fest auf bekannten Theorien fußen und daraus abgeleitete Fragen mit bekannten Methoden bearbeiten — Forschung mit eingebauter Ergebnisgarantie, bei gleichsam dürftigem Erkenntnispotenzial.

Aber sollte Forschung nicht eigentlich Türen ins Unbekannte aufstoßen? Augenscheinlich muss man es sich wirklich wieder neu in Erinnerung rufen. Denn offenbar scheint der Löwenanteil aktueller Forschungsprojekte nicht wirklich daraufhin angelegt. Was natürlich auch dadurch unterstützt wird, dass das Klima gerade generell von einer Theorie-feindlichen Großwetterlage geprägt wird. Denn was passiert beispielsweise, wenn sich doch mal jemand traut, in einem Manuskript über den Tellerrand zu blicken und aus den vorgestellten Daten ein generalisierendes Modell entwickelt? Die Chance ist groß, mit der Totschlag-Floskel „zu spekulativ“ wieder zurück auf Start geschickt zu werden.

Doch warum ist „spekulativ“ heutzutage derart negativ besetzt? Natürlich sind Modelle und Theorien spekulativ — was denn sonst? Es wird ja auch kaum einer von Vorneherein behaupten, sein Modell sei korrekt. Weil Modelle und Theorien allenfalls nützlich sein können, das Unbekannte weiter zu entschlüsseln. Ganz in dem Sinne, wie Sydney Brenner es vor einiger Zeit formulierte:

„Die Hauptsache ist, sich mit Möglichkeiten befassen zu können. Dinge einfach auszusprechen, auch wenn sie falsch sein mögen. Indem ich sie ausspreche, kann ich besser erkennen, was daran falsch sein könnte. Und das kann wiederum zu einer robusteren Idee führen. Letztlich geht es also darum, die Dinge nicht zurückzuhalten.“

Oder vorschnell als „zu spekulativ“ abzuqualifizieren.

 

Information 1


Information 2


Info

Info

Info

Neuer Mehrfachdispenser von BRAND: Das moderne Touch-Bedienkonzept macht die Arbeit einfach und effizient. mehr

Info

Info

Bestellen Sie noch heute Ihr kostenfreies Exemplar. mehr

Info

Info

Der Eppendorf Online Shop bietet für jedes Labor das passende Produkt, viele Aktionen inklusive. mehr

Info

Info

Gewinnen Sie einen VIAFILL Reagenziendispenser einschließlich einer Dispensierkassette Ihrer Wahl. mehr