Zehnmal #Forscherfrust

28. Februar 2019 von Laborjournal

In der vergangenen Woche eröffneten wir auf Twitter den Hashtag #Forscherfrust. Unsere zehn Beispiele für entsprechende Frusterlebnisse rund um das Forscher-Dasein sind hier nochmals zusammengetragen:

x

x

Wenn jemand noch weitere Beispiele loswerden will — entweder hier unten im Kommentarfenster oder unter dem Hashtag #Forscherfrust auf Twitter.

x

Monolog von einem, der sich auf die Sitzung einer Berufungskommission vorbereiten will

30. Januar 2019 von Laborjournal

(Szene: Professor Schneider sinnierend am Schreibtisch, seine Stimme ertönt aus dem Off…)

„Okay, die Zellbiologie-Professur — also schauen wir mal… Wie viele Bewerbungen waren es noch mal insgesamt? Egal, mehrere Dutzend. Jetzt sind also noch acht im Rennen. Hmm… nach Prüfung der Unterlagen schenken sie sich nix. Alle in etwa auf der gleichen Stufe.

Was also tun? Soll ich jetzt etwa die Publikationen jedes einzelnen studieren? Klar, damit würde ich den einzelnen Bewerbern am ehesten gerecht werden. Aber andererseits ist das wahre „Monsterarbeit“, da brauch’ ich ja ewig für…

Am besten schaue ich mir erstmal die einschlägigen Kennwerte an. Zitierzahlen zum Beispiel… Obwohl — dass hohe Zitierraten nicht unbedingt brillante Forschung widerspiegeln, weiß man ja inzwischen. Andererseits stehen hohe Zitierzahlen natürlich jeder Fakultät gut zu Gesicht — egal, wie sie zustande kommen.

 

Auch mit teurer Methodik erntet man zuweilen nur tiefhängende Früchte.

 

Aber was macht man beispielsweise mit einem Forscher, der viel zitiert wird, weil er eine ganz bestimmte Technik ziemlich exklusiv beherrscht — und wenn dann diese Technik zwei Jahre später wegen einer brandneuen, besseren und billigeren Methode plötzlich obsolet wird? Ist schließlich alles schon vorgekommen…

Na gut, dann schau’ ich mir doch mal an, wie viele Drittmittel die einzelnen Bewerber für ihre bisherigen Projekte eingeworben haben. Schließlich profitiert doch die gesamte Fakultät von Leuten, die ordentlich Fördermittel bei DFG & Co. loseisen können.

Allerdings wird nicht zu Unrecht kritisiert, dass eine zu starke Gewichtung von Drittmittelvolumen bei Berufungsverfahren die Forscher erst recht dazu treibt, vor allem teure Projekte zu verfolgen. Ob da nicht vielleicht doch manchmal eine brillante, aber „billige“ Idee zugunsten eines teuren Low Hanging Fruit-Projekts geopfert wird? Eben weil man dann mit dickerem Drittmittel-Volumen protzen kann?

Viele Kollegen lästern ja auch schon darüber. Da fällt mir ein, wie Kollege Maier das Ganze bei unserem Stammtisch mal als „wissenschaftlichen Benzinverbrauch“ betitelt hat — und weiter gespottet, dass einige Fahrer auch mit viel verfahrenem Benzin nur im nächsten Ort landen. War schon witzig. Und Kollege Müller ergänzte süffisant, dass man ja auch die Qualität eines Gemäldes nicht nach den Kosten für Pinsel, Farbe, Leinwand und so weiter beurteilt…

Tja, ganz klar: Da ist was dran, dass diese Kennzahlen allzu oft nicht das liefern, was man sich von ihnen erhofft. Ganz im Gegenteil! Es hilft also nichts, ich werde mir wohl doch zumindest einige Publikationen der Kandidaten etwas genauer anschauen müssen…“

Ralf Neumann

x

Zehn ketzerische Gebote zur wunderbaren Welt der Leistungsorientierten Mittelvergabe (LOM)

4. Oktober 2018 von Laborjournal

(Den folgenden Beitrag bekam unsere Redaktion unaufgefordert zugeschickt. Der Autor ist der Redaktion bekannt.)


"Every valuable human being
must be a radical and a rebel,
for what he must aim at
is to make things better than they are."

Niels Henrik David Bohr
(Dänischer Physiker, 1885-1962, Physik-Nobelpreis 1922)

 

Vor 14 Jahren konzipierte und propagierte die DFG die sogenannte Leistungsorientierte Mittel­ver­gabe (LOM) und entließ sie als groß angelegten Freilandversuch in die medizinische For­schungs­landschaft. Oder besser gesagt: Sie ließ sie auf die Forscher in den Medizinischen Fakultäten los.

Bei der LOM konkurrieren in der Regel die verschiedenen Institute einer Fakultät um einen fixen Geldtopf. Das heißt, wenn Institut A nach irgendwelchen Kriterien, deren Sinn zumindest zweifelhaft ist, besser „produziert“ als Institut B, dann bekommt Institut B weniger Geld zugeteilt. Auch innerhalb einzelner Institute werden in vielen Fällen Kollegen direkt miteinander verglichen — sowohl in der Forschung, wie auch teilweise in der Lehre (wo der dominante Parameter allerdings häufig Quantität ist). Typischerweise spielen Impact-Faktoren von Zeitschriften eine wesentliche Rolle bei der LOM-Berechnung von „Forschungsleistungen“, obwohl deren Eignung zur Evaluation von Instituten und Einzelpersonen inzwischen selbst von Top-Journalen wie Nature oder Science klar verneint wird.

Dennoch haben viele Fakultäten die LOM-Richtlinie der DFG geflissentlich umgesetzt, ohne dass nachfolgend jemals geklärt wurde, ob sie wirklich sinnvoll ist — das heißt, ob ein messbarer positiver Effekt erzielt wird. Ob die LOM nützlich war bzw. ist, oder ob sie vielleicht vielmehr insbesondere das kollegiale Klima vergiftet, bleibt daher bis heute ungeklärt. Was aber auf jeden Fall erreicht wurde, ist, dass mehr Verwaltungspersonal zur Datenbankpflege et cetera benötigt wird. Die Relation von Forschern zu Verwaltern verschiebt sich zu Ungunsten der Forschung.

Nachfragen an die DFG mit der Bitte um Stellungnahme über mögliche Hinweise zum belegbaren Nutzen (oder Schaden) der Impact-Faktor-basierten LOM zeigen deutlich, dass die DFG sich bis auf Weiteres nicht ihrer Verantwortung für die Folgen der LOM stellt — ja sogar, dass sie auch in absehbarer Zukunft keine rigorose Evaluation durchführen will, obwohl ihr die Problematik sehr wohl bewußt ist.

Wenn man das dennoch ändern möchte, darf man also nicht weiter stillhalten. Deshalb nachfolgend eine ketzerische Liste von zehn LOM-Geboten zur wohlfeilen Reflexion. Sie könnte leicht noch länger sein, aber die Zahl 10 ist ja so schön biblisch — und 10 Gebote sollten letztlich mehr als genug sein, um potenziell LOM-induzierte Denkweisen des Homo laborensis nonsapiens darzustellen:x

Die 10 Gebote der LOM


  1. Du sollst den Kollegen vom Nachbar-Institut nicht helfen, in hochrangigen Journalen zu publizieren — vor allem, wenn die Gefahr besteht, dass sie in der LOM an Deinem Institut vorbei ziehen könnten.
  2. Du sollst Deinen LOM-Mitbewerbern nur solche Experimente vorschlagen, die viel Zeit kosten und letztendlich möglichst nicht funktionieren.
  3. Du sollst die Drittmittel-Anträge Deiner lokalen Kollegen nur oberflächlich kritisieren und eklatante Schwachstellen nicht aufdecken. Ihr Erfolg ist Dein LOM-Verlust!
  4. Du sollst Verbund-Initiativen nur gerade soweit unterstützen, wie sie Dir selbst nützen. Erfolge in diesem Bereich bringen den leitenden Kollegen in der Regel viele LOM-Punkte — was wiederum heißt, dass Du schlechter aussiehst.
  5. Du sollst in Berufungskommissionen dafür sorgen, dass in Nachbar-Instituten möglichst zweitklassige Kollegen angeheuert werden. Deren LOM-Schwäche wird Deine LOM-Stärke.
  6. Wenn Du eine Core Facility leitest, sorge dafür, dass vor allem die Kollegen Deines Instituts, am meisten aber Deine eigenen Leute von den sauteuren Gerätschaften profitieren.
  7. Du sollst Gutachtern bei Begehungen unauffällig subtile Hinweise zuspielen, die Deine LOM-Konkurenten in schlechterem Licht darstellen. Auch nonverbale Kommunikation kann hier wahre Wunder wirken.
  8. Falls Review-Artikel LOM-fähig sind, hau‘ möglichst viel davon raus! Selbst wenn deren echter „Nährwert“ oft äußerst limitiert ist, ersetzen sie doch für die LOM-Kalkulation wunderbar die deutlich mühsameren und kreativeren Originalartikel.
  9. Du sollst Kontrollexperimente und Wiederholungen von Experimenten auf ein absolutes Minimum beschränken, da diese nichts zur LOM beitragen.
  10. Du sollst Deine Ergebnisse in möglichst viele Artikel aufspalten, da dies zu einer Optimierung Deiner LOM-Punkte beiträgt.

 

In diesem Sinne, liebe Kollegen, freuen wir uns alle auf weitere Dekaden in der wunderbaren Welt der LOM. Für weitere kreative Ideen, wie man bei der LOM als Sieger vom Platz geht, einfach abends mal eine schöne Serie anschauen — zum Beispiel das gute alte Dallas mit J.R. Ewing oder auch House of Cards.

Illustration: iStock / kmlmtz66

x

Welche Forschung ist exzellent?

19. Juli 2018 von Laborjournal

Gehen wir die Frage mal mit einem Gedankenexperiment an: Stellen Sie sich vor, Sie begutachten Forschungsanträge für einen großen europäischen Forschungsförderer. Und nehmen wir an, dieser Förderer hätte als Leitlinie ausgegeben, dass einzig „wissenschaftliche Exzellenz“ als Kriterium für die Entscheidungen gelte. Das Anwendungspotenzial der Projekte sei unerheblich, es gebe keinerlei thematische Prioritäten und auch der Grad an Interdisziplinarität spiele keine Rolle. Nur die pure „Exzellenz“!

Okay, verstanden! Sie nehmen sich also die Anträge vor. Der erste formuliert eine brillante neue Hypothese zu einem Phänomen, für das die „alte“ Erklärung erst kürzlich spektakulär in sich zusammengefallen war.

Der nächste dagegen visiert eine „ältere“, ungemein attraktive Hypo­these an, die sich bislang aber jedem rigorosen experimentellen Test entzog — und genau diese quälende Lücke wollen die Antragsteller jetzt auf höchst originelle und einleuchtende Weise füllen.

Der dritte präsentiert einen klaren Plan, wie sich gewisse neue Erkenntnisse für eine völlig neue Methode rekrutieren ließen — eine Methode, die, wenn sie dann funktionierte, ganze Batterien neuer Experimente zu bislang „verschlossenen“ Fragen ermöglichen würde.

Der vierte kombiniert verschiedene vorhandene Tools und Ressourcen auf derart geschickte Weise, dass die Antragsteller damit in der Lage sein würden, riesige Datenmassen zu erheben, zu ordnen und zu analysieren — ein „Service“, mit dem das gesamte Feld zweifellos einen Riesensprung machen würde.

Der fünfte schließlich will auf überzeugende Weise sämtliche zu einem bestimmten Kontext publizierten Daten re- und meta-analysieren, um dann mit dem Paket ein möglichst robustes Simulationsprogramm zu entwickeln — ein Programm, das sicher mannigfach die Entwicklung neuer Hypothesen ermöglichen würde…

Jetzt halten Sie erstmal inne. „Mir war bisher nicht bewusst, auf welche verschiedene Arten Wissenschaft exzellent sein kann“, denken Sie. „Genauso wie exzellente Äpfel, Birnen und Orangen alle exzellentes Obst darstellen. Und die soll man ja bekanntlich nicht miteinander vergleichen.“

Ralf Neumann

x

Undurchsichtige Stiftung?

4. Juli 2014 von Kommentar per Email

Kürzlich erhielt die Laborjournal-Redaktion eine E-Mail, in der der Verfasser die Begutachtungspolitik der Else Kröner-Fresenius-Stiftung folgendermaßen kritisiert:

Ich habe mit dem Begutachtungsverfahren der Else Kröner-Fresenius-Stiftung äußerst negative Erfahrungen gemacht.

Zwei meiner im Abstand von etwa 12 Monaten eingereichten Anträge zu unterschiedlichen wissenschaftlichen Fragestellungen wurden bereits nach jeweils 2-monatiger Bearbeitungszeit abgelehnt. In der schriftlichen Mitteilung wurde mir empfohlen, die Ablehnungsgründe telefonisch abzufragen, was ich auch tat. Die Antworten waren aber nichtssagend: Es wurden formale Gründe genannt (der Antrag sei zu lang; der Antrag sei teilweise zu deskriptiv). Als wesentlicher Grund wurde jedoch auf eine zu niedrige Priorität in einem wie auch immer gearteten Vorbegutachtungsverfahren hingewiesen.

Ich möchte erwähnen, dass die Stiftung äußerst detaillierte Projektbeschreibungen einfordert. Es müssen beispielsweise ein bewilligter Tierversuchsantrag oder ein von der Ethikkommission genehmigter Antrag vorliegen. Die Vorbereitung solcher Anträge ist zeitraubend und relativ teuer.

Es wäre interessant zu erfahren, wie das Begutachtungsverfahren bei der Stiftung strukturiert ist. Bei der DFG ist dies mittlerweile absolut transparent und nachvollziehbar. Es werden ausführliche schriftliche Gutachten verschickt, die die Empfehlungen des zuständigen Panels (deren Mitglieder demokratisch gewählt werden und namentlich auf der Homepage erscheinen) beinhalten.

Es wäre schade, falls die Else Kröner-Fresenius-Stiftung ihre Mittel unabhängig von den üblichen Vorgaben der Peer-Review-Praxis verteilen würde und stattdessen einem nicht definierten „Bauchgefühl“ anonymer Gutachter folgt. In Zeiten knapper Ressourcen sollte dies bei einer finanzstarken Stiftung vermieden werden.

Ich würde mich sehr freuen, falls Sie dieser Frage nachgehen könnten und dadurch weiteren Antragstellern ähnlicher Ärger eventuell erspart werden könnte.

Möchte dazu jemand weitere Erfahrungen mitteilen? Entweder direkt im Kommentarfenster unten oder direkt an redaktion@laborjournal.de.

Einstein und der Peer Review

24. Juni 2014 von Laborjournal

Auch Einstein hielt anfangs nicht viel von Peer Review. Aus seiner „deutschen Zeit“ kannte er dieses System, etwa von seinen fünf berühmten 1905er-Artikeln in den Annalen der Physik, überhaupt nicht. Erst nachdem er in die USA ausgewandert war, sah er sich plötzlich damit konfrontiert, dass seine Manuskripte bisweilen zunächst irgendwelchen Kollegen zur Begutachtung vorgelegt wurden.

Das Online-Organ The Conversation hat dazu gerade eine nette Anekdote wieder ausgegraben, die Physics Today bereits 2005 veröffentlicht hatte. Demnach schickte Einstein zusammen mit seinem Kollegen Nathan Rosen 1936 ein Manuskript über Gravitationswellen an Physical Review. Dessen damaliger Chief Editor John Tate fand das Manuskript aber offenbar derart kontrovers, spekulativ, ja geradezu „phantastisch“, dass er es Einsteins Princeton-Nachbarn Howard Percey Robertson zum Begutachten schickte. Immerhin stellten Einstein und Rosen darin gar die Wellennatur der Gravitation überhaupt in Frage.

Robertson schrieb einen zehnseitigen Kommentar mit jeder Menge gravierender „Entschärfungssvorschlägen“, den Tate umgehend an Einstein weiterleitete. Dieser schrieb Tate schnöde zurück:

We (Mr. Rosen and I) had sent you our manuscript for publication and had not authorised you to show it to specialists before it is printed. I see no reason to address the — in any case erroneous — comments of your anonymous expert. On the basis of this incident I prefer to publish the paper elsewhere.

Einstein publizierte das Manuskript letztlich in dem deutlich „bescheideneren“ Journal of the Franklin Institute. Dies allerdings erst nach einiger Zeit — und mit einem Großteil der Änderungen, die Robertson vorgeschlagen hatte. Es sollte sich herausstellen, dass die Beiden in der Zwischenzeit ausführlich in Princeton über die Befunde des Manuskripts diskutiert hatten — wobei Einstein am Ende offenbar doch einräumen musste, dass dessen schlussfolgernde Behauptungen etwas zu hoch gegriffen waren.

Womöglich bewahrte dieser indirekte Peer Review Einstein also vor einer gehörigen öffentlichen Blamage. In einem reinen Post-Publication-Peer-Review-System, wie es viele heute fordern, hätte er sich sehr wahrscheinlich mit einem voreiligen Schnellschuss ziemlich in die Nesseln gesetzt.

Kooperationen klappen — oder nicht!

23. April 2014 von Laborjournal

Folgende Anekdote gestern am Telefon gehört [Namen geändert!]:

Forscher Müller hat eine Kooperation mit Meier. Eines Tages erhält Müller überraschend ein Manuskript von Meier. Er finde, dass die gemeinsamen Daten inzwischen für eine „nette, kleine Publikation“ reichen, schreibt Meier dazu. Müller findet das nicht. Er schreibt zurück, dass er lieber noch die ein oder andere Testreihe durchziehen wolle, um der „Story“ mehr Substanz zu verleihen. Meier entgegnet, dass dies seiner Meinung nach unnötig sei — die Geschichte wäre auch so schon klar. Und überhaupt habe dessen Gruppe ja nur etwa zwanzig Prozent zum aktuellen Manuskript beigetragen. Wenn er die jetzt wieder rausnehme und ein paar kleine Experimente selber mache, könne er das Paper auch gut ohne ihn veröffentlichen. „Tu, was Du nicht lassen kannst“, schreibt Müller sinngemäß zurück — und schmeißt das Manuskript in den Müll.

Einige Wochen später erhält Müller Post vom Journal of Any Results. Darin ein Manuskript samt einem Brief mit der Bitte, es für eine mögliche Publikation zu begutachten. Korrespondierender Autor des Manuskripts:… Meier.

Wie er jetzt mit dem Manuskript verfahren werde, wisse er noch nicht, erzählte uns Müller. Wahrscheinlich werde er es aber zurückschicken — mit dem Hinweis, dass er es wegen Befangenheit nicht begutachten kann.

Und die Moral von der Geschicht‘: Kooperationen klappen — oder nicht!

(Illustration: graphicgeoff / Fotolia.com)

 

Information 1


Information 2


Info

Info

Mit dem HandyStep® Touch bringt BRAND® den Touchscreen auch für handgehaltene Geräte ins Labor. mehr

Info

Info

Wenn Sie Ihre Zentrifuge richtig und mit Sorgfalt behandeln, werden Sie sie lange Zeit genießen können. mehr

Info
Info

Info

Info

Die WLAN-Funktion der Olympus Kamera ermöglicht ein interaktives Zusammen­arbeiten der Studierenden. mehr