Neue Befristungsregeln verunsichern TAs

29. Dezember 2015 von Laborjournal

Kurz vor Weihnachten war bei uns noch die Neufassung des Wissenschaftszeitvertragsgesetzes (WissZeitVG) Thema (Laborjournal online, 22.12.2015). Diese ging kürzlich durch den Bundestag und soll 2016 in Kraft treten.

Ziel der Maßnahme ist natürlich, die Be- und Entfristungsregeln für das Personal in der akademischen Forschung zu verbessern. Allerdings wurde in der frisch vom Bundestag verabschiedeten Fassung ausgerechnet der Satz in Paragraph 2 Absatz 2 gestrichen, der bis dahin das nichtwissenschaftliche Personal wie Medizinisch- oder Biologisch-Technische Assistenten in die Regelung miteinschloss. Und tatsächlich scheinen jetzt einige Technische Assistenten (TAs) aufgeschreckt — und sehen sich im schlimmsten Fall gar von Arbeitslosigkeit bedroht.

In dem erwähnten Artikel griff unser Autor Mario Rembold den speziellen Fall einer betroffenen TA auf — und erklärt, welche Probleme sie konkret mit der Neufassung hat. Parallel kritisierte er in seinem Kommentar, dass die Neufassung des WissZeitVG tatsächlich eine Atmosphäre der Unsicherheit schafft, die sich auf lange Sicht kontraproduktiv für den akademischen Forschungsbetrieb auswirken könnte.

Ganz zum Schluss fragte er dann noch „in die Runde“:

Einzelfall oder echtes Problem?  

Geht auch in Ihrem Institut die Angst um? Oder sind wir bloß auf ein Einzelbeispiel gestoßen? Gern sprechen wir noch mal mit anderen Betroffenen […]. Melden Sie sich bei der Laborjournal-Redaktion, denn das WissZeitVG beschäftigt uns sicher noch eine ganze Weile.

Eine Antwort haben wir bisher erhalten. Marika Takács schrieb:

Hallo! Nein, das mit den befristeten Stellen ist ganz und gar kein Einzelfall. Ich arbeitete 15 Jahre lang auf Projektverträgen, dann ging der Professor in Rente und der Lehrstuhl wurde gestrichen. Drei Jahre wurde ich noch mit einem neuen Projektvertrag in einer anderen Abteilung hingehalten — und dann: „Tschüss!“.

Zum Glück bin ich inzwischen als verdammt gute Assistentin auf einer unbefristeten Stelle in der freien Wirtschaft gelandet.

Weitere Erfahrungen, Erlebnisse oder Meinungen zum Thema? Entweder per E-Mail an die Redaktion, oder direkt unten als Kommentar zu diesem Beitrag.

(Foto: Calado – Fotolia.com)

Schöne Weihnachten…

21. Dezember 2015 von Laborjournal

xxxxx

… — aber hoffentlich nicht so —….

(gefunden auf http://thedailyorbit.com/38677/)

xxxx

… und einen guten Start in ein spannendes, erfolgreiches und gesundes Jahr 2016….

(Flammenfärbung von Metallsalzen, gefunden auf https://rgraham9.wikispaces.com/Flame+Lab+Report)

xxxx

… wünscht die Laborjournal-Redaktion!

xxxx

Glücksbringer Impact-Faktor

18. Dezember 2015 von Laborjournal

Angeblich aktiviert der reine Anblick von Schokolade das Belohnungszentrum unseres Gehirns. Aber bei Schokolade ist natürlich noch lange nicht Schluss. Zumindest in Forscherhirnen meinen Lübecker Neurowissenschaftler mit funktionaler Magnet-Resonanz-Tomographie (fMRT) jetzt gar folgendes beobachtet zu haben:

Wenn Forscherinnen und Forscher eigene Publikationen in Fachzeitschriften mit hohem Journal Impact Factor (JIF) erwarten, wird ihr Belohnungszentrum im Gehirn aktiviert.

Konkret ging das so:

19 Neurowissenschaftlerinnen und -wissenschaftlern wurden in einem MRT-Gerät die vorbereiteten Titelseiten von hochrangigen Wissenschaftszeitschriften mit ihrem Namen gezeigt und dabei die Gehirnaktivitäten gemessen. […] Mit steigendem JIF einer antizipierten Publikation stieg die Aktivität im Nucleus Accumbens, einer zentralen Region im Belohnungszentrum des Gehirns. Es zeigte sich zudem, dass Forschende, die in der Vergangenheit mit höheren JIF publizierten, ein stärkeres Ansprechen des Belohnungssystems aufwiesen. Neben dem JIF einer Publikation modulierte auch die Reihenfolge der Autorenschaft die Aktivität im Nucleus Accumbens.

Diese Studie liefert einen ersten empirischen Beleg dafür, wie Forscherinnen und Forscher sich an die Anreizstrukturen des universitären Systems anpassen und den JIF als zentrales Bewertungskriterium ihrer Arbeit verinnerlichen.

Na ja, so skurril das klingt — wirklich verwunderlich ist es kaum. Hätten die Lübecker beliebige Leute von der Straße genommen und ihnen „vorbereitete“ Artikelseiten aus der ZEIT, der FAZ und dem Spiegel gezeigt, in denen ihre Namen in schmeichelhaftem Zusammenhang erwähnt sind — dann wären deren Nuclei vermutlich genauso angesprungen.

Allerdings scheinen die Autoren ihre Studie durchaus bewusst mit einem kleinen Augenzwinkern publiziert zu haben. Zumindest ein Indiz dafür bietet folgende Feststellung in den „Materials and Methods“ des Original-Papers (PLOS One 10(11): e0142537):

One participant was excluded from further analyses due to excessive sleepiness during the whole task. Notably, this was the only neuroscientist with a permanent position.

Noch größer wird das Augenzwinkern indes, wenn man ein Editorial dazu nimmt, das genau eine Woche später in Research Policy (Vol. 45(1): 1-7) erschien. Darin spricht Ben Martin, Professor für „Science and Technology Policy Studies“ an der University of Sussex in Brighton, dem Journal Impact Factor jegliche Glaubwürdigkeit ab, da ihn die Editoren der Forschungsblätter mittlerweile großflächig mit zweifelhaften Tricks und Kniffen nach oben frisieren:

Over time, editors have devised ingenious ways of enhancing their JIF without apparently breaching any rules. […] In the light of ever more devious ruses of editors, the JIF indicator has now lost most of its credibility.

Und nochmal an anderer Stelle:

We currently have a whole slew of editorial practices to boost JIF by fair means or foul. Consequently, in many cases all that the JIF indicator now measures is how assiduously a journal’s editors are playing the JIF ‘game’ (Metze, 2010, p. 939) and their willingness to steer as close as possible to, and perhaps even to cross, the boundary between appropriate and inappropriate behaviour in pursuit of that goal.

Keine wirklich neue Feststellung, aber das Ausmaß dieses JIF-Dopings scheint inzwischen doch erschreckend.

Und was hat das jetzt mit der obigen Lübecker Studie zu tun? Nun ja, in Kombination hieße das: Forscherhirne empfinden Glücksgefühle durch etwas, mit dem sie zunehmend verarscht werden.

Aber das geht ihren übrigen Artgenossen ja mit vielen anderen Dingen genauso.

Paper zurückgezogen — und wen soll ich jetzt zitieren?

11. Dezember 2015 von Laborjournal

Schon seit einiger Zeit muss der Zürcher Pflanzenforscher Olivier Voinnet ein Paper nach dem anderen wegen inkorrekter Abbildungen zurückziehen oder zumindest großflächig korrigieren. Zwischenstand sind momentan zwölf „Corrections“ und sieben „Retractions“.

Dennoch sticht die letzte Retraction heraus. Mitte November zog The Plant Journal den Artikel „An enhanced transient expression system in plants based on suppression of gene silencing by the p19 protein of tomato bushy stunt virus“ in Übereinkunft mit den Autoren Olivier Voinnet, Susana Rivas, Pere Mestre und David Baulcombe vollends zurück, nachdem sie ihn bereits im Juni erstmals korrigiert hatten. Das jedoch ist nicht wirklich der Punkt. Viel erstaunlicher ist die Tatsache, dass der Artikel bis dahin bereits über 900-mal zitiert worden war.

Was heißt das?

Der Artikel beschreibt erstmals eine neue und einfache Methode zur effektiven Steigerung der transienten Expression von eingebrachten Fremdgenen in Pflanzen. Basis dafür ist die Ko-Transfektion mit dem Gen für das Virusprotein P19, welches allgemein das posttranslationale Gene Silencing in Pflanzenzellen hemmt. Das P19-System steigert also die Expression des Fremdgens, indem es die natürliche Expressionsbremse der Pflanzenzelle blockiert.

Über 900 Zitierungen, wie gesagt. Die muss es doch großteils dafür gegeben haben, dass trotz der unzulässig manipulierten Abbildungen die Methode funktioniert. Und tatsächlich twitterte Sophien Kamoun, Laborleiter am Sainsbury Lab in Norwich/UK:

Das scheint also tatsächlich nicht die Frage. Allerdings ergibt sich daraus ein ganz anderes Problem, das Dmitri Nusinow vom Donald Danforth Plant Science Center in Creve Coer, Missouri/USA, via Twitter folgendermaßen ausdrückt:

 

Berechtigte Frage — denn schließlich gilt ein zurückgezogenes Paper per definitionem als augenblicklich aus dem Scientific Record gelöscht. Wen sollen die zahlreichen P19-Anwender also künftig zitieren? Die Erstbeschreibung der Methode gilt — aus guten Gründen! — als gelöscht. Woanders steht sie offensichtlich nicht in ausreichendem Detail beschrieben, da alle nachfolgenden Anwender — zu Recht — auf die Erstbeschreibung verwiesen.

Soll man sich jetzt also darauf einigen, stattdessen einen der ersten Anwender zu zitieren? Wohl kaum — denn zum einen stünde die Methode dort auch nicht vollständig drin, und zum anderen bekäme der betreffende Artikel auf diese Art sicher viel mehr Zitierungen als er tatsächlich verdient. Oder erklärt man die Methode einfach zum allgemeinen Wissen, das man nicht mehr zu zitieren braucht — und muss wegen der Details trotzdem weiter in das zurückgezogene Paper schielen, weil sie ja nirgendwo sonst aufgeschrieben stehen.

Eigentlich müsste jemand die Methode nochmals „neu“ mit allen Details veröffentlichen — vielleicht ja sogar noch mit einigen neuen. Das wäre dann zwar ordnungsgemäß zitierbar, aber wie oben schon gesagt: Ordnungsgemäß verdiente Zitierungen wären das nicht.

Hmm — hat vielleicht jemand einen anderen Vorschlag?

Wie toll ist eigentlich Crowdfunding?

2. Dezember 2015 von Laborjournal

Im Februar 2013 schrieben wir in Laborjournal erstmals ausführlich über Crowdfunding als Alternative zur klassischen Antrags-basierten Forschungsförderung (LJ 1-2/3013: 20-23). Auf eigens dafür eingerichteten Plattformen, wie hierzulande etwa Sciencestarter, können Forscher ihre Projekte öffentlich vorstellen und anpreisen — und dann hoffen, dass innerhalb eines festgelegten Zeitraums genügend Interessierte in ihr Portemonnaie greifen und einen Betrag ihrer Wahl für die Durchführung des Projektes spenden. Im Prinzip also ähnlich, wie wenn eine Rockband bei ihrer Fan-„Crowd“ Geld einsammelt, um die nächste CD ohne Plattenfirma-Vertrag selbstständig produzieren zu können.

Damals hieß es in dem Artikel:

Bislang sind es meist kleinere Summen, die im wissenschaftlichen Crowdfunding erreicht werden. Für ein 100.000 Euro-Projekt ist es also nach wie vor sinnvoll, sich an die DFG zu wenden. Doch Ranganathan ist zuversichtlich, dass Crowdfunding auch unter Wissenschaftlern innerhalb der nächsten paar Jahre an Bedeutung zulegen wird […]

Titelthema unserer aktuellen Lab Times-Ausgabe ist nun der Einzug dieses Crowdfunding-Gedankens auch in die (Anschub-)Finanzierung von Biotech-Startups — als Alternative zur herkömmlichen Risikokapitalisierung durch private und öffentliche Geldgeber (LT 6-2015: 42-45). Immerhin konnte auf diese Weise so manche Jungfirma zuletzt mehr als eine Million Euro einsammeln, darunter etwa auch Riboxx Pharmaceuticals aus Radebeul.

Ist Crowdfunding also endgültig salonfähig geworden als Finanzierungsmodell für Forschung und Entwicklung? Zumindest einer unserer Leser fände das schrecklich. In einer E-Mail schrieb er uns:

Ich muss zum Thema Science Crowdfunding einfach etwas loswerden. Irgendwie sind wir damit jetzt endgültig an einem Punkt angekommen, an dem Wissenschaft und Forschung im Facebook-Stil betrieben werden: Daumen hoch, Daumen runter. Die tumbe Masse entscheidet.

Crowdfunding wird verkauft als mögliche Antwort auf die zunehmenden Einschnitte in der öffentlichen Forschungsförderung. Ist das so? Man hört immer nur von den wenigen, die es „geschafft“ haben und Geld von der Masse bekommen — wodurch im gleichen Atemzug all die anderen Projekte und ihre möglichen Erkenntnisse zu Abfall degradiert werden. Das ist im Stil doch wie bei den Gladiatorenkämpfen des alten Roms: Einer johlenden, abgestumpften, ungebildeten und kleinkarierten Masse wird das Sagen übergeben — und die hat keinerlei Bedenken, jemanden umzubringen. Einfach nur widerlich!

Zugegeben, eine extreme Ansicht — dazu extrem formuliert. Aber steckt nicht vielleicht doch ein Körnchen Wahrheit darin? Meinungen und Erfahrungen dazu, bitte!