Mit der Zeit hat unser Forscher Ernst gelernt, bei seinen Experimenten möglichst alle Variablen mitzuberücksichtigen …
(Gezeichnet von Rafael Florés. Über 200 weitere Labor-Abenteuer von „Forscher Ernst“ gibt es hier.)
Mit der Zeit hat unser Forscher Ernst gelernt, bei seinen Experimenten möglichst alle Variablen mitzuberücksichtigen …
(Gezeichnet von Rafael Florés. Über 200 weitere Labor-Abenteuer von „Forscher Ernst“ gibt es hier.)
Microsoft hat es endlich getan: Seit einigen Wochen kann man in deren Tabellenkalkulationsprogramm Excel Daten eingeben, ohne dass die eingebaute automatische Datenkonvertierung diese notorisch ungewollt verunstaltet – eine Funktion, die der biomedizinischen Forschung sehr lange durchaus große Schäden zugefügt hat.
Fast schon höhnisch wirkt daher, wie sehr sich Microsoft jetzt für diese „Neuheit“ preist. Auf Microsofts Blog-Seite schreibt etwa die verantwortliche Produktmanagerin namens Chirag Fifadra in dem Beitrag „Control data conversions in Excel for Windows and Mac“:
Ich freue mich, Ihnen mitteilen zu können, dass wir nun aufgrund Ihrer Rückmeldungen die Einstellungen für die automatische Datenkonvertierung verbessert haben. […] Wir wollten die Frustration unserer Kunden über die automatische Konvertierung von Daten in bestimmte Formate durch Excel beseitigen. Daher haben wir Ihnen jetzt die Möglichkeit gegeben, das Standardverhalten von Excel zu ändern und bestimmte Arten der automatischen Datenkonvertierung nach Bedarf zu deaktivieren.
Schön, aber die „Rückmeldungen“ über gewisse „Frustrationen“ mit Excel gibt es inzwischen seit fast zwanzig Jahren – zumindest aus der Life-Science-Forschung. Bereits 2004 erschien in BMC Bioinformatics ein Artikel mit dem Titel „Mistaken Identifiers: Gene name errors can be introduced inadvertently when using Excel in bioinformatics“ (vol. 5, Art. nr.: 80). Darin fassen die Autoren zusammen:
Bei der Verarbeitung von Microarray-Datensätzen stellten wir kürzlich fest, dass einige Gennamen versehentlich in Nicht-Gennamen geändert wurden. Mit etwas Detektivarbeit konnten wir das Problem auf die Standardkonvertierung von Datumsformaten und Fließkommaformaten in dem […] Programmpaket Excel zurückführen. Von den Datumsumwandlungen sind mindestens 30 Gennamen betroffen, von den Fließkomma-Umwandlungen mindestens 2.000 […]. Diese Konvertierungen sind irreversibel; die ursprünglichen Gennamen können nicht wiederhergestellt werden. Für Analysen unter Einbeziehung von Gennamen sollte man sich dieses Problems bewusst sein. Denn immerhin könnten dadurch Gene – auch medizinisch wichtige – aus dem Blickfeld geraten. Ganz abgesehen davon, dass auf diese Weise selbst sorgfältig kuratierte Datenbanken bereits verunreinigt wurden.
Seitdem wartete die Community auf Besserung. Diesen Beitrag weiterlesen »
Aus der Reihe „Spontane Interviews, die es nie gab — die aber genau so hätten stattfinden können”. Heute: Prof. E. Isern, Striktologisches Institut Universität Hochlattburg.
LJ: Hallo Herr Isern, so tiefe Falten zwischen den Augenbrauen. Warum?
Isern: Ach, ich habe mich mal wieder über einen Kollegen geärgert, dessen Manuskript ich begutachten musste.
LJ: War es so schlecht?
Isern: Die weit verbreitete und scheinbar unausrottbare Schlamperei, dass die Zahl der Proben einfach zu klein war. Die Leute kapieren einfach nicht, dass man auf diese Art keine belastbare Statistik bekommen kann. Und dass die Ergebnisse auf diese Art nur Anekdoten bleiben, die keinerlei allgemein gültige Schlussfolgerungen erlauben. Diesen Beitrag weiterlesen »
Bereits Mark Twain erkannte:
I’ve come loaded with statistics, for I’ve noticed that a man can’t prove anything without statistics. No man can.
Dennoch meiden Biologen Statistik wie Katzen das Wasser — so geht jedenfalls das Vorurteil. Ob’s stimmt? Zumindest füttert eine frische Analyse neurobiologischer Publikationen dieses Vorurteil mit alarmierenden Fakten (Nature Neurosci. 145: 1105-7).
Kurz gesagt, deckte Erstautor Sander Nieuwenhuis von der Universität Leiden mit zwei weiteren holländischen Kollegen auf, dass in der Hälfte aller relevanten Publikationen eine zwingend notwendige statistische Analyse der Daten fehlte. Wodurch die tatsächliche Relevanz ihrer Ergebnisse jetzt natürlich ziemlich schwankt und wackelt.
Nieuwenhuis und Co. nahmen sich 513 neurowissenschaftliche Artikel vor, die innerhalb von zwei Jahren in Science, Nature, Nature Neuroscience, Neuron und Journal of Neuroscience erschienen sind — die „Crème de la Crème“ sozusagen. Aus diesen filterten sie insgesamt 157 Paper mit vergleichenden Ergebnissen, die eine sogenannte „Difference-in-Differences Analyse“ (siehe etwa hier, Kapitel 9.9) zwingend erforderlich machen, um deren tatsächliche Signifikanz zu zeigen. In 79 davon, ziemlich genau der Hälfte also, fehlte diese Analyse komplett. Diesen Beitrag weiterlesen »