Von Daten, die in Schubladen verstauben

17. September 2018 von Laborjournal

Haben Sie auch noch jede Menge Daten in der sprichwörtlichen Schublade liegen? Daten, die schon lange eine nette, kleine „Story“ ergeben würden — wenn man sie nur mal in Manuskriptform bringen würde?

Wie bitte, in Ihrer Schublade schlummert Stoff für mehrere solcher kleinen, aber feinen Manuskripte? Oder in ihrem Regal?…

Keine Angst, Sie sind nicht allein.

Schon vor einiger Zeit stellte eine englische Forscherin den Kollegen in ihrem (leider nicht mehr existenten) Blog im Prinzip dieselbe Frage: „Stellt Euch vor, ihr bekommt keine Fördergelder mehr und könnt Euch einzig darauf konzentrieren, alle vorhandenen Daten zusammenzuschreiben — für wie lange hättet Ihr noch „Stoff“?“ Und sie meinte damit nicht das Umschreiben bereits eingereichter Manuskripte; es ging ihr vielmehr um die vielen, praktisch publikationssreif abgeschlossenen (Seiten-)Projekte, die bislang dennoch nie wirklich oben auf dem Schreibtisch gelandet waren.

Heraus kam, dass dieses Phänomen den meisten Forschern, die schon länger im Geschäft sind, offenbar wohlbekannt ist: Die Mehrzahl der Antworten lag zwischen drei und fünf Jahren.

Drei bis fünf Jahre lang könnte der Durchschnitts-Seniorforscher also noch Manuskripte schreiben — allein mit den Daten, die er längst schon hat. Da er diese Zeit aber beileibe nicht nur mit Paperschreiben verbringen kann, werden wohl jede Menge dieser interessanten kleinen (und hin und wieder vielleicht sogar großen) Geschichten niemals veröffentlicht. „Survival of the fittest results“ nennt die Autorin das treffend.

Woher aber kommt der entsprechende Selektionsdruck? Wohl daher, dass das Publikations-dominierte Belohnungssystem dem Forscher die folgende Zwickmühle beschert hat: Will er seinen Job gut machen, sollte er stets seine Resultate sorgfältig prüfen, hart nach alternativen Erklärungen fahnden und sie immer mit der aktuellen Literatur abgleichen. Das allerdings kostet Zeit. Wenn Forscher X aber zu viel Zeit mit diesen Dingen „vertrödelt“, riskiert er, als unproduktiv abgestempelt zu werden. Und dann kann es schnell schwer werden, weiterhin Fördergelder zu bekommen.

Also bunkert Forscher X das weniger dringende Material in der Schublade und schreibt lieber erstmal den nächsten Antrag — nicht zuletzt auch, um das Hauptprojekt der Gruppe weiter am Laufen zu halten. Wird dieser dann bewilligt, muss er natürlich umgehend die beantragten Projekte auch machen. Mit den resultierenden Daten muss er gleich wieder Paper schreiben, damit er frische Argumente für den nächsten Folgeantrag hat… — und so geht das Spiel in die nächste Runde

Und während diese Mühle unerbittlich weiter läuft, versinkt das, was er in der Schublade bunkert, tiefer und tiefer im Staub.

Wer weiß, wie viele kleine Schätze mit etwas weniger Antragsdruck von dort geborgen werden könnten..

Foto: iStock / Paperkites

x

Schuldige Smartphones — oder doch nicht?

5. September 2018 von Laborjournal

(UPDATE VOM 7.9.2018: Über das Pressereferat des Leibniz-Instituts für Arbeitsforschung an der TU Dortmund, wo die unten referierte Studie entstand, erreichte uns eine Mail, in der die Autoren unter anderem „fehlgeleitete Interpretationen und Rück­schlüsse“ in unserem Blog-Artikel kritisieren. Wir haben den Text der Mail daher unmittelbar hinter dem ursprünglichen Blog-Beitrag eingefügt, damit sich die Leser ihr eigenes Bild machen können.)

x

Offenbar kann man es nicht oft genug betonen: Wenn das vorausgehende Phänomen A mit Phänomen B korreliert, dann muss A noch lange nicht die Ursache für B sein. Das alte Dilemma zwischen Korrelation und Kausalität.

Wie irreführend es sein kann, wenn man hier nicht sauber trennt, zeigt gerade ein frisches Paper von Dortmunder Arbeitspsychologen mit dem Bandwurm-Titel „Protect Your Sleep When Work is Calling: How Work-Related Smartphone Use During Non-Work Time and Sleep Quality Impact Next-Day Self-Control Processes at Work“ (Int. J. Environ. Res. Public Health 2018, 15(8)).

Was sagt der Titel? Dass Arbeiten mit dem Smartphone nach Feierabend — also E-Mails checken, Kunden anrufen, „schnell“ nach irgendwelchen Infos surfen,… — und die Qualität des Nachtschlafs die Performance am nächsten Arbeitstag mitbestimmen. Letzteres ist eigentlich trivial: Ein jeder weiß wohl selbst, dass ihm die Arbeit schwerer fällt und er mehr Fehler macht sowie schneller erschöpft ist, wenn er sich in der Nacht davor allzu lange schlaflos im Bett gewälzt hat. Und Smartphones die Schuld für irgendwelche negative Performance zu geben, ist sowieso gerade en vogue.

Doch sind die Smartphones wirklich kausal „schuld“? Diesen Beitrag weiterlesen »

Welche Forschung ist exzellent?

19. Juli 2018 von Laborjournal

Gehen wir die Frage mal mit einem Gedankenexperiment an: Stellen Sie sich vor, Sie begutachten Forschungsanträge für einen großen europäischen Forschungsförderer. Und nehmen wir an, dieser Förderer hätte als Leitlinie ausgegeben, dass einzig „wissenschaftliche Exzellenz“ als Kriterium für die Entscheidungen gelte. Das Anwendungspotenzial der Projekte sei unerheblich, es gebe keinerlei thematische Prioritäten und auch der Grad an Interdisziplinarität spiele keine Rolle. Nur die pure „Exzellenz“!

Okay, verstanden! Sie nehmen sich also die Anträge vor. Der erste formuliert eine brillante neue Hypothese zu einem Phänomen, für das die „alte“ Erklärung erst kürzlich spektakulär in sich zusammengefallen war.

Der nächste dagegen visiert eine „ältere“, ungemein attraktive Hypo­these an, die sich bislang aber jedem rigorosen experimentellen Test entzog — und genau diese quälende Lücke wollen die Antragsteller jetzt auf höchst originelle und einleuchtende Weise füllen.

Der dritte präsentiert einen klaren Plan, wie sich gewisse neue Erkenntnisse für eine völlig neue Methode rekrutieren ließen — eine Methode, die, wenn sie dann funktionierte, ganze Batterien neuer Experimente zu bislang „verschlossenen“ Fragen ermöglichen würde.

Der vierte kombiniert verschiedene vorhandene Tools und Ressourcen auf derart geschickte Weise, dass die Antragsteller damit in der Lage sein würden, riesige Datenmassen zu erheben, zu ordnen und zu analysieren — ein „Service“, mit dem das gesamte Feld zweifellos einen Riesensprung machen würde.

Der fünfte schließlich will auf überzeugende Weise sämtliche zu einem bestimmten Kontext publizierten Daten re- und meta-analysieren, um dann mit dem Paket ein möglichst robustes Simulationsprogramm zu entwickeln — ein Programm, das sicher mannigfach die Entwicklung neuer Hypothesen ermöglichen würde…

Jetzt halten Sie erstmal inne. „Mir war bisher nicht bewusst, auf welche verschiedene Arten Wissenschaft exzellent sein kann“, denken Sie. „Genauso wie exzellente Äpfel, Birnen und Orangen alle exzellentes Obst darstellen. Und die soll man ja bekanntlich nicht miteinander vergleichen.“

Ralf Neumann

x

Engländer kommen billiger in Gen-Datenbank „FlyBase“

27. Juni 2018 von Laborjournal

(Gerade folgender Hinweis in der Redaktion eingegangen:)

„Ich wollte gerade ein Gen in der Drosophila-Datenbank FlyBase nachsehen. […] Hier ein Screenshot von dem, was ich vorfand (für größere Version auf’s Bild klicken):

x

x

Interessant, dass Flybase unterstützt wird:

[…] by a grant from the National Human Genome Research Institute at the U.S. National Institutes of Health U41HG000739.

Und dass die den Support jetzt kürzen!

Noch interessanter aber ist die neue „Preisliste“: Europa gehört zu den „other countries“, wo jede Person 300 US-Dollar pro Jahr für den Zugang zur Datenbank zahlt — Amis und Engländer zahlen dagegen nur die Hälfte.

Hmm?…“

x

Nur nicht zu viel riskieren

4. Mai 2018 von Laborjournal

Damit die Karriere nicht stockt, brauchen Postdocs und End-Doktoranden zwingend Paper. Und für Paper brauchen sie Ergebnisse.

Sichere Ergebnisse liefern jedoch in aller Regel nur risikoarme Projekte. Risikoarm insofern, als dass gewisse Vorarbeiten schon gezeigt haben, dass das Projekt solide ist und die nächsten Ergebnisse nur darauf warten, hinter der nächsten Ecke abgeholt zu werden.

Ob das dann noch aufregende Ergebnisse sind, ist eine andere Frage. Denn die erhält man in aller Regel, wenn man eben nicht nur hinter die nächste Ecke schaut — sondern sich eher auf Reisen weit über den Horizont hinaus begibt. Was einen dort genau erwartet, weiß man nicht und ist demnach hochgradig unsicher — schließlich ist es ja gerade das Unbekannte, das man erforschen will. Logisch daher, dass das Risiko, am Ende mit leeren Händen dazustehen, nicht gerade klein ist.

Die erwähnten Postdocs und End-Doktoranden können es meist kaum eingehen. Doch wer testet dann wirklich neue Ideen mit entsprechend hohem Fehlschlag-Risiko? Wem ist nicht gleich die Karriere versaut, wenn die Projektidee letztlich in einen „Satz mit X“ mündet? Wer braucht (noch) nicht die ganz runde Story?

Richtig, die „Anfänger“ — Bachelor/Master-Studenten und vielleicht mancher Doktoranden-Frischling.

Ob das aber der Sache gerecht wird? Denn nach welchem Schema das Neue-Ideen-Testen dann ablaufen kann, erzählte uns ein Gruppenleiter vor einiger Zeit an folgendem, selbst erlebten Beispiel…

Demnach erhielt Bachelor A im vierten Anlauf endlich ein halbwegs aussagekräftiges Basisergebnis; die nächsten zwei Mal scheiterte er wieder — danach verließ er das Labor. Später berichtete Master B, er habe zwei von sechs Mal ein positives Ergebnis erhalten und schrieb das auch in seiner Arbeit. Allerdings fiel den Kollegen daraufhin ein, dass niemand ihn derart oft an den Geräten gesehen hatte. Von der Gewissheit, ob die Idee was taugt und ein „richtiges“ Projekt mit vernünftigem Ergebnispotenzial tragen könnte, war man also weiterhin weit entfernt.

In den Händen des etwas erfahreneren Doktoranden C lieferte das vermeintliche Kernexperiment sofort ein positives Ergebnis. Allerdings konnte er es danach mehrere Male nicht wieder bestätigen — bis ihm Kollegin D beichtete, dass sie vor Wochen das empfindliche Schlüssel-Reagenz Z tagelang aufgetaut auf ihrer Laborbank vergessen hatte. Mit frischem Reagenz Z reproduzierte C sein Startergebnis zwar sofort wieder; allerdings verließ er das Labor zwei Wochen später überraschend zugunsten eines Bioinformatik-Jobs in der Industrie, ohne dass er die Ergebnisse je abschließend aufgeschrieben hatte.

Dennoch hielt der Chef den Basisbefund jetzt von A bis C für ausreichend solide belegt — und übergab „das Projekt“ einem neuen Postdoc. Ein knappes Jahr kam er wegen ungeahnter Schwierigkeiten mehr schlecht als recht voran — bis er schließlich befürchten musste, auf dem „Projekt“ nicht rechtzeitig die notwendigen Veröffentlichungen für den nächsten Antrag zusammenzubekommen. Also schmiss er es hin und wechselte aus „Karrieregründen“ doch wieder auf ein sicheres „Just around the Corner“-Projekt.

Nur ein Beispiel, wie schwer das derzeitige System das robuste Testen von wirklich neuen Ideen macht. Es gibt sicher noch mehr.

(Illustr.: Fotolia / pict rider)

Zellen sind schlampig

27. März 2018 von Laborjournal

Wenn man sich als Fachmagazin für biologisch-medizinische Forschung etabliert, bleibt es nicht aus, dass man bisweilen auch fachliche Fragen gestellt bekommt. Und die sind manchmal gar nicht ohne. Vor allem, weil man ja offenbar deswegen gefragt wird, da „Freund Google“ keine schnelle Antwort liefert.

Ganz in diesem Sinne fanden wir vor Kurzem etwa folgende Frage in unserer Redaktions-E-Mail:

Liebe Redaktion,

mein Sohn lernt in der Schule gerade Translation und genetischen Code. Dies habe ich zum Anlass genommen, mit ihm das Rätsel „Kennen Sie den? Der übergangene Code-Knacker“, LJ 5/2017, anzuschauen. Das hat uns auf folgende Frage gebracht:

Wieso funktioniert die Translation in einem zellfreien System auch ohne Startcodon?

Tja. Tatsächlich findet man bei „Freund Google“ und auch sonst so gut wie überall, dass in der mRNA nach einer untranslatierten Leader-Sequenz zwingend das Start-Codon AUG kommen muss, damit das Ribosom sie richtig binden und im korrekten Leseraster mit der Translation beginnen kann. Gute Frage also, wie das im erwähnten Rätsel angesprochene Poly-U-Experiment, mit dem Heinrich Matthaei im Labor von Marshall Nirenberg das Triplett-Prinzip des genetischen Codes entschlüsselte, überhaupt funktionieren konnte. Schließlich gab Matthaei lediglich blitzeblanke Poly-U-RNA-Stränge zur Translation in das ansonsten Zell- und mRNA-freie E. coli-Extrakt — von Startcodons nicht der Hauch einer Spur. Wie konnten ihm danach dann trotzdem fix und fertig translatierte Poly-Phenylalanin-Ketten im Filter hängenbleiben — ganz wie es das Phenylalanin-Triplett UUU vorsieht?

Es dauerte ein Telefonat und noch ein klein wenig länger, bis unser Chefredakteur folgende Antwort zurückmailen konnte:

Biologische Prozesse sind eigentlich immer etwas „fuzzy“ und funktionieren nie hundertprozentig schwarz oder weiß! Das heiß im konkreten Fall, dass die Ribosomen auch RNAs ohne Startcodon transkribieren können — allerdings mit viel schlechterer Affinität und Effizienz. In der Zelle kommt das praktisch nicht vor, da die RNAs mit Startcodon gnadenlos in der Überzahl sind und die Ribosomen aufgrund ihrer starken Affinität immer wieder sofort neu besetzen. Die wenigen RNAs ohne Startcodon sind da völlig chancenlos.

Im Poly U-Experiment von Matthaei dagegen waren überhaupt keine RNAs mit Startcodon vorhanden, dafür aber ein riesiger, völlig unphysiologischer Überschuss an homogener Poly U-RNA. Daher konnten die Ribosomen am Ende trotz der geringeren Affinität aufgrund der fehlenden Konkurrenz durch andere RNAs genügend Poly U-RNA transkribieren — jedenfalls genug, dass Matthaei damit das Triplett-Codon UUU für Phenylalanin nachweisen konnte.

Zudem spielten auch die gegenüber der intakten Zelle stark veränderten physiologischen Bedingungen in Matthaeis Test eine gewisse Rolle — vor allem die Magnesium-Konzentration. Dazu mehr hier: https://tinyurl.com/yalvbdt4.

Ein klein wenig konnte „Freund Google“ am Ende also doch helfen.

Dennoch muss man sich wundern, dass dieses durchaus wichtige „Startcodon-Problem“ bei all den vielen Beschreibungen des Poly-U-Experiments praktisch völlig außer Acht gelassen wird. Zumal man ja mit der „Fuzziness“ — oder auf deutsch: Schlampigkeit — der Translation noch etwas ganz Generelles über biochemische und zellbiologische Prozesse in der Zelle lernen kann.

x

Verstehen wir uns noch?

9. Januar 2018 von Laborjournal

Denn sie wissen nicht, was sie tun. — Viele dürfte diese Zeile unmittelbar an den gleichnamigen Filmklassiker mit James Dean erinnern. Heute könnte sie jedoch auch für einen großen Teil biomedizinischer Forschung gelten.

Wobei man hier ein klein wenig wie folgt präzisieren müsste: „Denn sie wissen nicht mehr, was der andere tut.“ Bittere Konsequenz dessen, dass in vielen Gebieten die einzelnen Veröffentlichungen immer komplexer werden.

Ein besonders eindrückliches Beispiel dafür schilderte kürzlich Dorothy Bishop von der Oxford University in ihrem „BishopBlog“. In dem entsprechenden Beitrag klagt sie, dass sie die Publika­tionen ihrer Kollegen immer weniger versteht, sobald sie auch nur ein klein wenig über ihren eigenen Tellerrand hinausschaut. Sie schreibt:

Für eine Art Meta-Analyse über die Anwendung bestimmter statistischer Methoden studierte ich zuletzt eine Reihe von neurowissenschaftlichen Artikeln“, schreibt sie. „Einige davon musste ich stundenlang lesen und wieder lesen, bis ich endlich verstan­den hatte, welches überhaupt die statistisch relevantesten Ergebnisse waren.

Und dann schwenkt sie auf den eigentlich beunruhigenden Punkt um:

Mir scheint daher, dass in manchen Feldern die Zahl der Kollegen, die derart komplexe Paper überhaupt noch umfassend und kompetent begutachten können, extrem zusammenschnurrt.

Selbst gute und engagierte Editoren würden daher irgendwann kaum noch Reviewer mit voll­um­fäng­lich ausreichender Expertise auftreiben können. Und umgekehrt würde es den meisten immer stärker widerstreben, solch hochkomplexe Studien zu prüfen, wenn sie derart viel Substanz jenseits der eigenen Expertise enthalten.

Und Frau Bishop ist mit solchen Befürchtungen keineswegs allein. Bereits 2013 fragte Diethard Tautz, Direktor am Plöner Max-Planck-Institut für Evolutionsbiologie, in einem Essay für Labor­journal:

Lesen wir noch, was andere schreiben? Ja, verstehen wir uns überhaupt noch?

Und er erzählte folgendes Beispiel:

Ich musste kürzlich so ein „Big Data“-Paper für ein angesehenes Journal begutachten. Es hatte 60 Autoren und präsentierte ein Feuerwerk an intelligenten Auswertungen, Statistiken und Modellierungen. Etwas seltsam war der modulare Aufbau. Die einzelnen Teile des Papers waren offensichtlich von unterschiedlichen Autoren geschrieben worden, jeder ein Spezialist für sein Feld mit einem eigenen Sprachstil und wenig Bezug zu den anderen Modulen. An ein paar ‚Kleinigkeiten‘ wie fehlenden Übergängen und unvollständigen Sätzen war zu erkennen, dass die meisten der Autoren offen­sicht­lich ihr eigenes Paper nicht vollständig gelesen haben konnten — denn zumindest einem von den 60 hätte so etwas doch auffallen müssen. Haben auch Autoren gar keine Zeit mehr zum Lesen oder ist das der Beginn der Sprachverwirrung? Auch als Gutachter konnte ich nur einen Teil kompetent begutachten, den Rest nur auf Plausibilität prüfen. Und ich vermute, dass es den anderen Gutachtern ebenso ging.

Und er schloss:

Natürlich wurde es publiziert — und ich darf annehmen, dass es so gut wie keinen Leser mehr gibt, der wirklich alles davon versteht. Wenn das so weiter geht, dann sind wir bald nahe an dem Punkt,… dass keiner des andern Sprache verstehe!

Wobei das letztere Zitat jetzt nicht aus der Filmwelt kommt.

Ralf Neumann

 

Von Interdisziplinarität und Pionieren

20. Juni 2017 von Laborjournal

Man könnte die Entschlüsselung der DNA-Struktur durch Watson und Crick durchaus als eine der ersten interdisziplinären Meisterleistungen der Wissenschaftsgeschichte werten: Ein Ornithologe und ein Physiker werteten Bilder von Kristallographen aus — und begründeten die Molekularbiologie.

Freilich hat das seinerzeit niemand so gesehen. Und gerade im Rückblick auf die damaligen Pioniertage würde heute wohl jeder Watson und Crick als Molekularbiologen bezeichnen.

Interessanterweise drängten gerade in dieser Zeit des molekularbiologischen Aufbruchs generell viele „Fachfremde“ in die Biologie — Physiker, Chemiker, Mathematiker,… Dennoch nahm damals kaum jemand das Wort „Interdisziplinarität“ in den Mund. Offenbar war nicht so wichtig, wo einen die jeweilige Ausbildung abgesetzt hatte — vielmehr zählte, wo einen die konkreten Fragen hintragen würden.

Und so erschlossen damals nicht nur Watson und Crick neue Felder. Vor allem auch deshalb, weil sie gerade als interdisziplinäre Köpfe in der Lage waren, ihre alten Disziplinen hinter sich zu lassen, um sich neuen Wegen zu öffnen — und sie auch tatsächlich zu gehen.

Nur logisch daher, dass man deren neue Erkenntnisse samt der damit eröffneten Felder dann auch ganz für sich selbst bewertete — und nicht nach der disziplinären Herkunft derer, denen man sie verdankte. Wie gesagt, ist die DNA-Struktur doch vor allem eine molekularbiologische Entdeckung, und nicht zwingend-logisches Resultat einer interdisziplinären Kooperation aus Physik, Ornithologie und Kristallographie.

Nicht zuletzt wegen solcher Beispiele schrieb der US-Biologe Sean Eddy vor einiger Zeit, dass neue Felder weniger durch interdisziplinäre Teambildung entstünden als vielmehr durch das Wirken „antedisziplinärer“ Pioniere. Siehe Watson und Crick.

Sicher, interdisziplinäre Team-Projekte sind wichtig — dies allerdings vor allem da, wo Antworten auf bisher unlösbare Fragen durch die Anwendung neu etablierter Techniken aus anderen Disziplinen realisierbar werden. Interdisziplinäre Projekte deshalb aber gleich zum Forschungsmodus Nummer eins zu erklären, wie dies Wissenschaftspolitiker heute allzu gerne tun, hieße jedoch, Vergangenes über die Zukunft zu stellen — und die Herkunft der Leute höher zu bewerten als ihre ganz konkrete Arbeit.

Klingt nicht wirklich nach einem Rezept für Pioniertaten.

Ralf Neumann

(Illustration: Flickr/Dullhunk)

Wie sich Photosynthese anhört

28. März 2017 von Laborjournal

Schon mal gehört, welche Laute Pflanzen bei Photosynthese machen?  Dann wird’s Zeit! Zoologen (!) der Universität Wien um Helmut Kratochvil starteten vor einiger Zeit mit einem Unterwassermikrophon einen Lauschangriff auf die Flora des Fischteichs Schönau in Niederösterreich — und konnten folgenden „Lärm“ aufzeichnen:

 

 

Hört sich an wie brutzelnder Speck in der Pfanne, oder?

Wie insbesondere die Geräuschmuster der Kanadischen Wasserpest (Elodea canadensis) entstehen und was sie generell den Photosynthese-Forschern sagen können, steht parallel in unserem heutigen Editorial auf Laborjournal online. Und natürlich in der frischen Originalveröffentlichung der Wiener (Scientific Reports 7, Article no. 44526)  — mit dem vielversprechenden Titel: Acoustic effects during photosynthesis of aquatic plants enable new research opportunities.

Allerdings: Tatsächlich hören — wie hier — kann man sie dort nicht.

x

Die Techniker verlangt Nicht-Wirksamkeitsnachweis von Homöopathie — und erntet einen Shitstorm

7. März 2017 von Laborjournal

Wenn jetzt jede Menge Leute der Techniker Krankenkasse (TK) den Rücken kehren würden — sie könnte sich kaum beschweren nach dem fürchterlichen Eigentor, das sie sich letzte Nacht mit dem folgenden Tweet geschossen hat:

 

 

Eigentlich haben wir ja eher Probleme mit sogenannten Shitstorms, aber denjenigen, den die TK damit umgehend auf Twitter erntete, hat sie sich wahrlich wohlverdient. Im folgenden ein paar Beispiele von vielen — fangen wir mit den eher „ernsthaften“ an:

x

x

xx

x

x

x

Und so weiter…

Die Frage nach der derart peinlich zur Schau gestellten Unwissenschaftlichkeit der TK muss einem tatsächlich Angst machen. Weswegen — wie gesagt — sich natürlich sofort einige Kunden Gedanken über einen Austritt machen:

x

x

x

xx

x

Und so weiter…

Nicht abwegig, dass einige damit tatsächlich ernst machen werden.

Wieder andere versuchen, das Kind beim Namen zu nennen. Und haben wohl auch damit keineswegs Unrecht:

x

xx


x
Und so weiter…

Tja — und wie wohl kaum anders zu erwarten, reagiert ein weiterer, sehr großer Teil mit Sarkasmus:…

x

x

x

x

x
x

x

Und so weiter…

Oder sie weisen auf das Paradox hin, dass etwa Brillen trotz nachgewiesener Wirksamkeit und großer Nachfrage nicht (!) von der TK et al. erstattet werden:

x

x

x

x

Und so weiter…

Heute morgen gegen halb Neun räumte die TK dann endlich ihren Mega-Fauxpas ein — ein bisschen patzig zwar, aber immerhin:

x x

Und fügte etwas später noch an:

x

x

Wobei jetzt schon sicher ist, dass mit dem Ergebnis dieses „Gesprächs“ die „Aufregung“ wohl kaum auf Null runtergefahren werden kann. Zu tief hat die TK das Kind im Brunnen versenkt — und sich daher den Schaden, die sie als Krankenkasse davontragen wird, leider redlich verdient.

Das einzig Schöne an der Affäre jedoch ist, wieviele Leute angesichts solch erschreckender Ignoranz mit dem Resultat schroffer Missachtung von faktenbasierter Wissenschaft sofort auf die Barrikaden gehen. Es ist zwar „nur“ ein Tweet einer Krankenkasse. Aber der reicht, dass einem angst und bange um unser Gesundheitssystem werden kann.

Die vielen krankenversicherten Twitterer dagegen machen einem Hoffnung, dass diese Angst am Ende unbegründet sein wird.

x

Information 1


Information 2





Information 4


Information 5


Information 7