Lars Dittrich Profile picture
Apr 5 26 tweets 5 min read
Kritik am Wissenschaftsbetrieb: Bei #maithinkX haben wir gerade erläutert, warum Flaws im wissenschaftlichen Karrierepfad der Qualität der Wissenschaft schaden und u.a. dazu führen, dass nicht die Besten am Schluss auch die Professuren besetzen. Ergänzungs-🧵
In der Sendung haben wir uns auf Kritik am WissZeitVG konzentriert, dem deutschen Arbeitsrecht für Jobs in der Wissenschaft. Da gibt's viel zu verbessern, bei Interesse siehe Folge in Mediathek.
Aber: Ein Teil des Problems liegt in der wissenschaftlichen Community selbst
Damit meine ich sowohl die deutsche als auch die internationale.
Unabhängig vom nationalen Arbeitsrecht läuft wiissenschaftliche Karriere so, dass man ständig bewertet wird. Das wichtigste Maß ist die Anzahl der veröffentlichten Studien (papers).
Aber auch, wie angesehen die Zeitschriften sind, in denen veröffentlicht wurde. Und z.B. ob ich bei einem Chef gearbeitet habe, der selbst wiederum regelmäßig viele papers in angesehenen Zeitschriften hat.
Um solche Bewertungen greifbar zu machen, gibt es allerlei Zahlen, die sowas repräsentieren sollen. Z.B soll der Impact Factor numerisch angeben, wie angesehen eine Zeitschrift ist. Der Hirsch Index ist eine Kombination daraus, wie viel und wie aufsehenerregend du publizierst
All diese Zahlen haben eine innere Logik und sind irgendwie plausibel. Das Problem ist, dass Leute irgendwann auf diese Zahlen hinarbeiten, statt auf wissenschaftliche Erkenntnis.
Das ist Goodhart's law. Wenn ein Maß zu einem Ziel wird, ist es kein gutes Maß mehr.
Kennt man zB von technischen Geräten. Kunden schauen auf Eckdaten wie Auflösung in Pixeln. Hersteller pushen diese Eckdaten in Bereiche, die manchmal für das Gerät gar nicht sinnvoll sind. Dann ist der Monitor mit besten Eckdaten gar nicht der mit dem besten Bild
Wenn ich Karriere in Wissenschaft machen will, MUSS ich auf diese Eckdaten abzielen.
Dadurch gibt's immer noch eine Art von Qualitätsauslese. Schließlich kennt jeder diese Spielregeln, und manche pimpen die Zahlen eben erfolgreicher als andere.
Aber diese Auslese selektiert halt nicht unbedingt die fähigsten Wissenschaftler:innen und ermuntert Individuen auch nicht unbedingt zur bestmöglichen Forschungsarbeit.
Sehr schöne Illustration in diesem paper: royalsocietypublishing.org/doi/10.1098/rs…
Es zeigt zuerst auf, dass die statistische Power in den betrachteten Forschungsbereichen seit den 1960ern nicht besser geworden ist.
Hintergrund: Statistische Power sagt, mit welcher Wahrscheinlichkeit dein Experiment einen Effekt finden wird, wenn denn wirklich einer da ist.
Das haengt massgeblich von der Groesse deiner Stichprobe ab. Stell dir vor, du willst die Hypothese testen, dass Maenner im Schnitt groesser sind als Frauen. Wenn du dafuer nur wenige Leute misst, siehst du wahrscheinlich keinen Unterschied.
Oder du siehst einen, der aber wie Zufall aussieht. Weil die Schwankungen innerhalb der Geschlechter groesser sind als zwischen ihnen.
Wenn du dagegen sehr viele Leute misst (grosse statistische Power), kannst Du sehr klar erkennen, dass es im Mittel einen Unterschied gibt.
Studien in Psychologie und Biologie haben notorisch zu niedrige Power, weil zu wenige Teilnehmer/Versuchstiere. Das bedeutet, dass viele echte Effekte nicht gefunden werden. Die falsch-positiven Ergebnisse (einen Effekt "nachweisen", obwohl da keiner ist), haengen aber...
...von deinem Signifikanzniveau ab und bleiben damit bei grossen und kleinen Studien gleich haeufig. Ueblicherweise liefern 5% deiner Experimente ein falsch-positives Ergebnis.
Wenn du immer grosse Stichproben benutzt, findest du aber sehr viele echte Effekte.
Ein paar falsch-positive werfen dich da nicht aus der Bahn, solange du im Kopf behaeltst, dass du die ggf nochmal verifizieren musst.
Aber wenn du staendig zu kleine Stichproben (niedrige Power) hast, findest du sehr selten echte Effekte.
Fast alle deine Ergebnisse bestehen dann aus deinen 5% falsch-Positiven. Nichts von dem, was du "rausfindest", ist echt.
Zur Erinnerung: In Psychologie und Biologie haben sehr viele Studien eine zu niedrige Power.
Auf dieses Problem machen Statistiker seit den fucking 1960ern aufmerksam. Und zwar mit Rummel. Nicht nur in irgendwelchen Statistik-Zeitschriften, die kein anderer liest, sondern so, dass alle, die es angeht, es sehen koennen.
Hintergrund Ende.
In dem Paper zeigen sie also zuerst, dass die Power in den betrachteten Forschungsgebieten seit den 1960ern nicht besser geworden ist. Obwohl alle wissen (muessten), was das fuer die Forschungsergebnisse bedeutet.
Dann lassen sie ein mathematisches Modell laufen, das eine "Evolution" wissenschaftlicher Arbeitsgruppen betrachtet. Wer seine Ressourcen in grosse Stichproben steckt, findet haeufiger echte Effekte.
Er kann aber mit seinen Ressourcen nur wenige Experimente machen.
Wer hingegen bei kleinen Stichproben bleibt, findet selten was echtes. Kann dafuer aber sehr viele falsch-Positive sammeln, weil viele Exp. moeglich.
Positive Ergebnisse kann man veroeffentlichen.
Gruppen, die kleine Stichproben machen, publizieren daher mehr. Und "pflanzen sich fort" - entweder indem ihre Methoden uebernommen werden oder indem Post-Docs aus diesen Labs Professuren kriegen und eigene Labs gruenden.
Paper-Fazit: So selektiert man schlechte Wissenschaft.
Alle in der Wissenschaft wissen, wie unzureichend und z.T. schaedlich Bewertungszahlen wie der Hirschindex sind. Trotzdem nutzen sie alle. Weil die beste Art der Bewertung - Papers des Bewerbers lesen und Beitrag zum Feld ermessen - zeitlich nicht leistbar waere.
Nicht fuer Berufungskommissionen, nicht fuer Drittmittelgutachter.
Aber wir brauchen Loesungen. Adaequatere Leistungsbewertungen, Ueberwindung von "positive results publication bias", Schaffung eines Systems, dass Extraarbeit fuer solidere Forschung belohnt und nicht bestraft.
Bei aller berechtigter (!) Kritik an den arbeitsrechtlichen Regelungen duerfen wir nicht vergessen, dass diese Punkte nur aus der wissenschaftlichen Gemeinschaft heraus verbessert werden koennen.
Also: Nicht nur auf Politik zeigen, auch an eigene Nase fassen!
Lars out
Und natürlich noch unsere Folge maithinkX zum Thema Arbeitsbedingungen auf dem Karriereweg Richtung Professur und wie dadurch Steuergeld verschwendet wird
zdf.de/show/mai-think…

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Lars Dittrich

Lars Dittrich Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @dittrich_lars

Mar 28
"Wenn wir weniger Fleisch essen oder Essen wegschmeißen würden, bräuchten wir auch keine grüne Gentechnik"
Doch, Freunde. Ineffizient Landwirtschaft betreiben verschwendet die gleichen Ressourcen wie Steak vergammeln lassen.🧵(1/20)
Die wichtigste Ressource für Landwirtschaft ist fruchtbarer Boden. Den brauchen wir aber nicht nur für Landwirtschaft, sondern auch für wilde Natur. Zielkonflikt. Je mehr Agrarfläche wir haben, desto weniger Wald, Moor & Co gibt es. (2/20)
Das Verschwinden wilder Flächen ist ein massiver Treiber von Artensterben. Außerdem halten sie große Mengen Kohlenstoff gebunden. Jedes Abholzen von Wald, jedes Trockenlegen von Moor für die Landwirtschaft entlässt große Mengen CO2 in die Atmosphäre.(3/20)
Read 22 tweets
Mar 23
Viele wissen das noch nicht, aber ich kann ziemlich solide die Zukunft vorhersehen.
Heute meine Prognose zu #Laborfleisch
🧵
Die Idee von Laborfleisch ist, dass man lebende Zellen (z.B. von einer Kuh) im Labor vermehrt und so quasi unbegrenzt Fleisch erzeugt, ohne jemals wieder ein Tier dafür schlachten zu müssen. Das soll dann leidfrei, klimafreundlicher und trotzdem echtes Fleisch sein.
Sowohl für Klimafreundlichkeit als auch für Leidfreiheit gilt es noch einige technische Hürden zu überwinden. Bei Intresse hier eine schöne Zusammenfassung von @thoraschubert zdf.de/nachrichten/pa…. Ich gehe aber davon aus, dass das gelingen wird. Und dann?
Read 24 tweets
Mar 30, 2021
@Marie_Indigo @Anne211R @NatalieGrams Ist auf jeden Fall möglich, dass es ein molecular mimicry im Spikeprotein ist. Sinusthrombosen wurden auch bei SARS-CoV-2 Infektion berichtet. HIT (mit Heparin) ist bei Covid-19 auffallend hoch, was zur Idee passt, dass das Virus selbst das machen könnte. Allerdings...
@Marie_Indigo @Anne211R @NatalieGrams ...haben die Greifswalder in ihrem preprint beschrieben, dass auch Zugabe des Impfstoffs zum Serum eines (von 4) Betroffenen eine Gerinnung auslöste. Das passt zur Vorstellung, dass das Vektorvirus die Sache auslöst.
researchsquare.com/article/rs-362…
@Marie_Indigo @Anne211R @NatalieGrams Und selbst wenn es das spikeprotein ist, heißt es noch nicht, dass die anderen Impfstoffe das auch machen. Klar, Risiko wäre da. Aber bei Narkolepsie nach H1N1-Impfung ist das nur bei einem der Impfstoffe passiert, obwohl Ursache anscheinend auch mimicry mit virusprotein war.
Read 5 tweets
Mar 25, 2021
Den Kommentaren unterm maiLab Video nach zu urteilen, ist der heiße Scheiß gerade, dass Masken und Teststäbchen mit Morgellons kontaminiert wären.
Morgellons, Alter.
Morgellons sind imaginäre Parasiten, ähnlich wie die "Seilwürmer" aus der MMS-Szene. Ich habe in der medizinischen Literatur ein paar Leute gefunden, die ernsthaft die Idee verfolgen, dass einige der "Morgellon-Fälle" auf eine unbeschriebene Krankheit zurückgehen könnten.
Aber die vorherrschende Meinung ist, dass Morgellons eine Wahnvorstellung sind. Eine Ausprägung des Dermatozoenwahns, also der "Gewissheit", irgendwelche Tiere unter der Haut zu haben de.m.wikipedia.org/wiki/Dermatozo…
Read 19 tweets
Mar 18, 2021
Ich glaube eine der wichtigsten Lektionen für mich aus meiner eigenen Forschung ist, wie sehr man daneben liegt. Mit eigentlich allem. Eigentlich immer.
Man weiß den ganzen Kram aus dem Lehrbüchern, die aktuellsten Konzepte aus der wiss. Literatur, denkt, man hätte den Durchblick
Die Lösung für ein aktuelles Problem fällt einem dann wie Schuppen von den Augen. "Dasunddas kann nur soundso sein! Alles macht Sinn!"
Man designt ein megaschlaues, elegant einfaches Experiment, um das zu beweisen. Ein Experiment, das zweifelsfrei klärt, ob A oder B wahr ist.
Das Ergebnis ist dann C.
C war gar keine Option. Es macht gar keinen Sinn, dass C rauskommt. C dürfte es gar nicht geben.
Read 12 tweets
Mar 5, 2021
boah ey @SPIEGELTV. Was soll denn der Beitrag über Stöcker, der "mit einem Antigen möglicherweise DIE LÖSUNG gefunden" hat? Ist es denn eine so crazy Idee, wenigstens mal jemanden um Einschätzung zu bitten, der sich mit Impfstoffen auskennt?
Ihr übernehmt völlig unkritisch das selbstherrliche Narrativ dieses Typen, der diese "ganz simple Idee" gehabt haben will, auf die ja außer ihm niemand komme, weil alle zu borniert seien. Ist das ernsthaft Euer journalistischer Anspruch? Das ist alles, was Ihr drauf habt?
Was er vorschlägt, ist ein rekombinanter Subunit-Impfstoff mit Adjuvans. Freunde. Das ist nicht outside-the-box oder "so simpel, dass da bisher niemand drauf gekommen ist". Das ist unter den 269 in Entwicklung befindlichen Coronaimpfstoffen mit ca 40% DER HÄUFIGSTE ANSATZ!
Read 13 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us on Twitter!

:(