My Authors
Read all threads
Bonjour à tous,
Je voudrais revenir sur le communiqué YouTube de DR du 1 septembre 2020 (que je vous invite à regarder avant de lire la suite : ).
Dans cette vidéo, DR présente la mortalité observée parmi les patients traités par au moins 3 jours d’HCQ+AZ dans son IHU, du 15 juin au 31 août. Cette présentation de résultats supposés « spectaculaires » de l’association HCQ+AZ est trompeuse.
Pour les personnes intéressées, je parle de la notion de biais de temps immortel. Je l’ai déjà évoquée, entre autres problèmes, en vulgarisant de mon mieux (c’est à dire mal), ici :
Il ne s’agit pas d’une « opinion de méthodologiste », ou d’un « raffinement mathématique » (pour reprendre les termes de DR) par opposition à la « médecine », la vraie.
Il s’agit d’un problème finalement assez simple à comprendre, presque aussi vieux que l’épidémiologie moderne, conduisant à sous-estimer mécaniquement la mortalité des sujets exposés à un traitement.
J’insiste : cette bidouille est vieille comme le monde. Bon, là, j’exagère, c’est mon côté méditerranéen… Mais ça, DR ne peut pas me le reprocher.
Dans cette vidéo, DR revient également sur une méta-analyse, dont les conclusions ne sont pas en faveur de l’HCQ ou de son association avec l’AZ (doi.org/10.1016/j.cmi.…).
Je ne souhaite pas revenir ici sur le tour de magie présenté, je manque d’expertise dans le domaine par rapport à DR, et de temps en temps, il faut savoir rester à sa place (Garcimore, si tu m’entends d’où tu es, tu as un enfin un disciple).
La principale critique de DR porte sur le choix des études incluses. Pour bien comprendre cette vidéo et plus généralement ce débat qui fait rage (littéralement sur twitter), il faut d’abord expliquer ce qu’est une méta-analyse.
Il n’est pas rare que plusieurs études concurrentes soient menées pour déterminer l’efficacité d’une stratégie thérapeutique donnée dans une maladie donnée. Ces études sont menées sur des groupes d’individus différents (on parle d’échantillon d’individus).
Comme il existe une grande variabilité individuelle dans le domaine médicale, il est tout à fait possible que plusieurs études portant sur la même maladie, évaluant un même traitement, et planifiées de manière identique, donnent des résultats différents.
C’est non seulement possible, mais inévitable. En effet, ces études ne partagent pas le même échantillon d’individus (sinon, bah on ne parlerait que d’une seule étude), quand bien même tous ces échantillons auraient été sélectionnés au hasard au sein de la même population.
(La population étant, conceptuellement, constituée de toutes les personnes susceptibles de bénéficier du traitement évalué, et qui contient tous les échantillons qu’il est possible de tirer au sort).
Cette situation est problématique : une étude dont l’objectif est d’évaluer l’efficacité d’un traitement tente, d’une manière ou d’une autre, d’estimer son efficacité dans un échantillon, en espérant que ce résultat se généralise à la population correspondante.
Intuitivement, il est alors assez peu satisfaisant d’avoir plusieurs estimations différentes ! La question que la plupart des gens se pose, à juste titre d’ailleurs, devant plusieurs résultats différents quantitativement, voir contradictoires est : quelle étude a « raison » ?
La réponse est : aucune. Je sais, toute cette incertitude, ça commence à devenir frustrant. Mais que payent donc les contribuables dans le salaire des chercheurs ? Du vent ? Pire, du h-index ?
Non, aucune étude n’a raison, car la « bonne » réponse (c’est à dire la réponse exacte, dans tous les sens de ce terme) est inaccessible. Théoriquement, ça serait celle obtenue en incluant dans une même étude toute la population.
Mais la population, dans le domaine de l’épidémiologie, c’est surtout un concept, pas un groupe d’individus tangibles, qu’on pourrait inclure dans une étude si on mettait les moyens.
Et de toutes façons, l’extrapolation effectuée à partir d’un échantillon n’a d’utilité que sur une population « future », pas celle existante au moment où l’étude est réalisée. On espère qu’à la fin de l’étude, les résultats sont bien toujours extrapolables. Sinon, c’est benêt.
Bien. A ce stade, j’espère qu’il reste la majorité des lecteurs. Car ceux qui sont partis du thread au tweet précédent ont obligatoirement conclu que l’épidémiologie, ça ne sert à rien. Bravo David, beau résultat.
Le truc qui dénoue cet imbroglio, c’est un truc évident, que certains d’entre vous crient sûrement depuis 5 minutes (mais je ne vous entends pas) :
si une étude dans son ensemble est suffisamment bien construite pour estimer ce qu’on veut estimer (c’est-à-dire construite pour éviter les biais), alors plus l’échantillon sera grand, plus l’estimation issue de cette étude a de chances de se rapprocher de la « bonne » réponse.
Et que dicte le bon sens (qui est parfois piégeant, mais passons) quand plusieurs études portant sur le même sujet ont été réalisés dans plusieurs échantillons ? Évidemment, les rassembler, pour se rapprocher un peu plus de la « bonne » réponse : faire une méta-analyse.
Intermède : je veux alerter ceux qui me lisent et qui ne sont pas experts du sujet que twitter n’est pas adapté à un cours de statistique. J’ai simplifié à l’extrême, j’ai fait des raccourcis tellement courts qu’ils peuvent être considérés comme des erreurs.
J’ai même probablement déclencher plusieurs AVC coup sur coup à certains, par exemple en ne parlant pas d’intervalle de confiance, ou en parlant de la « bonne » réponse à une question d’épidémiologie (oui, les bayésiens, je parle de vous).
J’espère que vous m’excuserez, n’hésitez pas à me corriger (avec bienveillance, hein twitter ?) ou à compléter si quelque chose vous semble intolérable.
Reprenons : faire une méta-analyse, c’est agréger plusieurs études, c’est rassembler un ensemble d’informations disponibles sur le même sujet afin d’affiner une estimation, notamment ici l’estimation de l’effet d’un traitement.
Dans un monde idéal, si les études rassemblées sont sans *aucun* biais, alors on pourra considérer que le résultat final de la méta-analyse est plus précis que chaque étude prise individuellement.
En pratique, on peut grossièrement considérer qu’une étude sans *aucun* biais n’existe pas. Alors on essaie de rassembler des études conçues pour *minimiser* les biais, pour augmenter la fiabilité du résultat final.
Minimiser les biais, c’est utiliser les méthodes de l’épidémiologie pour concevoir et analyser les études. C’est randomiser, c’est faire une étude en aveugle, c’est prendre en compte les facteurs de confusion, c’est éviter le biais d’immortalité, etc
Peu d’études rassemblent toutes ces qualités de conception, mais chaque source de biais a des conséquences plus ou moins importantes. Il faut donc hiérarchiser les études, en fonction de leurs qualités respectives, notamment méthodologiques (désolé pour le gros mot).
La transparence dans la manière dont chaque étude est rapportée dans la littérature scientifique est cruciale. Comme on dit, quand c’est flou, y’a un loup.
Donc, pour une méta-analyse, évaluer précisément la qualité de conception des études est tout aussi important que d’avoir rassemblé l’ensemble des études disponibles. Pour cela, il existe des outils validés, comme le « risk of bias tool », pour n’en citer qu’un.
Car, qu’obtient-on en additionnant une étude biaisée avec une étude biaisée ? Pas la peine de répondre, hein, la réponse est dans la question. Dans le jargon des méta-analyses, c’est le concept du « garbage in-garbage out », qui est suffisamment imagé.
Une fois cette évaluation du risque de biais effectuée pour chaque étude (et c’est long), on peut commencer à synthétiser les résultats. Dans un monde idéal, il ne faudrait utiliser que les meilleures études pour l’estimation du résultat final.
Mais « meilleur », c’est subjectif, alors on peut aussi s’amuser à regarder comment varie ce résultat final en fonction de la « strictitude » (oui, j’hommage Oldelaf) avec laquelle on élimine les études de l’estimation finale.
Et ce qu’on observe la plupart du temps, c’est que plus on inclut d’études contenant des problèmes de conception (des sources de biais), plus le résultat final est en faveur du traitement évalué.
Cette constatation a été observées de multiples fois. C’est l’une des contributions d’un domaine précis de la recherche en santé publique, qu’on appelle la méta-épidémiologie (qui n’est pas ma spécialité, je précise).
Et je précise aussi, pour les deux du fonds, que cette constatation n’est clairement pas pour plaire à Bigpharma, quel que soit ce que vous mettez dans ce mot-valise.
Revenons à la vidéo de DR. Le choix des études est crucial, donc il est normal que ce point précis fasse l’objet de discussion.
DR a-t-il raison d’éliminer sans un regard toute étude rapportant avoir inclus certains patients dont le diagnostic initial de Covid n’a pas été ultimement confirmé par PCR (j’espère que je rapporte bien ce qu’il a dit ici, j’ai eu du mal à suivre après le tour de magie) ?
Je ne sais pas répondre à cette question, d’autres que moi sauront mieux le faire, en justifiant ou infirmant ce critère de sélection des études (pour les deux du fonds, je parle d’experts reconnus par leur pairs, pas de vous, d’accord ?)
Mais DR a-t-il raison de ne se baser que sur ce seul critère, en balayant d’un revers de main toutes les sources de biais avérés sous prétexte qu’elles ne sont que « méthodologiques », qu’un « raffinement mathématique » ?
J’espère vous avoir convaincu que la réponse est non. Mille fois non. C’est absurde voyons !
Affirmer, publiquement, son mépris pour les méthodes de l’épidémiologie et son incompétence sur le sujet est un non sens dans le domaine de recherche de cet IHU. C’est le comble du comble.
Enfin, cette vidéo est dégoulinante de paternalisme envers ce groupe de « jeunes » (qui n’en sont pas) dont la publication, avec ses qualités et ses défauts, rend littéralement grotesque le travail non publié présenté par DR.
Pas un mot sur les insultes, pas un mot sur le harcèlement qu’ils subissent depuis cette publication (et pour certains, bien avant), et qui ont toutes les chances d’être ravivés par cette vidéo.
Les méthodes de l’épidémiologie ne comptent pas, c’est une opinion, un raffinement, c’est du vent ? Je sais pas pour vous, mais moi, pour enfoncer un clou, j’utilise un marteau, et je le tiens par le manche.
Please unroll @threadreaderapp
Missing some Tweet in this thread? You can try to force a refresh.

Keep Current with David Hajage

Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

Twitter may remove this content at anytime, convert it as a PDF, save and print for later use!

Try unrolling a thread yourself!

how to unroll video

1) Follow Thread Reader App on Twitter so you can easily mention us!

2) Go to a Twitter thread (series of Tweets by the same owner) and mention us with a keyword "unroll" @threadreaderapp unroll

You can practice here first or read more on our help page!

Follow Us on Twitter!

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3.00/month or $30.00/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!