Ce thread sera consacré aux essais cliniques de non-infériorité. Je vais essayer d’expliquer clairement leur objectif et leur place dans le domaine de l’évaluation thérapeutique, ainsi que les questions éthiques qu’ils peuvent soulever.
Cela vous a peut-être échappé, mais récemment, une personnalité, que nous nommerons dans la suite Garcimore pour préserver son anonymat,
en défendant un certain manque rigueur scientifique (concept qu’il confond malheureusement assez souvent avec celui de méthode scientifique), a plusieurs fois justifié son approche de la science par le manque d’éthique supposé des essais contrôlés randomisés.
Et dans cette lutte contre “l’église des essais contrôlés randomisés”, un véritable anathème semble avoir été jeté à l’encontre des essais dits de “non-infériorité” : leur absence de justification éthique aurait conduit à leur interdiction pure et simple dans son établissement.
Cette condamnation des essais de non-infériorité ne tient pas une place centrale dans le château de cartes construit par Garcimore, mais me paraît revenir suffisamment fréquemment pour s’arrêter un peu dessus, le temps d’un petit (?) thread.
*Oui*, des questions éthiques spécifiques se posent, mais pas, me semble-t-il, celles exposées par Garcimore. Et oui, ce teaser est lamentable. Restez 🙏 si le sujet vous intéresse. Il y aura des pauses.
Je ne vais pas ici expliquer *en détails* ce qu’est un essai contrôlé randomisé. Je pars du principe que vous voyez à peu près son objectif (la comparaison d’au moins deux stratégies thérapeutiques),
que vous savez ce qu’est la randomisation (l’attribution aléatoire des stratégies thérapeutiques comparées),
et les principes éthiques qui justifient (et souvent, imposent) la réalisation d’essais randomisés, dans certaines situations bien précises (et finalement limitées).
Pour en savoir plus à ce sujet, je vous conseille l’excellente (et accessible) introduction à l’éthique des essais cliniques de @FerryDanini : medium.com/@ferry.danini/…
En résumé (et sans détailler donc, mais en citant @FerryDanini), un essai contrôlé randomisé a pour objectif “de dissiper une incertitude au sein de la communauté scientifique à propos de la supériorité d’un traitement A vis-à-vis d’un traitement B (B pouvant être un placebo)”.
C’est le concept d’*équipoise clinique*. “On” (et non “je”) ne sait pas quel est le meilleur des deux traitements, pour une certaine population atteinte d’une certaine maladie. Il n’y a pas de consensus.
Mais il existe une hypothèse, basée sur un rationnel fort mais des preuves insuffisantes, qu’une “nouvelle” stragégie thérapeutique (traitement A plus haut) pourrait apporter un bénéfice par rapport à la stragégie thérapeutique qui, jusque là, faisait concensus (traitement B).
La “nouvelle stratégie” est dite expérimentale, et l’autre est dite “de référence”. Et pour cette dernière, il peut parfois s’agir de l’absence de traitement spécifique (ou plutôt, d’un traitement uniquement symptomatique).
Un essai randomisé qui ne serait pas planifié pour respecter le principe d’équipoise clinique (par exemple, en ne proposant pas la meilleure stratégie thérapeutique de référence connue, ou en proposant une stratégie expérimentale farfelue) ne serait pas éthique.
Comme ne serait pas tout à fait éthique un comportement conduisant à utiliser à large échelle un traitement sur la base de données scientifiques insuffisantes (voir faussées).
En faire la promotion, et utiliser sa position politique ou sa surmédiatisation pour presser des instances décisionnaires à en autoriser la prescription ne semble pas tout à fait éthique non plus. C’est d’ailleurs interdit, déontologiquement. Donc, non, personne ne ferait ça.
Mais je m’égare. On n’est pas là pour parler d’histoires à dormir debout.
En résumé à ce stade, un essai de non-infériorité est un essai contrôlé randomisé, et à ce titre, il ne sera éthique qu’à ces conditions : 1) qu’il propose la stratégie thérapeutique de référence, la meilleure connue à ce jour,
2) qu’un rationnel scientifique suffisamment convaincant existe pour penser que la stratégie expérimentale testée soit meilleure que la stratégie de référence,
3) tout en ayant pas encore de preuves scientifiques assez solides pour l’affirmer avec suffisamment de certitude.
L’essai clinique est construit pour permettre, éventuellement (en fonction de ses qualités intrinsèques, des résultats obtenus, et de leur accueil dans la communauté scientifique), d’aboutir à un nouveau consensus.
Alors (je simplifie un peu), il y a équipoise clinique.
Et il n’y a pas de raison d’interdire systématiquement un certain type d’essai clinique, à moins de démontrer que ce type d’essai clinique ne pourra jamais remplir ces conditions.
Bien. Bon. Pause tour de cartes !
Aller, on reprend. Quel est l’objectif général d’un essai de non-infériorité ? Et bien, le même que n’importe quel essai contrôlé randomisé : apporter la preuve qu’une stratégie thérapeutique expérimentale plausible est meilleure que la meilleure stratégie de référence connue.
Blam. Oui. Un essai de non-infériorité peut respecter l’équipoise clinique.
Je dois avouer ici, avant de continuer, que je ne comprends pas bien les explications de Garcimore (en partie car il y a peu d’explications), et que je ne peux que faire des suppositions sur ce qui l’a conduit à interdire ce type d’étude.
Je suppose (hypothèse de ma part donc) que ce qui dérange Garcimore est qu’un essai de non-infériorité ne cherche pas à démontrer qu’une stratégie expérimentale est plus *efficace* (dans le sens : “guérit mieux”) que la stratégie de référence.
Et pour ceux qui ont l’impression que je viens de me contredire (“meilleure” n’est-il pas synonyme de “plus efficace” dans le domaine médical ?), le plus parlant me semble être de donner un exemple concret.
Imaginons que le traitement de référence d’une maladie soit chirurgicale.
Imaginons aussi qu’un chercheur ait de sérieuses raisons de penser qu’un traitement médicamenteux ayant peu d’effets secondaires attendus, moins douloureux, moins invasifs et moins cher que la chirurgie, pourrait être au moins aussi efficace que la chirurgie.
Si ce chercheur se révèle, in fine, avoir raison, quel traitement considéreriez-vous globalement comme le meilleur ? Evidemment, la chirurgie. JE BLAGUE. Le traitement médicamenteux bien sûr. Sans être forcément plus efficace, il s’agirait de la meilleure stratégie thérapeutique.
On voit alors apparaître l’objectif plus spécifique d’un essai de non-infériorité : cet essai est censé apporter la preuve qu’un traitement expérimental disposant a priori d’un avantage intrinsèque évident par rapport au traitement de référence
mais qui ne concerne pas l’efficacité (par exemple, et sans être exhaustif : moins toxique, moins invasif, plus facile d’utilisation ou d’administration, moins long, moins coûteux, etc),
est au moins aussi efficace que le traitement de référence. S’il “guérit” au moins aussi bien, il sera meilleur globalement, et ceci, même s’il ne “guérit” pas mieux ou plus souvent.
Et il serait très imprudent de ne se fonder que sur l’intuition d’un chercheur, sans preuve scientifique solide, pour être convaincu que le traitement expérimental “guérit” aussi bien. Voilà pourquoi un essai de non-infériorité est entrepris dans ce contexte précis.
Enfin, un essai de non-infériorité ne serait pas éthique si le traitement expérimental évalué n’apportait pas un avantage suffisant par rapport au traitement de référence (mais portant sur autre chose que son efficacité). L’objectif n’est pas le changement pour le changement.
J’en viens bientôt à une question éthique spécifique que posent les essais de non-infériorité. Avant de l’aborder, je dois encore introduire un élément, et pour cela, parler un peu de statistique.
Pause !
Voilà. Je dois dire deux mots de statistiques. Pas de formule, pas de théorie, juste quelques éléments pour comprendre une spécificité des essais de non infériorité à ce sujet.
Dans un essai contrôlé randomisé “classique” (c’est-à-dire, qui cherche à démontrer la supériorité du traitement expérimental en termes d’efficacité, et non sa non-infériorité), il est *relativement simple*, lors de l’analyse des données collectées en fin d’étude,
de déterminer si l’étude démontre l’hypothèse initiale ayant conduit à mener cette recherche (le traitement expérimental est plus efficace que le traitement de référence) ou si l’étude ne permet pas d’aboutir à cette conclusion avec une certitude suffisante.
En pratique, on estime dans chacun des deux groupes une mesure reflétant bien ce qu’on cherche à soigner : par exemple, le taux de survie, si on cherche à éviter les décès (je vais rester sur cet exemple dans la suite),
et on calcule la différence observée entre les deux groupes : s’il y a 30% de survie dans le groupe de référence, et 44% de survie dans le groupe expérimental, alors la différence observée est de 14%.
Si l’essai clinique a été correctement réalisé de bout en bout, la différence observée ci-dessus peut s’expliquer de deux manières : une meilleure efficacité réelle du traitement expérimental (la différence d’efficacité théorique entre les deux traitements n’est pas nulle),
et le hasard. A l’extrême, il est possible que la différence d’efficacité théorique entre les deux traitements soit nulle, et que ce qu’on observe ne soit lié qu’au hasard (qu’on appelle fluctuations d’échantillonnage quand on veut faire chic).
(Pour les petits malins : une troisième possibilité existe bien sûr, le traitement expérimental peut être délétère par rapport au traitement de référence. Mais j’ai choisi des hypothèses unilatérales pour que toutes ces explications restent simples).
Quel que soit le cadre conceptuel choisi (notamment, fréquentiste ou bayésien), une analyse statistique est réalisée pour décider si cette différence observée est suffisante pour conclure
que la différence observée est bien le reflet d’une meilleure efficacité du traitement expérimental. Toute l’étude est planifiée à l’avance pour faciliter cette décision.
En bref, dans mon exemple, on essaie de décider : 14% de survie en plus avec le traitement expérimental, c’est suffisant ou osef ? Et il n’y a pas besoin de beaucoup d’ingrédients en plus que les données observées pour prendre cette décision en terme statistique.
En revanche, dans un essai de non-infériorité, le traitement statistique des données en fin d’étude a toujours besoin d’un ingrédient supplémentaire, et planifié à l’avance. Il s’agit de la *borne de non-infériorité*. Et c’est cet élément qui pose une question éthique spécifique.
En effet, c’est bien beau d’avoir comme objectif de démontrer qu’un traitement expérimental est au moins aussi efficace que le traitement de référence. Mais cet objectif est confronté à un sérieux problème :
il est *impossible* de démontrer que la différence d’efficacité entre les deux traitements est *égale* à zéro. Or, en théorie, c’est bien ce qu’on cherche à faire… Et ça, bah c’est bien relou.
Tout ce qu’on peut faire, c’est de montrer que *si* le traitement expérimental est *moins* efficace que le traitement de référence, la perte d’efficacité ne dépasse pas une certaine limite. Cette limite, choisie avant de réaliser l’étude, c’est la borne de non infériorité.
Par exemple, dans mon exemple précédent, on pourrait décider que le traitement expérimental sera considéré non-inférieur au traitement de référence *si* on arrive à démontrer qu’une éventuelle baisse du taux de survie ne dépasse pas 5% par rapport au traitement de référence.
Et CA, ça pose une question éthique évidente. Quand on plannifie un essai de non-infériorité, on *consent* à ce que le traitement expérimental puisse, in fine, être un peu moins efficace que le traitement de référence.
Cette perte maximale d’efficacité est fixée à l’avance, afin d’être suffisamment faible pour être compensée (ou plutôt, plus que compensée) par les autres avantages du traitement expérimental.
Bien entendu, le traitement expérimental pourrait être aussi efficace que le traitement de référence. Il pourrait même être plus efficace. Mais tout ce qu’on cherche à démontrer, c’est que s’il était moins efficace, la perte d’efficacité serait limitée.
La valeur donnée à la borne de non-infériorité dépend de la population concernée, de la maladie, de sa gravité, des traitements disponibles, des autres avantages éventuels du traitement expérimental, etc.
Mais même si des “règles” empiriques existent pour aider à fixer une borne de non-infériorité adaptée à chaque étude, il existera toujours une part de subjectivité. Cette borne, elle-même, doit faire l’objet d’un consensus avant le démarrage de l’étude.
Cette spécificité *là* des essais de non-infériorité est difficile à intégrer, à accepter. Je ne connais pas d’alternative qui permettrait de la contourner.
Ou alors, on décide qu’il n’est pas possible de proposer de nouveaux traitements s’il ne sont pas plus efficaces que ceux déjà disponibles, peu importe leurs autres qualités intrinsèques.
Ou encore, on se fie à une évaluation au doigt mouillé, non rigoureuse, pour décider qu’un nouveau traitement est aussi efficace que le traitement de référence…
… mais rien ne garantie non plus qu’une perte d’efficacité n’existe pas en réalité, et on accepte alors de ne pas la maîtriser du tout, ou en tout cas, pas de manière rigoureuse.
Voilà, j’ai fini. J’espère que tout cela vous a intéressé, que j’ai été suffisamment clair, et que ça vous a aidé à comprendre ce que sont les essais de non-infériorité.
[THREAD]
Révélé par Médiapart en automne 2021, enrichi par le rapport de l'IGAS, le scandale de l'« expérimentation sauvage » contre la tuberculose à l’IHU-MI trouve son origine dans deux protocoles d'essais cliniques soumis à l'ANSM en 2019 et 2020.
Ces deux protocoles avaient pour objectif d'évaluer l'utilisation d'une association de 3 antibiotiques chez des patients atteints de tuberculose pulmonaire.
La suspicion d'expérimentation sauvage provient du fait que, malgré l'absence d'autorisation de ces protocoles par l'ANSM, cette association d'antibiotique a été utilisée pour traiter des patients atteints de tuberculoses pulmonaires à l'IHU-MI.
Cet article est un essai contrôlé randomisé ouvert comparant, chez des individus âgés >= 65 ans infectés ? SARS CoV-2 depuis moins de 3 jours et avec un facteur de risque de forme grave, l’utilisation d’une dose élevée de vitamine D (HDose) versus un dose standard (SDose).
Le nombre de patients inclus dans chaque groupe est de 127. Le critère de jugement principal est la survie globale à 14 jours.
On peut trouver que le reporting de la publication aurait mérité d’être plus neutre, et de faire figurer le suivi complet des patients sur la figure 2, au lieu de le reléguer en annexe.
Mais on peut accorder aux auteurs d’avoir clairement écrit dans leur conclusion que le bénéfice observé sur le critère de jugement principal (mortalité à 14 jours) s’effaçait complètement dans la suite du suivi.
Une fois n'est pas coutume, je voudrais rendre hommage à Didier Raoult.
🧶⤵️
Plus précisément, je voudrais revenir sur des propos de ce youtubeur le 26 octobre 2021. Un scandale en remplaçant un autre, ce fil est donc un peu réchauffé malheureusement.
Mais ce n'est pas grave. Voici l'extrait qui m'intéresse aujourd'hui, à propos de la tuberculose.
Et bien, vous savez quoi ? Chercher comment raccourcir un traitement très long sans perdre en efficacité thérapeutique n'est pas une mauvaise idée en soit.
(Ce n'est pas le premier à avoir ce genre d'idée, hein)
« La méthodologie n’a jamais créé quoi que ce soit. La découverte scientifique et médicale, c’est pas de la méthodologie. 90% de ce que vous prenez pour vous soigner n’a jamais été évalué par les méthodologistes. C’est n’est pas vrai, voilà. »
Didier Raoult, Youtube, 06/07/2021
Ce n’est pas la première fois que Didier Raoult s’en prend à la méthodologie (ou les méthodologistes), qui semblent incarner pour lui l’un des freins majeurs des progrès de la recherche scientifique dans le domaine médical.
Dire que Didier Raoult raconte n’importe quoi sur un sujet qu'il ne maîtrise pas n’est pas seulement une source inépuisable de mèmes sur twitter, c’est devenu un truisme.
[THREAD REVIEW]
Bonjour à tous !
Ce thread revient sur un preprint d'une petite équipe de débutants motivés💪
Vous le trouverez ici : mediterranee-infection.com/wp-content/upl…
Par certains aspects, on peut considérer ce preprint comme la mise à jour d'une recherche publiée en 2020 (doi.org/10.1016/j.tmai…),
et que j'ai légèrement critiqué ici :
Petite différence : la publication de 2020 mélangeait des patients en hospitalisation conventionnelle et ambulatoire, tandis que celle-ci n'inclut que des patients hospitalisés.