Voici ce qu'il faut retenir sur le rapport "The Foreign Censorship Threat – Part II" publié hier par la Commission judiciaire du Congrès américain (@JudiciaryGOP).
🧵Fil à dérouler : on y apprend beaucoup de choses utiles au débat démocratique en France et en Europe.
1/ Ce document officiel analyse la manière dont l’Union européenne, à travers le Digital Services Act (DSA), a progressivement mis en place un système de contrôle du discours en ligne à portée extraterritoriale, affectant non seulement les citoyens européens, mais aussi les débats démocratiques hors UE.
Contrairement à l’image d’une législation technique et neutre, le rapport décrit le DSA comme l’aboutissement d’une stratégie politique de long terme, fondée sur des normes floues, une pression réglementaire asymétrique et une centralisation du pouvoir de modération à Bruxelles (p.1–2).
Dès 2015, la Commission européenne crée des forums informels avec les grandes plateformes (Google, Meta, Twitter/X, Microsoft), notamment le EU Internet Forum. Initialement présenté comme un outil de lutte contre le terrorisme, ce forum élargit rapidement son champ à des contenus politiques légaux : populisme, critique institutionnelle, satire, mèmes (p.3).
Un manuel interne du forum recommande explicitement la modération de contenus pourtant licites, au motif qu’ils seraient "socialement nuisibles" ou "déstabilisants" (p.3).
Le manuel interne du EU Internet Forum recommande de modérer :
– discours "populistes"
– critiques de l’UE
– satire politique
– mèmes
Entre 2016 et 2018, la Commission impose plusieurs codes de conduite dits volontaires contre la haine et la désinformation.
Le rapport révèle que ces codes servent de laboratoire réglementaire : ils permettent de tester des pratiques de modération sans passer par le législateur (p.4–6).
Des échanges internes cités dans le rapport montrent que les plateformes n’avaient, en réalité, aucune marge de refus. La Commission indique clairement que ces codes visent à "combler le vide réglementaire" avant l’adoption d’une législation contraignante (p.4, p.29–33).
Ces codes servent de période d’essai avant la loi : la Commission explique explicitement qu’ils visent à "combler le vide réglementaire" avant l’adoption du DSA.
Deux États membres jouent un rôle majeur : l’Allemagne et la France.
🇩🇪 L’Allemagne adopte dès 2017 la loi NetzDG, imposant des suppressions rapides de contenus signalés, avec des amendes lourdes. Le rapport souligne que cette loi a encouragé une logique de sur-modération, souvent appliquée à l’échelle mondiale par les plateformes (p.28). C'est la logique du "dans le doute, on supprime".
🇫🇷 La France, de son côté, tente en 2020 d’adopter la loi Avia, censurée par le Conseil constitutionnel pour atteinte disproportionnée à la liberté d’expression.
Le rapport établit un lien direct : ce que la France ne peut imposer constitutionnellement au niveau national, elle le soutient ensuite au niveau européen via le DSA (p.24–25, p.112). Le fameux "c'est pas moi, c'est l'Europe".
Le rapport insiste sur un point structurel : la modération ne peut pas être nationale.
Pour des raisons techniques (coûts, architecture des systèmes, chiffrement, VPN), les plateformes appliquent des règles globales. Toute exigence européenne devient donc, de facto, mondiale (p.7, p.40–41).
Ainsi, lorsque l’UE impose une définition élargie de la "désinformation" ou des "risques systémiques", ces critères s’appliquent aux contenus français, mais aussi aux débats politiques étrangers.
🌍 Toute exigence européenne devient mondiale.
🦠 La crise sanitaire #Covid19 constitue un moment clé.
Le rapport documente comment la Commission a exigé des plateformes qu’elles modifient leurs règles globales pour limiter les discours remettant en cause les politiques sanitaires, les vaccins ou les récits institutionnels (p.7–9, p.43).
Ces décisions ne reposaient pas sur des jugements judiciaires, mais sur des évaluations administratives de "risques informationnels" et de toute information "hors narratif officiel".
À partir de la page 16, le rapport détaille l’utilisation du DSA dans un contexte électoral.
🇫🇷 La France est explicitement citée parmi les pays où la Commission a coordonné des actions de modération renforcée avant des élections nationales, via réunions non publiques avec plateformes et ONG (p.16–17, p.25–26).
Ces mesures incluent :
- ajustement des algorithmes,
- baisse de visibilité de contenus politiques,
- étiquetage par des fact-checkers agréés,
- priorisation de signalements institutionnels,
Les lignes directrices DSA exigent aussi de limiter fortement les contenus politiques générés par IA, y compris lorsqu’ils sont licites, satiriques ou critiques du pouvoir.
Les thèmes les plus ciblés sont l’immigration, la sécurité, le climat et les questions sociétales — soit le cœur du débat politique français (p.18).
Le rapport souligne que ces mécanismes :
- contournent le Parlement français,
- marginalisent le juge judiciaire,
- réduisent le rôle du Conseil constitutionnel.
La coopération s’opère principalement via des autorités administratives (ARCOM, ministères) et des ONG labellisées comme "trusted flaggers", souvent subventionnées et idéologiquement marquées (p.24–28).
🔴 Les citoyens français disposent ainsi de moins de garanties procédurales face à une suppression DSA que face à une décision judiciaire nationale (p.28–29).
Enfin, le rapport évoque les projets futurs, notamment le European Democracy Shield () , qui viserait à renforcer encore ces mécanismes.
Il alerte également sur la remise en cause progressive de l’anonymat en ligne, pourtant protégé par la tradition juridique française et européenne (p.20).ec.europa.eu/commission/pre…
Conclusion : un enjeu démocratique majeur pour la France
La France soutient activement l’interprétation maximaliste du DSA, notamment sur la notion de "risques systémiques", laissée volontairement floue. Cette ambiguïté permet une application politique. Ce que la France ne peut pas imposer constitutionnellement au niveau national, elle le soutient au niveau européen via le DSA (p.25).
La conclusion du rapport est sans ambiguïté : le DSA a créé un transfert de souveraineté informationnelle, du niveau national vers la Commission européenne, au moyen de normes floues et de mécanismes administratifs difficilement contestables (p.20–21, p.29).
Pour la France, l’enjeu est central : il ne s’agit pas seulement de réguler les plateformes, mais de déterminer qui contrôle le débat public, selon quels critères, et sous quel contrôle démocratique.
L'intégralité du rapport est consultable ici : judiciary.house.gov/sites/evo-subs…
Share this Scrolly Tale with your friends.
A Scrolly Tale is a new way to read Twitter threads with a more visually immersive experience.
Discover more beautiful Scrolly Tales like this.
