Kâplan Profile picture
Sep 14, 2021 6 tweets 5 min read Read on X
Interview de l'avocat Grégoire Weigel, ex-Chef de département en charge du #Pluralisme de l'information et des Campagnes électorales au Conseil Supérieur de l'Audiovisuel (CSA) de 2007 à 2014 sur le comptage du temps d'antenne d'Eric #Zemmour imposé à #Facealinfo sur @CNEWS.
L'avocat Grégoire Weigel, ex-juriste au #CSA sur le comptage du temps d'antenne d'Eric #Zemmour imposé à #Facealinfo sur @CNEWS interroge ce que veut dire la notion "d'acteur du débat politique national" pour les intellectuels: seront-ils aussi décomptés ?
L'avocat Grégoire Weigel, ex-juriste au #CSA explique que mécaniquement le décompte du temps de parole d'Eric #Zemmour augmente le temps de parole de l’exécutif et diminue le temps de parole de l'opposition et de la majorité parlementaire.
Révélations sur les pressions politiques exercées par la gauche sur le #CSA, lorsque Christine Kelly en était membre, pour décompter le temps de parole du journaliste Eric Brunet, réputé être de la droite libérale.
Il faut toutefois noter que l'association de financement électoral nommée “Les Amis d’Eric #Zemmour” qui a été officiellement agréée par la Commission nationale des comptes de campagne peut s’apparenter à un parti politique, ce qui ouvre la voie à un décompte du temps de parole.
Mais l'angle juridique du #CSA est différent: Comment définir un « acteur du débat politique national » ? 🤔
Vraie question.

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Kâplan

Kâplan Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @KaplanBen_Fr

Dec 25, 2025
La séquence de cette interview de Margaret Thatcher frappe par sa clarté conceptuelle autant que par son actualité. Interrogée sur la place du consensus en démocratie, l’ancienne Première ministre britannique récuse sans détour l’idée selon laquelle la démocratie aurait pour finalité l’accord unanime. La démocratie, affirme-t-elle, n’est pas la recherche du consensus, mais l’expression d’un choix politique éclairé, rendu possible par la confrontation explicite de visions adverses.

Cette prise de position, souvent mal comprise ou caricaturée, mérite pourtant d’être replacée dans une réflexion plus large sur la nature du politique et sur l’évolution contemporaine de nos démocraties libérales, désormais de plus en plus affaiblies.

Le consensus comme horizon ou comme illusion ?

Depuis plusieurs décennies, une partie importante de la pensée politique et de la pratique gouvernementale en Occident tend à faire du consensus non plus un résultat contingent du jeu démocratique, mais son objectif normatif. Inspirée à la fois par la recherche de stabilité sociale, par la technocratie managériale et par une méfiance croissante à l’égard du conflit, cette vision considère le désaccord comme un dysfonctionnement à corriger plutôt que comme une ressource à organiser.

Or, comme l’ont montré des penseurs aussi différents que Max Weber, Carl Schmitt ou Hannah Arendt, le conflit n’est pas un accident de la démocratie : il en est la condition même. Toute société politique est traversée par des visions du monde concurrentes, irréductibles à une vérité unique, car elles reposent sur des hiérarchies de valeurs, des conceptions du bien commun et des représentations anthropologiques distinctes.

Faire du consensus l’horizon indépassable de la démocratie revient dès lors à nier cette pluralité constitutive.

Thatcher : conflit, décision et responsabilité ?

C’est dans ce cadre que l’intervention de Margaret Thatcher prend tout son sens. Loin de prôner un unanimisme autoritaire, elle défend une conception exigeante de la démocratie : celle où les citoyens sont confrontés à des alternatives claires, portées par des projets cohérents, et appelés à trancher.

La démocratie, dans cette perspective, n’est pas la neutralisation des désaccords, mais leur mise en forme intelligible. Elle suppose le courage de nommer les divergences, de les assumer publiquement et de les soumettre au jugement populaire. Le choix majoritaire ne fait pas disparaître l’opposition ; il la rend légitime tout en permettant l’action.

Cette vision entre en tension apparente avec le célèbre slogan "There Is No Alternative" souvent associé à la PM britannique. Mais ce paradoxe est plus apparent que réel. Thatcher n’a cessé de produire de l’alternative dans l’espace du débat politique ; elle affirmait simplement qu’une fois la décision démocratique prise, la responsabilité gouvernementale exigeait cohérence et continuité. Autrement dit : pluralisme avant la décision, autorité après le choix.

De la démocratie conflictuelle à la démocratie morale ?

La portée contemporaine de cette interview apparaît avec d’autant plus de force que nos sociétés semblent aujourd’hui traversées par une peur croissante de l’affrontement idéologique. Le débat politique tend à être reformulé en termes moraux ou cognitifs : d’un côté la raison, la science, la modernité ; de l’autre les prétendues erreurs, la désinformation, l’irrationalité.

Ce glissement est lourd de conséquences. En substituant à l’opposition entre visions du monde une opposition entre vérité et mensonge, on délégitime l’adversaire politique comme interlocuteur légitime. Le conflit n’est plus débattu, il est disqualifié. La démocratie cesse alors d’être un espace de choix pour devenir un dispositif de correction des déviances.

Cette logique unanimiste, souvent justifiée au nom du « vivre ensemble », repose paradoxalement sur une fiction : celle d’une société fondamentalement d’accord sur l’essentiel. Or l’histoire politique comme la sociologie contemporaine montrent que le pluralisme des valeurs n’est pas une pathologie à résorber, mais une réalité durable à gouverner.

La noblesse du dissensus !

Ce que rappelle, avec une sobriété presque pédagogique, cette intervention de Margaret Thatcher, c’est une vérité souvent oubliée : le conflit politique peut être noble lorsqu’il est assumé, argumenté et institutionnalisé. Il permet la clarification des enjeux, la responsabilisation des acteurs et la maturation du jugement citoyen.

Admettre l’existence de visions du monde incompatibles ne condamne pas au chaos ; c’est au contraire reconnaître la dignité du politique comme espace de délibération et de décision. Refuser cet affrontement au nom d’une harmonie factice, c’est risquer de déplacer les conflits hors du champ démocratique, là où ils deviennent plus violents et moins contrôlables.

En ce sens, cette interview dépasse largement le cadre d’un témoignage historique. Elle constitue une invitation à repenser la démocratie non comme la négation du désaccord, mais comme l’art difficile et courageux de le rendre fécond.
Dit en d'autres termes, la mise en conflit assumée des visions du monde dans l’espace de la représentation politico-médiatique constitue sans doute l’un des moyens les plus efficaces de prévenir leur transposition brutale dans l’espace social réel, où elles prennent la forme de tensions diffuses, de radicalisations identitaires et, dans les cas extrêmes, de dynamiques pré-insurrectionnelles. Lorsque le conflit est symbolisé, argumenté et institutionnalisé, il devient un facteur de pacification ; lorsqu’il est nié ou refoulé au nom d’une harmonie factice, il tend à resurgir sous des formes bien plus violentes.

À cet égard, les institutions gaulliennes de la Vème République ont précisément été conçues pour rendre possible cette conflictualité symbolique ordonnée : en organisant la confrontation des projets politiques et des visions du monde alternatives dans l'élection au suffrage universel direct du Président de la République, en permettant la décision claire et en assurant la continuité de l’État, elles visaient à transformer le dissensus en moteur de stabilité plutôt qu’en ferment de dissolution. C’est cette capacité à canaliser le conflit, et non à l’abolir, qui fonde leur fonction pacificatrice.

À l’inverse, l’idéologie contemporaine du « vivre ensemble », lorsqu’elle se mue en injonction unanimiste refusant l’expression des désaccords fondamentaux, risque paradoxalement de préparer ce qu’elle prétend conjurer. En disqualifiant l’affrontement politique au nom d’une concorde abstraite et naïve, elle ouvre la voie à une conflictualisation souterraine, non médiatisée et non maîtrisée, qui constitue bien souvent le prodrome aux fractures les plus irréversibles.
Cf. Héraclite, Aristote et Thucydide... jusqu'à Jacques Rancière, Norbert Elias et Raymond Aron qui approfondissent ces sujets.
A l'inverse, le concept de "polarisation" apparait comme un outil idéologique de délégitimation des oppositions et des dissensus, servant objectivement les forces du statu quo. La science politique (sic) en important ce concept de "polarisation" du marketing et de la psychologie, a en réalité importé une pathologisation idéologique du conflit démocratique, qui constitue un instrument de dépolitisation au service du consensus technocratique.
Read 4 tweets
Dec 24, 2025
Qu'est ce que c'est que cette entreprise de lobbying désinformatif de cette association qui veut imposer dans les médias la propagande anti-science des riches lobbies des énergies intermittentes ? 🤔 Image
Analyse rationnelle des affirmations citées dans l'Infographie de Quota Climat :

L’infographie publiée par Quota Climat présente comme des « narratifs de désinformation » plusieurs affirmations critiques à l’égard des énergies renouvelables intermittentes (EnRi), en particulier l’éolien et le solaire, sur la base d’une analyse de contenus médiatiques diffusés en France entre janvier et août 2025.
Une lecture attentive des rapports institutionnels de référence, notamment ceux de RTE, de la Cour des comptes, du Sénat, de l’Agence internationale de l’énergie (AIE) et de la Commission européenne, montre toutefois que nombre de ces affirmations reposent sur des constats techniques et économiques objectivement documentés. Leur disqualification globale comme « désinformation » apparaît donc discutable sur le plan scientifique. Reprenons certaines des affirmations visées et contrairement à une vision biaisée, ces points reposent sur la physique des systèmes électriques, l'économie énergétique et l'analyse industrielle.

1. « Les énergies renouvelables font exploser le prix de l'électricité »
L’affirmation selon laquelle « les énergies renouvelables intermittentes font exploser le prix de l’électricité » est souvent formulée de manière excessive. Toutefois, elle s’appuie sur un constat fondamental reconnu par RTE : le coût pertinent d’un système électrique ne se limite pas au coût de production unitaire (LCOE), mais inclut l’ensemble des coûts systémiques nécessaires à son fonctionnement.

Dans Futurs énergétiques 2050, RTE distingue explicitement les coûts de production des coûts de réseau, de flexibilité, de stockage, de back-up pilotable, de réserves de puissance et d’interconnexions. Ces coûts augmentent de façon non linéaire avec la part des EnRi variables. RTE montre que, à hypothèses de demande comparables, les scénarios comportant une forte proportion de nucléaire (N2 et N03) sont les moins coûteux en coûts complets, tandis que les scénarios reposant majoritairement sur les EnRi intermittentes (notamment M100) sont les plus onéreux, avec des surcoûts cumulés de plusieurs dizaines de milliards d’euros à l’horizon 2050.

Il est donc scientifiquement fondé d’affirmer que le déploiement massif d’EnRi intermittentes tend à augmenter le coût global du système électrique, non parce que leur production est intrinsèquement chère, mais parce qu’elle impose des infrastructures redondantes et coûteuses. À l’inverse, le nucléaire, exploité en production pilotable à fort facteur de charge (baseload), contribue historiquement à une électricité stable et économiquement compétitive en France.

Sources : rte-france.com/donnees-public… ; assets.rte-france.com/prod/public/20… ; strategie-plan.gouv.fr/files/files/Pu… ; actu-environnement.com/media/pdf/news…

2. « Les énergies renouvelables sont inefficaces ou inutiles en raison de leur intermittence »
L’idée selon laquelle les EnRi seraient « inefficaces ou inutiles » est scientifiquement incorrecte si elle est prise au sens absolu. En revanche, le cœur technique de l’argument est robuste : les EnRi variables ne peuvent pas, à elles seules, assurer l’équilibre permanent entre l’offre et la demande d’électricité.

Les rapports de RTE et de l’ENTSO-E soulignent que les périodes de pointe hivernale en France correspondent fréquemment à des situations anticycloniques caractérisées par une faible production éolienne et solaire. Les facteurs de charge moyens observés — de l’ordre de 25 à 35 % pour l’éolien terrestre et de 10 à 15 % pour le solaire — reflètent cette variabilité structurelle. Dans ces conditions, seuls des moyens pilotables, tels que le nucléaire et l’hydraulique (notamment les STEP), sont capables de garantir la continuité de l’approvisionnement.

Par ailleurs, l’intégration massive d’EnRi non pilotables contraint le parc nucléaire à une modulation plus fréquente et plus rapide. Cette situation, reconnue par EDF et documentée par la Cour des comptes, entraîne des contraintes thermomécaniques accrues sur les installations, une augmentation des coûts de maintenance et une dégradation de l’optimisation économique du parc. Il s’agit d’un effet systémique réel, rarement évoqué dans le débat public.

Sources : techniques-ingenieur.fr/actualite/arti… ; senat.fr/rap/r25-166/r2… ; ccomptes.fr/sites/default/… ;

3. « Le soutien de l'État aux énergies renouvelables est gigantesque (de l'ordre de dizaines voire centaines de milliards d'euros dans les prochaines décennies) »
L’affirmation selon laquelle le soutien public aux EnRi serait « gigantesque » est parfois exagérée dans sa formulation, mais elle renvoie à une réalité budgétaire documentée. En France, les mécanismes de soutien aux EnRi électriques (compléments de rémunération, contrats d’achat) représentent environ 6 milliards d’euros par an en 2025, avec des engagements cumulés dépassant la centaine de milliards d’euros sur plusieurs décennies.

À l’inverse, le parc nucléaire historique français a été majoritairement financé par emprunt, puis amorti par la vente de l’électricité produite, générant une valeur ajoutée considérable pour l’économie nationale. La filière nucléaire représente aujourd’hui environ 250 000 emplois et une contribution industrielle et stratégique majeure, reconnue par l’OCDE et l’AIE.

Cette asymétrie met en évidence une dépendance structurelle des EnRi aux mécanismes de soutien public, contrairement au nucléaire et à l’hydraulique, dont la rentabilité repose largement sur leur caractère pilotable et leur durée de vie longue.

Sources : lemonde.fr/blog/huet/2018… ; revolution-energetique.com/actus/le-souti… ; oecd-nea.org/upload/docs/ap… ; sia-partners.com/fr/publication… ; sfen.org/app/uploads/20… ; garonne-energie.fr/avantage-du-nu… ; gifen.fr/le-gifen/filie…

4. « Les EnRi variables compromettent la sécurité d’approvisionnement et provoquent des blackouts »
Aucun blackout ne peut être attribué à une cause unique. Toutefois, l’augmentation de la part d’EnRi intermittentes pose des défis croissants de stabilité du réseau, en particulier en raison de la diminution de l’inertie électromécanique fournie historiquement par les centrales thermiques et nucléaires.

RTE souligne que le maintien de la sécurité d’approvisionnement dans des scénarios à forte pénétration d’EnRi suppose des investissements lourds et continus dans les réseaux, les dispositifs de compensation et les capacités pilotables de secours. Sans ces investissements, le risque de déséquilibre lors d’événements climatiques extrêmes augmente. Il s’agit là d’un constat de gestion de réseau, largement partagé par les gestionnaires de systèmes électriques européens.

Sources : rte-france.com/donnees-public… ; senat.fr/rap/r23-714-1/… ; assets.rte-france.com/prod/public/20…

5. « En France, le nucléaire suffit à répondre aux besoins et le mix est déjà décarboné »
Grâce à la combinaison du nucléaire et de l’hydroélectricité, la France dispose déjà d’un des mixes électriques les plus décarbonés au monde, avec une intensité carbone comprise entre 20 et 60 gCO₂/kWh selon les années. Dans ce contexte, remplacer des moyens nucléaires existants par des EnRi intermittentes n’apporte qu’un gain climatique marginal, tout en augmentant les coûts et la complexité du système. C'est une spécificité française.

Les rapports de RTE convergent sur un point central : la priorité climatique française réside moins dans la décarbonation supplémentaire de l’électricité que dans l’électrification des usages aujourd’hui fossiles, ce qui implique une augmentation significative de la demande de puissance pilotable. Le nucléaire et l’hydroélectricité, en particulier les STEP, apparaissent ainsi comme des piliers indispensables de cette trajectoire.

Sources : la-fabrique.fr/fr/publication… ; rte-france.com/donnees-public… ; lignes-droites.fr/energies-renou… ; …tion-strategie-energie-climat.gouv.fr/sites/default/…

6. « Le bilan environnemental des éoliennes est négatif et elles sont un désastre pour la biodiversité (oiseaux) et la santé humaine »
Enfin, l’affirmation selon laquelle le bilan environnemental des éoliennes serait globalement « désastreux » est excessive. Néanmoins, il existe des impacts réels et documentés sur la biodiversité (oiseaux, chauves-souris, fragmentation des habitats) et des nuisances locales (bruit, paysage) qui doivent être pris en compte.

Si ces impacts sont globalement moindres que ceux d’autres activités humaines, ils ne sont ni nuls ni anecdotiques. Leur prise en compte renforce l’idée que les EnRi ne peuvent être considérées comme une solution neutre ou universelle, mais comme un élément parmi d’autres d’un système énergétique rationnel.

Sources : afis.org/Les-eoliennes-… ; eolien-biodiversite.com/IMG/pdf/lpo_on… ; parlonssciences.ca/ressources-ped… ; connaissancedesenergies.org/idees-recues-e…

Les affirmations qualifiées de « désinformation » dans l’infographie de Quota Climat correspondent, pour une large part, à des constats techniques établis, issus de rapports publics et institutionnels de référence. Si certaines formulations médiatiques peuvent être excessives, leur disqualification globale revient à ignorer les conclusions mêmes de RTE, de la Cour des comptes et d’autres organismes officiels.

Le débat réel n’oppose pas la science à la désinformation, mais deux visions de l’architecture du système électrique : l’une fondée sur la pilotabilité, la robustesse, la souveraineté et l’optimisation systémique, l’autre sur une confiance encore largement hypothétique dans la gestion industrielle de l’intermittence à grande échelle.Image
Les prises de position de cette association, reconnue par l'@Arcom_fr, font davantage penser à une opération d'influence et de lobbying qu'à une démarche scientifique argumentée fondée sur les faits.
Read 5 tweets
Sep 12, 2025
Selon Florence Guetté, l'économiste de LFI, qui représente bien le consensus médiatique de la presse en France, il y a eu en France une "envolée du patrimoine moyen des Français les plus riches depuis 15 ans". Mais si on regarde les données du World Inequality Database de Piketty, Zucman et Cie, la part du patrimoine des 10 % et 1 % les plus riches en France est quasi-similaire à la situation en 1968.
En revanche la part du patrimoine des 50 % des français les moins riches s'est dégradée depuis 1988, le second septennat de François Mitterrand, pendant lequel Jean-Luc Mélenchon était sénateur socialiste et Ministre...Image
Image
Image
Depuis la seconde guerre mondiale, le montant des revenus des 50 % les moins riches est très supérieur au montant des revenus des 1 % les plus riches (avant impôts). C'est une inversion par rapport à la situation avant la seconde guerre mondiale. Image
Si l’on compare la France à l’international, la part du patrimoine détenue par les 1 % les plus riches y est aujourd’hui bien inférieure à ce qu’elle était dans les années 1960, et demeure plus faible que dans la plupart des autres pays développés. Une exception notable est le Royaume-Uni, où la part du patrimoine des 1 % les plus riches n'a pas augmenté depuis les années 1990. Cette évolution s’explique notamment par les réformes des années 1980 (par exemple le programme Right to Buy lancé sous Thatcher), qui ont permis à de larges fractions de ménages modestes d’accéder à la propriété, élargissant ainsi la base des détenteurs de patrimoine et réduisant mécaniquement la part relative des plus riches.Image
Read 4 tweets
Sep 12, 2025
Le graphique sur l’impôt au barème par tranche d’imposition selon les données de la DGFIP permet de comprendre comment se structure réellement la contribution des foyers fiscaux français selon leur taux marginal d’imposition (TMI). Contrairement à une idée reçue, l’impôt sur le revenu ne pèse pas uniformément sur l’ensemble des contribuables : il est fortement concentré sur les tranches supérieures.

En 2023, les foyers imposés au taux marginal de 11 % représentent une masse fiscale relativement modeste : environ 14,9 milliards d’euros, avec un impôt moyen de seulement 723 €. Cette tranche correspond à une population large mais aux revenus modestes, pour qui l’impôt reste faible voire symbolique.

Les choses changent radicalement avec le taux marginal de 30 % : cette catégorie, qui regroupe des classes moyennes supérieures et des ménages déjà relativement aisés, contribue à hauteur de près de 49 milliards d’euros. L’impôt moyen y atteint 7 639 €, soit plus de dix fois celui de la tranche précédente. Cela illustre le saut significatif dans la progressivité du système.

La tranche à 41 %, bien plus réduite en effectifs, génère environ 17 milliards d’euros, avec un impôt moyen par foyer de 40 337 €. On entre ici dans le cercle restreint des ménages très imposés, qui supportent individuellement un effort fiscal considérable.

Enfin, la tranche marginale à 45 %, qui concerne une minorité infime de contribuables (les 0,15 % les plus riches), illustre l’extrême concentration de l’impôt : malgré leur faible nombre, ces foyers apportent près de 11 milliards d’euros à eux seuls, avec un impôt moyen record de 179 634 € par foyer.

Ce graphique montre donc deux faits majeurs :

Une base très étroite de contribuables finance l’essentiel de l’impôt sur le revenu. Plus de la moitié des recettes provient des tranches supérieures (30 % et au-delà), malgré le faible nombre de foyers concernés.

La progressivité est extrêmement marquée, chaque palier supérieur entraînant un bond spectaculaire dans le montant moyen payé.

Ainsi, le système français repose sur une minorité qui assume la quasi-totalité de l’effort contributif, confirmant la logique de redistribution massive qui caractérise notre modèle socio-fiscal.Image
Le deuxième graphique met en lumière un point crucial du système socio-fiscal français : la disproportion entre la masse des foyers fiscaux et leur contribution effective à l’impôt sur le revenu.

Sur les 41 millions de foyers fiscaux, une grande majorité ne supporte en réalité qu’un impôt très faible, voire nul :

13,5 millions de foyers se situent dans la tranche à 0 %, c’est-à-dire qu’ils ne paient aucun impôt sur le revenu.

20,6 millions de foyers appartiennent à la tranche marginale de 11 % : leur impôt moyen est de seulement 723 € par an, un montant relativement symbolique au regard de leur poids démographique.

Cela signifie que déjà, plus de 80 % des foyers fiscaux (34 millions sur 41) contribuent de façon très faible ou nulle à l’impôt sur le revenu.

La véritable charge fiscale repose sur les tranches supérieures, mais celles-ci rassemblent un effectif très réduit de foyers :

À 30 % de taux marginal, seulement 6,4 millions de foyers paient en moyenne 7 639 €, soit plus de dix fois la moyenne nationale.

La tranche à 41 % est encore plus étroite : 421 000 foyers, avec un impôt moyen de 40 337 €, soit près de 20 fois la moyenne nationale.

Enfin, la tranche à 45 %, véritable sommet de la progressivité, ne regroupe que 61 000 foyers (0,15 % de la population fiscale). Mais leur impôt moyen atteint 179 634 €, soit 80 fois l’impôt moyen de l’ensemble des foyers fiscaux.

Ce graphique illustre donc un double enseignement :

La redistribution repose sur une base étroite : une minorité extrêmement réduite finance l’essentiel de l’impôt sur le revenu, tandis que la majorité des foyers en est largement exonérée.

L’impôt moyen est exponentiel au fur et à mesure que l’on monte dans les tranches : les hausses ne sont pas proportionnelles, mais progressives au point de créer un effort fiscal massif pour une élite contributive minuscule.

Ainsi, ce graphique complète parfaitement le précédent : il montre non seulement le montant payé par tranche, mais surtout le déséquilibre entre la masse de foyers exonérés et la petite minorité sur laquelle repose l’essentiel du financement.Image
Le troisième graphique met en évidence le rôle redistributif massif de l’impôt sur le revenu en France, notamment lorsqu’on intègre les réductions et crédits d’impôt (RICI).

La première observation est frappante : pour les cinq premiers déciles (la moitié inférieure de la population), l’impôt net est négatif. Autrement dit, ces foyers perçoivent davantage en crédits et réductions qu’ils ne paient d’impôt. En moyenne, les 20 millions de foyers fiscaux situés dans ces déciles bénéficient d’une redistribution nette, leur revenu disponible augmentant au lieu de diminuer.

À partir du 6e décile, l’impôt devient positif mais reste modeste : environ 190 € pour le 6e décile, puis 715 € pour le 7e, et 1 464 € pour le 8e. On voit donc que la classe médiane et la classe moyenne supérieure supportent un impôt faible en proportion de leur revenu fiscal de référence (RFR).

La charge réelle se concentre à partir du 9e décile et surtout sur le dernier décile :

Les foyers du 9e décile paient en moyenne 3 047 €, soit déjà plus que l’ensemble des huit premiers déciles réunis.

Mais c’est le dernier décile (les 10 % les plus aisés) qui concentre l’essentiel de l’effort : avec un revenu fiscal moyen de 62 716 € par part, ils paient en moyenne 15 298 € d’impôt net.

Ce graphique démontre ainsi deux réalités fondamentales :

Un système hyper-redistributif : la moitié des foyers bénéficie directement de transferts via l’impôt, et ne contribue pas au financement du revenu public.

Une concentration extrême de l’effort contributif : les 10 % les plus aisés assurent presque à eux seuls la totalité du produit de l’impôt sur le revenu, avec un niveau d’imposition moyen sans équivalent dans les autres déciles.

En somme, ce graphique clôt la démonstration : le système socio-fiscal français est fortement égalitariste, en réduisant considérablement les inégalités après redistribution, mais il repose pour son financement sur une élite fiscale restreinte. Ce choix traduit une volonté politique d’équité, mais pose aussi la question de la soutenabilité à long terme d’un système où une minorité finance la majorité.Image
Read 4 tweets
Aug 24, 2025
"L'Europe perd. L’Europe a pris un retard considérable en termes de dynamisme économique et de puissance militaire. Le continent qui dominait autrefois le monde deviendra-t-il un spectateur passif de l’histoire ?
Le 13 mai, SpaceX d'Elon Musk a lancé 28 satellites en orbite en une seule journée, l'un des plus de 100 lancements orbitaux américains réussis cette année. La Chine a envoyé plus de 40 fusées dans l'espace depuis janvier. La Russie, embourbée dans la guerre en Ukraine, a lancé 10 fusées.
L'Europe, en revanche, en a lancé quatre. Même cela représente une amélioration : pendant plus d'un an, le continent a dépendu de SpaceX pour lancer des infrastructures critiques.
Tomber derrière dans la course à l'espace n'est qu'un exemple de la façon dont l'Europe a perdu son chemin."
Par David Luhnow et Tom Fairless, WSJ.
"Aujourd'hui, l'Europe, en particulier l'Europe occidentale, se trouve à la dérive, un continent vieillissant perdant lentement son influence économique, militaire et diplomatique. « L'Europe a façonné l'histoire, mais le risque maintenant est que nous soyons simplement des spectateurs de l'histoire à l'avenir », dit Jérémie Gallon, un ancien diplomate français. Les économies du continent ont été largement stagnantes pendant environ 15 ans, probablement la plus longue période de ce type depuis la Révolution industrielle, selon des calculs de la Deutsche Bank. L'économie allemande est 1 % plus grande qu'elle ne l'était à la fin de 2017, tandis que l'économie américaine a crû de 19 %. La part de l'Europe dans la production économique mondiale, mesurée en dollars courants, est passée d'environ 33 % à 23 % entre 2005 et 2024, selon les données de la Banque mondiale. Une grande partie de ce déclin relatif est due à l'ascension de la Chine et de l'Inde, mais la part des États-Unis dans la production mondiale s'est maintenue beaucoup mieux. La proportion de l'Europe dans l'économie mondiale est maintenant probablement la plus basse depuis le Moyen Âge, selon le Maddison Project, une base de données qui suit l'histoire économique à l'Université de Groningen aux Pays-Bas."
"La longue période de croissance européenne faible a ouvert un grand écart de revenus entre les États-Unis et l'Europe. La richesse des ménages européens a augmenté d'un tiers de celle des Américains depuis 2009. Le PIB par habitant aux États-Unis est maintenant de 86 000 dollars par an, contre 56 000 dollars pour l'Allemagne et 53 000 dollars pour le Royaume-Uni.
Un dollar fort fausse quelque peu les comparaisons, et les Européens obtiennent certains biens clés comme les soins de santé bien moins chers que les Américains. Les Européens vivent plus longtemps, ont plus de temps libre et moins d'inégalités de revenus, et vivent souvent dans des villes et des villages magnifiques construits au fil des siècles. Mais de plus en plus, les Américains jouissent d'un niveau de vie plus élevé. Ils ont en moyenne plus de 50 % d'espace de vie par personne. Plus de quatre Américains sur cinq ont des climatiseurs et des sèche-linge à la maison, contre entre un cinquième et un tiers des Européens."
Read 11 tweets
May 2, 2025
L’article d'El País d'aujourd'hui sur le #blackout apporte quelques nouvelles informations, notamment sur l'analyse de fréquence autour du décrochage, vers 12h30.
elpais.com/clima-y-medio-…
Selon Red Eléctrica Española (REE), le gestionnaire du réseau, l’incident a débuté à 12h20 avec une forte variation de fréquence dans le réseau espagnol, qui est passé de 50 Hz (la fréquence standard en Europe) à 50,9 Hz en quelques secondes, avant de chuter brutalement.
-Première chute (49,95 Hz → 49,85 Hz) après 12:33:16 : Cette baisse initiale de 0,1 Hz indique une première perte de génération, probablement due à la déconnexion d'une centrale solaire dans le sud-ouest de l’Espagne, comme mentionné par REE. Bien que la chute soit modeste, elle signale une perturbation initiale que le réseau a tenté de compenser.
-Deuxième chute (49,85 Hz → 49,75 Hz) un peu avant 12:33:18 : Une deuxième perte de génération, 1,5 seconde plus tard, entraîne une baisse supplémentaire de 0,1 Hz. La faible ampleur de cette chute suggère que le réseau était encore en train de se stabiliser, mais l’inertie insuffisante (75 % de la production était renouvelable, sans inertie) a limité sa capacité à compenser.
-Chute en cascade (49,75 Hz → 49,25 Hz pour Malaga, courbe noire, et sous les 49 Hz pour Oporto, courbe grise) vers 12:33:20 : De 12:33:19 à 12:33:20, la fréquence chute rapidement de 49,75 Hz et sous les 49,5 Hz. Cette chute en cascade reflète l’incapacité du réseau à gérer les pertes successives de génération, entraînant une déconnexion avec l’Europe et un effondrement total (blackout).
◾️Cette variation a déclenché des mécanismes automatiques de délestage pour protéger le réseau, mais l’ampleur de la chute a conduit à un effondrement total du système. « Nous enquêtons sur les causes exactes, mais il est clair que le réseau n’a pas pu absorber une variation aussi rapide », a déclaré un porte-parole de REE. Une variation d’énergie dans le réseau n'a pas été convenablement gérée et les délestages automatiques n'ont pas suffi à stabiliser le réseau, entraînant un effondrement total. Cela reflète un manque d’inertie et de capacités d’absorption des variations de fréquence, comme le note l’article.
◾️À noter sur le graphique de la variation de fréquence : la résilience du réseau français (courbe jaune), qui bénéficie d’une forte inertie grâce à ses centrales nucléaires et de meilleures interconnexions avec l’Europe, par rapport à la chute brutale des réseaux espagnol (en noir) et portugais (en gris), handicapés par une faible inertie due à leur dépendance aux renouvelables (75 % de la production) et à l’arrêt de sources synchrones comme les réacteurs nucléaires.Image
"Les énergies qui n'apportent pas d'inertie représentaient environ 70 % du total pendant la matinée du blackout"
Graphique en aires empilées (stacked area chart) montrant l'évolution de la production d'électricité en mégawatts (MW) au cours de la matinée du 28 avril 2025, jour du blackout.
-Zone grise : Énergies qui n’apportent pas d’inertie ("No aportan inercia"), principalement les énergies renouvelables comme le solaire et l’éolien.
-Zone jaune : Énergies qui apportent de l’inertie ("Sí aportan inercia"), comme les centrales nucléaires, hydrauliques, ou à gaz.

◾️Forte dépendance aux renouvelables (75 % de la production) à faible inertie :
▪️Pendant la matinée du blackout, environ 70 % de l’électricité produite provenait de sources qui n’apportent pas d’inertie au réseau, principalement des énergies renouvelables comme le solaire et l’éolien. Cela corrobore le thread que j'avais déjà fait, qui indique que 60,64 % de la production était solaire (17 657 MW) et 12,02 % éolienne (3 499 MW), soit un total de 72,66 % pour ces sources non pilotables.
▪️Les énergies qui apportent de l’inertie (comme les centrales nucléaires, hydrauliques, ou à gaz) ne représentaient qu’environ 30 % de la production, soit environ 7 500 MW au maximum (sur un total de 25 000 MW).
▪️L’inertie est une propriété physique du réseau qui aide à maintenir la stabilité de la fréquence face aux variations soudaines de production ou de demande. Les sources renouvelables (solaire, éolien) connectées via des onduleurs n’apportent pas d’inertie naturelle, contrairement aux générateurs synchrones (nucléaires, gaz, hydrauliques). Avec seulement 30 % de la production provenant de sources avec inertie, le réseau était particulièrement vulnérable aux variations de fréquence, comme celles observées avant le blackout (49,95 Hz → 49,85 Hz → 49,75 Hz).

◾️Surproduction et déséquilibre :
▪️La montée de la production renouvelable (zone grise) juste avant 12h20 reflète probablement un pic de production solaire, exacerbé par une faible demande due aux vacances de printemps (comme mentionné dans l’article d’El País).
▪️L’effondrement brutal de la production (fin du graphique) correspond à la chute de la fréquence sous 49,5 Hz, causée par les délestages automatiques qui ont tenté de rééquilibrer le réseau, mais qui ont finalement conduit à un blackout total.Image
Read 8 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Don't want to be a Premium member but still want to support us?

Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal

Or Donate anonymously using crypto!

Ethereum

0xfe58350B80634f60Fa6Dc149a72b4DFbc17D341E copy

Bitcoin

3ATGMxNzCUFzxpMCHL5sWSt4DVtS8UqXpi copy

Thank you for your support!

Follow Us!

:(