Hello Twitter,

Je suis d'humeur bavarde ce matin, donc un petit fil au croisement de la philosophie des probabilités et de la physique : l'entropie thermodynamique est-elle réelle ?

⬇️
Bien sûr, cette question est mal posée, notamment parce qu'il s'agit de bien définir ce que veut dire « être réel » dans ce contexte. Suivez-moi jusqu'au bout de ce fil, on va clarifier ça petit à petit.

⬇️
L'entropie est une fonction d'état connue et étudiée en thermodynamique depuis plus de 150 ans.

Mais déjà, qu'est-ce qu'une fonction d'état au juste ?
En thermodynamique et en physique statistique, on s'intéresse à des systèmes composés d'un très grand nombre de petits éléments.

Par exemple l'air contenu dans un ballon est composé de molécules de dioxygène et de diazote.
Pour décrire ces système, on peut alors considérer deux types de grandeurs.

D'abord les variables microscopiques, qui décrivent l'état individuel de chacune des particules (sa position, sa vitesse, etc...). On a en général pas accès à ces variables.
Ensuite, les variables macroscopiques, qui décrivent des propriétés du système dans son ensemble. On y trouve par exemple le volume occupé par un gaz, sa température, ou sa pression.

Ce sont ces variables que l'on sait mesurer, et on les nomme des variables d'état.
Un axiome central de la thermodynamique, c'est que le comportement du système peut être prédit sur la base de ces variables d'état uniquement.

À part de ces variables, on peut construire des fonctions d'état, qui sont des fonctions de ces variables d'état.
Parmi les fonctions d'état, on trouve notamment l'énergie totale du système, ou encore cette fameuse entropie.

Autant l'énergie est quelque chose que l'on arrive assez bien à interpréter (quoique), autant l'entropie est dès sa conceptualisation, quelque chose d'assez mystérieux.
En effet, c'est une fonction d'état qui apparaît jouer un rôle central dans l'évolution d'un système thermodynamique, notamment via la fameuse seconde loi de la thermodynamique, mais il n'est pas clair d'identifier ce qu'elle représente, physiquement parlant.
En effet, on n'arrive alors à qualifier l'entropie que par ses variations, mais pas à définir ou calculer sa valeur.

Ce n'est que plus tard, avec le développement de la physique statistique qu'on arrive à une première définition, la formule de Boltzmann :

S = k log W
L'entropie (S) est donc proportionnelle au logarithme d'une certaine grandeur W.

W ici représente le nombre d'états microscopiques compatibles avec l'état macroscopique du système.
Pour spécifier l'état macroscopique du système, il suffit de connaître la valeur de toutes ses variables d'état (volume, température, pression, ...).

Pour connaître l'état microscopique du système, il faut connaître la position et la vitesse précise de chaque particule.
Donc effectivement, à un état macroscopique donné, il peut correspondre de nombreux états microscopiques.

C'est donc ce nombre que mesure l'entropie, logarithmiquement.
On entre ici dans la formulation la plus classique de la thermodynamique statistique.

On va considérer que le système varie en permanence d'un état microscopique à l'autre, au gré des lois de la physique guidant les particules.
Cette évolution peut être déterministe ou non (selon si on se place dans une formulation classique ou quantique), mais à l'échelle macroscopique tout se passe comme si c'était aléatoire.

Mais ça reste un aléatoire guidé, la conservation de l'énergie doit être respectée.
Le système ne peut donc pas aléatoirement évoluer dans n'importe quel état, en fonction de si le système est isolé thermiquement ou non, de si des forces sont appliquées dessus, etc...
Les variables et fonctions d'état (énergie, volume, pression, température, etc...) sont alors des valeurs statistiques, qui sont calculées en moyenne sur les successions d'états microscopiques prises par le système.
La loi des grands nombres joue en notre faveur :

Le nombre d'états sur lequel on moyenne est si grand, et les variations aléatoires du système si rapides, que ces variables d'état varient peu, et que l'on peut donc les traiter comme si elles avaient des valeurs bien définies.
La thermodynamique statistique consiste donc à identifier les grandeurs macroscopiques qui sont stables malgré les fluctuations microscopiques du système : volume, pression, température, ...
Et l'entropie est donc ici une mesure de la « taille » de l'ensemble des états dans lesquels le système fluctue aléatoirement.

L'importance de l'entropie en thermodynamique nous informe donc sur le fait que ce nombre d'état accessible a un effet sur le comportement du système.
Ceci était la description la plus classique de l'entropie en physique statistique.

Elle s'appuie sur une description probabiliste fondamentalement fréquentiste : on considère des fluctuations aléatoires d'un système, sur lesquelles on fait des mesures statistiques.
L'entropie y apparaît alors comme une grandeur avec une interprétation claire : c'est le logarithme du nombre d'états microscopique parmi lesquels le système fluctue aléatoirement tant qu'il reste à l'équilibre (ses grandeurs macroscopiques restant fixes).
Mais il reste une question un peu subtile pour bien clore le sujet : comment compte-t-on correctement le nombre d'états ?

Ceci est lié à la notion d'indiscernabilité des particules : si j'échange deux particules identiques dans mon système, est-ce toujours le même état ?
Cette question aboutit à ce qui a été nommé le Paradoxe de Gibbs.

Pour que l'entropie statistique ait les bonnes propriétés, il faut que les particules soient indiscernables : échanger deux particules ne change pas l'état physique du système.

fr.wikipedia.org/wiki/Paradoxe_…
La question est alors de justifier cette indiscernabilité, qui est une hypothèse supplémentaire.

Il est largement admis que la solution à ce problème a été apportée par la mécanique quantique, qui affirme cette indiscernabilité.
En effet, dans le cadre quantique, permuter des particules de même nature ne change physiquement rien, ça reste le même état quantique du système.

La physique quantique vient donc sauver la physique statistique, en lui apportant l'axiome qu'il lui manquait !
Maintenant qu'on a mis cette formulation à plat, je voudrais vous en présenter une autre, moins largement admise.

Elle s'appuie sur l'interprétation bayésienne des probabilités, et n'a pas besoin de la physique quantique pour résoudre le problème de l'indiscernabilité. 😉

⬇️
Dans une formulation bayésienne, les probabilités représentent notre connaissance du système. Il s'agit donc d'une description propre à la personne qui décrit ledit système.
Encore une fois, on a accès uniquement aux grandeurs macroscopiques du système (pression, volume, température, etc...).

On va également construire un modèle du comportement microscopique du système. Ce modèle définit donc ce qu'on pense être l'ensemble des états possibles.
Sur la base de ce modèle et des grandeurs macroscopiques, on formule alors, de manière bayésienne, une probabilité du système d'être dans un état microscopique donné.

Cette probabilité représente notre croyance dans la possibilité que le système soit dans cet état.
L'entropie thermodynamique est dans ce cadre liée à l'entropie de cette probabilité représentant notre croyance.

L'entropie probabiliste s'interprète de manière bayésienne en termes d'information.
Elle quantifie la quantité d'information qu'il nous manque pour réduire cette probabilité à une certitude.

Ici, l'entropie thermodynamique mesure donc la quantité d'information qu'il nous manque pour connaître l'état microscopique du système sachant ses variables macroscopiques.
Cette entropie est notamment subordonnée au modèle du système sur lequel on s'appuie, et à ce qu'on considère comme une grandeur macroscopique que l'on sait mesurer et contrôler.
L'idée centrale de cette formulation est la suivante : la manière dont je peux interagir avec le système (et par exemple la quantité de travail que je peux en extraire), dépend de la connaissance que j'ai sur ce système
Exemple: si je sais que l'air est composé d'un mélange de deux gaz différents, et que je suis en capacité technique de séparer ces deux gaz, alors je vais être en capacité d'obtenir plus de choses de cet air.
Et effectivement, les deux modèles différents (un seul gaz, vs. mélange de deux gaz) aboutissent à une valeur d'entropie différente.

Mais tant que l'on est pas dans un contexte où la séparation des deux gaz est un sujet pertinent, les deux modèles ont des prédictions similaires.
On le voit, dans cette formulation, l'entropie est quelque chose de beaucoup plus subjectif : sa valeur reflète la connaissance exploitable que j'ai du système que j'étudie.
Dans ce contexte, la question de l'indiscernabilité est un non problème également : c'est simplement le reflet du fait que moi, personne qui analyse le système, ne suis pas en capacité de discerner les particules les unes des autres.
Mais si cette capacité de discernement change (par exemple, en découvrant qu'un gaz est en réalité composé d'un mélange de deux isotopes séparables), alors la valeur d'entropie que je calcule est différente, et ma capacité d'action sur le système change également.
Dans cette formulation, l'entropie n'est pas une grandeur physique fondamentale, mais simplement une caractérisation de ma capacité d'interaction avec le système considéré.
Notez qu'on aboutit de cette manière au même formalisme mathématique que la première formulation, mais les hypothèses et interprétations qui lui sont associées sont assez différentes.
Et ces deux formulations lèvent des questions philosophiques différentes :

La question de l'indiscernabilité est elle un trou béant que vient combler la physique quantique, ou bien un non-sujet ?

L'entropie est-elle une grandeur physique fondamentale, ou non ?
La seconde loi de la thermodynamique est elle une loi physique fondamentale, ou bien simplement une conséquence de la manière dont change notre connaissance d'un système au cours de son évolution ?
En effet, dans cette formulation bayésienne, cette seconde loi nous dit simplement que l'on ne peut pas acquérir de l'information sur l'état microscopique d'un système sans interagir avec lui.
L'entropie d'un système isolé ne peut qu'augmenter, car notre connaissance sur son état interne ne peut pas augmenter : l'entropie mesure la quantité d'information qu'il nous manque.
Voilà, je vais m'arrêter ici, en espérant vous avoir donné un peut de grain mental à moudre. 😉

Personnellement, ces questions me fascinent. 😁

• • •

Missing some Tweet in this thread? You can try to force a refresh
 

Keep Current with Cortex Nihilo

Cortex Nihilo Profile picture

Stay in touch and get notified when new unrolls are available from this author!

Read all threads

This Thread may be Removed Anytime!

PDF

Twitter may remove this content at anytime! Save it as PDF for later use!

Try unrolling a thread yourself!

how to unroll video
  1. Follow @ThreadReaderApp to mention us!

  2. From a Twitter thread mention us with a keyword "unroll"
@threadreaderapp unroll

Practice here first or read more on our help page!

More from @CortexNihilo

14 Jan
J'ai vraiment l'impression qu'il y a une mécompréhension profonde sur la « critique de l'apolitisme » en lien avec la #zététique.

Le propos n'est pas de dire « on veut savoir pour qui tu votes avant que tu aies le droit de t'exprimer », loin de là.

1/14
Le propos, c'est de souligner que certains sujets ont des conséquences sur les personnes et sur la société dans son ensemble, et qu'ils sont reliés à des intérêts opposés au travers de la société.

Et a fortiori, qu'il est impossible de traiter ces sujets de manière neutre.

2/14
C'est ça que ces critiques désignent par « un sujet politique ».

Un sujet qui affecte la société, qui est à la rencontre de plusieurs intérêts différents, qui touche à nos valeurs, et sur lequel personne ne peut être neutre.

3/14
Read 14 tweets
19 Aug 20
Un sujet intéressant à l'intersection entre les mathématiques et la philosophie, c'est le débat Fréquentisme vs. Bayésianisme.

Les deux approches aboutissent au même formalisme mathématique, mais diffèrent dans ce que représente une probabilité, et à quoi on peut en assigner.
Le débat est donc philosophique, pas mathématique.

Mais cette différence philosophique affecte le choix de quels outils mathématiques seront utilisés dans quelles situations.

Regardons un peu les bases philosophiques de ces deux approches. ⬇️
⚠️ Je précise que ce que je vais décrire là est la version "puriste" de ces deux interprétations des probabilités.

La plupart des personnes concernées par l'utilisation des probabilités et statistiques ont une vision plus nuancée.
Read 25 tweets

Did Thread Reader help you today?

Support us! We are indie developers!


This site is made by just two indie developers on a laptop doing marketing, support and development! Read more about the story.

Become a Premium Member ($3/month or $30/year) and get exclusive features!

Become Premium

Too expensive? Make a small donation by buying us coffee ($5) or help with server cost ($10)

Donate via Paypal Become our Patreon

Thank you for your support!

Follow Us on Twitter!