Changement d'entropie d'un système idéal. Encyclopédie scolaire

Dans la section précédente, nous sommes partis de l'hypothèse de base selon laquelle pour tout système, il existe un paramètre appelé entropie et noté S. Pour de petites valeurs d'interaction thermique, la variation différentielle correspondante de l'entropie dS est . Nous utilisons également cette définition pour calculer les changements d'entropie dans certains processus simples et bien connus.

L'entropie change lorsque la glace fond. Supposons que par une chaude journée d'été, nous apportions un thermos rempli d'un mélange de glace et d'eau à un pique-nique. L’isolation du thermos n’étant pas parfaite, la glace va fondre petit à petit. Cependant, la fusion se fait lentement ; la température dans le thermos restera quasiment inchangée et égale à 0°C. Calculons la variation d'entropie correspondant à la fonte de 1 mole (ou 18 g) de glace. La valeur du tableau pour la chaleur de fusion de la glace est de 79,67 cal/g, ce qui donne environ 1434 cal/mol. On peut alors écrire

Comme auparavant, cela signifie simplement la somme de quantités infinitésimales - l'intégration (ou la somme) de toutes les quantités correspondant à chaque petite quantité de chaleur. L'intégration s'effectue dans ce cas d'autant plus simplement que la température T ne change pas au cours du processus de fusion. Par conséquent, le facteur 1/T peut être retiré du signe de l'intégrale, de sorte qu'il devient simplement un facteur dont la dernière expression représente en fait la chaleur de transition de phase (fonte) de la glace cal/mol. La relation (19) signifie que l’entropie d’une mole d’eau à 273 K est supérieure de 5,27 cal/K à l’entropie d’une mole de glace à la même température.

Croyez quand la glace fond. L'entropie augmentera.

Au contraire, si suffisamment de chaleur est retirée de l’eau à une température de 273 K pour former 1 mole de glace à 273 K, l’entropie du système diminuera de .

Notez que tout au long de cette section, nous avons utilisé température absolue selon Kelvin au dénominateur du rapport. Il serait possible d'utiliser l'échelle absolue de Rankine si l'on mesurait la quantité de chaleur en b.t. e. Évidemment, les températures sur les échelles Celsius ou Fahrenheit ne peuvent pas être utilisées comme dénominateur de l'expression (comme même les étudiants formés tentent parfois de le faire). Ainsi, par exemple, en utilisant l'échelle Celsius, dans le cas considéré, nous arriverions à un résultat absurde (le dénominateur de l'expression deviendrait zéro). Notez que les unités dans lesquelles le changement d'entropie est exprimé coïncident avec les unités dans lesquelles la capacité thermique molaire est mesurée. Le changement d'entropie lors de la fonte de 1 mole de glace à un point de congélation de conditions normales est de 5,27 cal/(mol K).

L'entropie change lorsque l'eau bout. Un autre processus bien connu qui se produit à une certaine température est la transition de l'eau liquide en vapeur à une pression de 1 atm. La température à laquelle l'eau bout dans des conditions normales est, par définition, de 100°C, ou 373 K. La chaleur d'évaporation à cette température est de 539 cal/g, ou 9 702 cal/mol. Alors la variation d'entropie correspondant à l'évaporation de 1 mole d'eau dans des conditions normales est égale à

Ce calcul était si simple car la température n’a pas changé pendant le processus.

Notez que le changement d'entropie lors de l'évaporation de l'eau est presque 5 fois supérieur au changement d'entropie lors de la fonte de la glace. La valeur est légèrement plus élevée que d'habitude pour situations similaires valeurs et indique propriétés inhabituelles une substance telle que l'eau. Pour de nombreux liquides « normaux » (non polaires), la variation de l’entropie au cours de l’évaporation est de 1000. Cette règle a été obtenue empiriquement par le physicien anglais Frederick Troughton (1863-1922) et est appelée « règle de Troughton ». Il fournit un moyen d'estimer la chaleur de vaporisation de cette substance, si la température à laquelle il bout dans des conditions normales est connue.

Pour trouver une valeur approximative de la chaleur d'évaporation, il suffit de multiplier le point d'ébullition (exprimé en Kelvin) par la constante de Groveton.

Changement d'entropie pendant l'expansion isotherme gaz parfait. Il existe un autre processus à température constante, que nous avons rencontré plus d'une fois auparavant : il s'agit du processus de dilatation isotherme réversible d'un gaz parfait. Si, à côté de l'interaction thermique, il n'y a qu'une interaction mécanique ordinaire (de sorte que le travail élémentaire s'exprime par la formule, la première loi de la thermodynamique pour 1 mole d'un gaz parfait peut s'écrire sous la forme

(ici on en tient compte). En utilisant l'équation pV = RT, on peut écrire à dT = 0 (condition de température constante)

Nous avons dû intégrer cette expression au Chap. 4, nous présentons donc ici immédiatement le résultat :

Puisque la température T reste constante, l’expression du changement d’entropie correspondant est

Comme on le sait, la constante des gaz R a la dimension cal/(mol K) et le facteur contenant le logarithme est un nombre sans dimension, donc les dimensions des côtés gauche et droit de la relation (24) coïncident. Ainsi, une augmentation de volume (c’est-à-dire une expansion) à température constante s’accompagne d’une augmentation de l’entropie.

Revenons au cas de l'eau bouillante. Laissez 1 mole d’eau s’évaporer ; 1 mole d'un gaz parfait, on s'en souvient, dans des conditions normales (pression 1 atm et température 273 K) occupe un volume d'environ 22 400 cm3. À 373 K, le volume correspondant serait de 22 400 (373/273), soit environ 30 600 cm3. Avant évaporation, 1 mole de liquide occupait un volume d'environ Ainsi, le rapport est D'après l'égalité (24), la variation d'entropie correspondant à la variation de volume due à l'évaporation est R ln 1700. Considérant que la valeur de R est d'environ égal à , le changement d'entropie souhaité est d'environ 14,88 cal/(mol K).

En calculant dans la section précédente la variation totale de l'entropie pendant tout le processus d'évaporation de 1 mole d'eau, nous avons obtenu une valeur de 26,0 cal/(mol K). Comme nous l'avons vu maintenant, un peu plus de la moitié de cette valeur est associée à la variation de volume lorsque le liquide se transforme en vapeur.

Changements d'entropie dus aux changements de température. Jusqu’à présent, tous nos calculs de changement d’entropie ont été effectués pour des interactions thermiques à température constante. Considérons maintenant le cas plus courant et un peu plus complexe où un chauffage réversible entraîne une modification de la température. Si le chauffage se produit à volume constant, alors. selon la définition de la capacité thermique spécifique à volume constant, nous avons. Alors

En intégrant cette expression sur une plage de température finie, on obtient

Ici, on a supposé que la capacité thermique ne dépend pas de la température et peut être retirée du signe intégral. Il est significatif que, en identifiant

nous supprimons les restrictions sur la réversibilité du processus de chauffage, ainsi que sur l'uniformité de la température pendant le processus de chauffage. Il suffit de connaître la température du système au début et à la fin du processus de chauffage. En d’autres termes, il est seulement essentiel que l’équilibre thermique existe dans les états initial et final : les états intermédiaires ne jouent aucun rôle.

Dans le cas le plus courant et pratiquement beaucoup plus facile à mettre en œuvre du chauffage à pression constante, nous avons. En répétant littéralement tout le raisonnement ci-dessus, nous obtenons

2. Chauffage de l'eau à 1 atm de 273 K à 373 K :

3. Transition eau-vapeur à 1 atm et 373 K :

Ainsi, le changement d'entropie résultant lorsqu'une mole de glace à une température de 273 K est convertie en vapeur à 373 K est

La notion d'entropie est utilisée dans diverses sciences : physique, chimie, mathématiques, biologie, sociologie. Le mot lui-même vient du grec et signifie « transformation, changement ». Qu’est-ce que c’est en termes simples ? On peut dire que c'est une mesure du désordre, du chaos dans tout système. Plus la commande est basse, plus sa valeur est grande. Si les livres sont sur une étagère, ils sont moins en désordre que s’ils sont en pile.

La définition de ce terme dépend du champ d'application de son application. En termes généraux, nous pouvons dire qu'il s'agit d'une mesure de désordre et de dissipation irréversible de l'énergie. Plus un système est ordonné, plus l’énergie est concentrée. Par exemple, si nous plaçons un objet chaud dans eau froide, elle se refroidira progressivement et l'eau se réchauffera. Dans le second cas, l’entropie est plus grande.

Important! L'entropie caractérise le désordre. Plus il est grand, moins le système est ordonné.

Tout peut faire office de système. En physique ou en chimie, il s'agit généralement d'un gaz, d'un liquide, d'un solide ou d'un ensemble d'un certain nombre de particules. En informatique, cela pourrait être un texte, en sociologie, un groupe de personnes.

Le terme entropie

En physique

Ce terme est utilisé dans des branches de la physique telles que la thermodynamique et la physique statistique. La thermodynamique étudie les méthodes de transfert et de transformation de l'énergie. Il traite des processus dans lesquels la notion de température peut être utilisée. C’est en thermodynamique que ce concept a été utilisé pour la première fois. Il a été introduit par le scientifique allemand Rudolf Clausius. La mécanique statistique étudie le comportement de systèmes constitués d'un nombre fini de particules en utilisant les méthodes de la théorie des probabilités.

Dans différentes branches de la physique, ce terme signifie des choses légèrement différentes. En thermodynamique, c'est une caractéristique de dissipation d'énergie irréversible. En physique statistique, cette quantité montre la probabilité d’un état.

En thermodynamique

L'entropie est la seule quantité qui montre la direction des processus physiques. Qu'est-ce que ça veut dire?

  • Dans un système isolé, c'est-à-dire qui n'échange ni matière ni énergie avec les objets environnants, les processus se déroulent toujours de telle manière que le désordre augmente. Ayant atteint un maximum, il reste constant. C'est l'essence de la deuxième loi de la thermodynamique.
  • Les processus réversibles ne modifient pas le désordre.
  • Les processus irréversibles se déroulent toujours de telle manière que le désordre augmente.
    Dans un système ouvert, cette valeur peut augmenter ou rester constante ; des processus dans lesquels le désordre diminue sont également possibles. Autrement dit, grâce à une intervention extérieure, nous pouvons réduire le désordre.

Tout système qui se trouve dans des conditions externes constantes finit par atteindre un état d'équilibre et ne peut pas en sortir tout seul. Dans ce cas, toutes ses parties auront la même température. C'est la loi zéro de la thermodynamique.

C'est dans l'équilibre qu'il y a le plus de désordre. Par exemple, il y a un récipient divisé par une cloison. D'un côté il y a un gaz, de l'autre il y en a un autre. Si vous retirez la cloison, les gaz se mélangeront progressivement et ne se sépareront plus d'eux-mêmes. Cet état sera plus désordonné que l’état lorsque les gaz étaient séparés.

En physique, cette grandeur est fonction de l’état du système. Cela signifie que cela dépend des paramètres du système :

  • température;
  • pression;
  • volume;
  • énergie interne.

En mécanique statistique

En mécanique statistique, ce concept est associé à la probabilité d'obtenir un certain état. Par exemple, pour plusieurs objets ou particules, cela dépend du nombre de façons de les disposer.

Il existe plusieurs définitions de cette quantité. La définition la plus simple de Bolzamann. Elle est égale au logarithme de la probabilité d'état multiplié par la constante de Boltzmann : S=k*ln(W).

Vidéo utile : qu'est-ce que l'entropie

Valeur absolue

L'entropie est une quantité non négative (supérieure ou égale à zéro). Plus la température est proche du zéro absolu, plus elle est proche de zéro. C'est la troisième loi de la thermodynamique. Il a été initialement formulé par Max Planck en 1911.

La troisième loi de la thermodynamique est également appelée principe de l'inaccessibilité du zéro absolu. Cela signifie que lors de tout processus associé à un changement de désordre, il est impossible d'atteindre le zéro absolu (0K ou -273,15 C). On ne peut s'approcher de cette température qu'à l'infini. Les scientifiques s'accordent à dire qu'à 0 K, le désordre est égal à 0.

Important! La valeur absolue du désordre peut être calculée comme la variation d’énergie à une température donnée.

En thermodynamique, la valeur absolue n'a généralement pas d'importance, seule sa variation est importante. Cependant, la valeur absolue peut également être trouvée. Il est calculé à l'aide de différentes formules pour les états solide, liquide et gazeux d'une substance. Cette quantité est mesurée en J/K ou J/degré, c'est-à-dire dans les mêmes unités que la capacité thermique. Il est pratique de diviser cette valeur par la masse ou le nombre de moles de la substance. Par conséquent, les unités J/(mol*K) ou J/(mol*degree) sont utilisées, selon que la température est mesurée en kelvins ou en degrés.

En chimie

Qu’est-ce que l’entropie en chimie, par exemple ? Ce concept est utilisé en thermodynamique chimique. Ce qui est important ici, c'est l'évolution de cette valeur. S’il est positif, alors le système devient moins ordonné. Il est important de savoir cela pour déterminer la direction des réactions chimiques et les changements d’équilibre chimique. Ce terme est associé au concept d'enthalpie - énergie qui peut être convertie en chaleur à une certaine pression constante.

Le changement de trouble peut déterminer si une réaction peut se produire spontanément. Cela ne peut pas être fait uniquement en changeant l'énergie, car il existe à la fois des réactions qui se produisent avec l'absorption de chaleur et des réactions qui se produisent avec sa libération. Selon la deuxième loi de la thermodynamique, l’état présentant le plus grand désordre est l’état le plus stable d’un système fermé. De plus, tout système fermé tend vers l’état le moins ordonné. Par conséquent, dans les processus spontanés, le désordre augmente.

En théorie de l'information

L'entropie de l'information caractérise l'imprévisibilité de tout système. Par exemple, cela pourrait être la probabilité qu’un caractère de l’alphabet apparaisse dans le texte. De plus, cette fonction est égale à la quantité d'informations tombant sur un caractère. Claude Shannon, le scientifique qui a introduit ce terme dans la théorie de l'information, a même initialement voulu appeler cette quantité information.

Shannon a suggéré qu'en augmentant la quantité d'informations, nous réduisons l'incertitude. En rationalisant le système, nous réduisons également l’incertitude.

Important! Plus un événement est prévisible, moins il est informatif et moins il y a de désordre.

Grâce à cette incertitude, vous pouvez prédire des événements, par exemple le résultat d'une expérience. Pour ce faire, les événements sont divisés en parties distinctes et leur incertitude est prise en compte.

L'entropie de l'information est liée au nombre d'états disponibles. Plus ce nombre est élevé, plus il est grand. Par exemple, si nous jouons aux échecs selon les règles, pour un échiquier, cette valeur sera inférieure à celle si nous réorganisons les pièces de manière chaotique. L’incertitude pour une pièce qui ne peut atterrir que d’un côté ou de l’autre est moindre que celle d’une pièce de monnaie qui ne peut atterrir que d’un côté ou de l’autre. avec 6 côtés, et pour un os à 20 côtés cette valeur est encore plus grande.

Il y a aussi l'entropie du langage. Ce concept désigne la quantité d'informations par unité de texte dans cette langue (un caractère) et se mesure en bits par lettre. Pour différentes langues elle est différente.

Dans une langue, certains symboles apparaissent plus souvent, d’autres moins fréquemment, et certaines combinaisons de symboles apparaissent également fréquemment. En analysant la probabilité d'apparition d'un caractère particulier, vous pouvez décoder le texte chiffré. Le désordre de l'information aide également à établir les débit canaux de transmission de messages cryptés.

L'analyse de l'entropie de l'information est utilisée pour analyser des données dans divers domaines, de la médecine à la sociologie. En mots simples on peut dire qu'en analysant l'augmentation ou la diminution du désordre, il est possible d'établir des liens entre les phénomènes.

Le concept d’« entropie de l’information » est également utilisé dans statistiques mathématiques et physique statistique. Ces sciences traitent également de la probabilité de divers états et utilisent les méthodes de la théorie des probabilités.

En économie

En économie, la notion de « coefficient d'entropie » est utilisée. Elle est associée à la concentration des vendeurs sur le marché. Plus la concentration est élevée, plus ce coefficient, ou indice, est faible. Cela dépend de la répartition des parts entre les entreprises sur le marché et de la manière dont plus de différence plus le coefficient d'entropie est élevé, plus ces parts sont importantes.

Si vous divisez cet indice par le nombre d'entreprises présentes sur le marché, vous obtenez un indicateur relatif. Elle est désignée par la lettre E. Sa valeur est comprise entre 0 et 1. La valeur E=0 correspond au monopole et E=1 à la concurrence parfaite.

Ce que dit Wikipédia

Vous pouvez le trouver sur Wikipédia différentes définitions ce concept. La chose la plus générale est une mesure de dissipation d'énergie irréversible, l'écart d'un processus réel par rapport à un processus idéal. Vous pouvez également trouver sur Wikipédia :

  • des articles sur ce terme en thermodynamique classique ;
  • en écologie biologique;
  • entropie de l'Univers ;
  • langue;
  • différentiel;
  • topologique;
  • informatif.

Vidéo utile : Comprendre l'entropie

Conclusion

Le terme « entropie » a été utilisé pour la première fois en thermodynamique par Rudolf Clausius. De la physique, il est venu à d'autres sciences. Ce concept désigne le désordre, le chaos, l'imprévisibilité et est étroitement lié à la probabilité. L'analyse entropique permet d'étudier les données et de trouver des liens entre les phénomènes, de déterminer les directions des processus physiques et chimiques.

Entropie

Un changement de l'enthalpie d'un système ne peut pas servir de seul critère de mise en œuvre spontanée réaction chimique, puisque de nombreux processus endothermiques se produisent spontanément. Ceci est illustré par la dissolution de certains sels (par exemple NH 4NO 3) dans l'eau, accompagnée d'un refroidissement notable de la solution. Il est nécessaire de prendre en compte un autre facteur qui détermine la capacité à passer spontanément d'un état plus ordonné à un état moins ordonné (plus chaotique).

Entropie (S) est une fonction thermodynamique d'état, qui sert de mesure du désordre (désordre) du système. La possibilité que des processus endothermiques se produisent est due à un changement d'entropie, car dans les systèmes isolés, l'entropie d'un processus se produisant spontanément augmente Δ S > 0 (deuxième loi de la thermodynamique).

L. Boltzmann a défini l'entropie comme la probabilité thermodynamique de l'état (désordre) d'un système W. Puisque le nombre de particules dans le système est grand (le nombre d'Avogadro N A = 6,02∙10 23), alors l'entropie est proportionnelle au logarithme népérien de la probabilité thermodynamique de l'état du système W:

La dimension de l'entropie de 1 mole d'une substance coïncide avec la dimension de la constante des gaz R. et est égal à J∙mol –1∙K –1. Changement d'entropie *) dans des processus irréversibles et réversibles se traduit par les relations Δ S > Q / T et Δ S = Q / T. Par exemple, la variation de l'entropie de fusion est égale à la chaleur (enthalpie) de fusion Δ S pl = Δ H PL/ T pl Pour une réaction chimique, le changement d'entropie est similaire au changement d'enthalpie

*) terme entropie a été introduit par Clausius (1865) à travers le rapport Q/T (chaleur réduite).

Ici Δ S° correspond à l'entropie de l'état standard. Entropies standards substances simples ne sont pas égaux à zéro. Contrairement à d’autres fonctions thermodynamiques, l’entropie d’un corps idéalement cristallin au zéro absolu est nulle (postulat de Planck), puisque W = 1.

L'entropie d'une substance ou d'un système de corps à une certaine température est une valeur absolue. Dans le tableau 4.1 montre les entropies standard S° certaines substances.

Composé


(J∙mol –1∙K –1)

Composé


(J∙mol –1∙K –1)

C(t)diamant

C(t)graphite

iso-C 4H 10(g)

Tableau 4.1.

Entropies standards de certaines substances.

De la table 4.1, il s'ensuit que l'entropie dépend de :

  • État global d'une substance. L'entropie augmente lors du passage de l'état solide à l'état liquide et surtout à l'état gazeux (eau, glace, vapeur).
  • Composition isotopique (H 2O et D 2O).
  • Masse moléculaire composés du même type (CH 4, C 2H 6, n-C 4H 10).
  • Structure de la molécule (n-C 4H 10, iso-C 4H 10).
  • Structure cristalline (allotropie) – diamant, graphite.

Enfin, fig. 4.3 illustre la dépendance de l'entropie à la température.

Par conséquent, plus la température est élevée, plus le système a tendance au désordre. Produit du changement d'entropie du système et de la température TΔ S quantifie cette tendance et est appelé facteur d'entropie.

Problèmes et tests sur le thème "Thermodynamique chimique. Entropie"

  • Éléments chimiques. Signes d'éléments chimiques - Concepts chimiques initiaux et concepts théoriques, niveaux 8-9

    Leçons : 3 Devoirs : 9 Tests : 1

2. Entropie standard des substances. Changement d'entropie lorsque l'état d'agrégation des substances change. Calcul de la variation de l'entropie standard dans une réaction chimique.
L'entropie (S) est une fonction thermodynamique de l'état, qui sert de mesure du désordre (désordre) d'un système. La possibilité que des processus endothermiques se produisent est due à un changement d'entropie, car dans les systèmes isolés, l'entropie d'un processus se produisant spontanément augmente ΔS > 0 (deuxième loi de la thermodynamique). L. Boltzmann a défini l'entropie comme la probabilité thermodynamique de l'état (désordre) d'un système W. L'entropie est liée à la probabilité thermodynamique par la relation : S = R ln W
La dimension de l'entropie de 1 mole d'une substance coïncide avec la dimension de la constante des gaz R et est égale à J∙mol–1∙K–1. Le changement d'entropie *) dans les processus irréversibles et réversibles est véhiculé par les relations ΔS > Q / T et ΔS = Q / T. Par exemple, le changement d'entropie de fusion est égal à la chaleur (enthalpie) de fusion ΔSmel = ΔHmel/Tmel. Pour une réaction chimique, le changement d'entropie est similaire au changement d'enthalpie ​

*) le terme d'entropie a été introduit par Clausius (1865) à travers le rapport Q/T (chaleur réduite).

Ici ΔS° correspond à l'entropie de l'état standard. Les entropies standards des substances simples ne sont pas nulles. Contrairement à d'autres fonctions thermodynamiques, l'entropie d'un corps idéalement cristallin au zéro absolu est nulle (postulat de Planck), puisque W = 1.

L'entropie d'une substance ou d'un système de corps à une certaine température est une valeur absolue.

L'entropie dépend de :
-état global d'une substance. L'entropie augmente lors du passage de l'état solide à l'état liquide et surtout à l'état gazeux (eau, glace, vapeur).
-composition isotopique (H2O et D2O).
-poids moléculaire de composés similaires (CH4, C2H6, n-C4H10).
- structure moléculaire (n-C4H10, iso-C4H10).
-structure cristalline (allotropie) – diamant, graphite.

Le changement d'entropie au cours de cette transition de phase (solide-liquide) peut être trouvé simplement si l'on considère le processus comme étant en équilibre.

Il s'agit d'une approximation tout à fait acceptable si l'on suppose que la différence de température entre le système et l'objet qui fournit de la chaleur au système n'est pas trop importante, bien inférieure au point de fusion. On peut alors utiliser le sens thermodynamique de l'entropie : du point de vue de la thermodynamique, l'entropie est fonction de l'état du système dont la variation dS dans un processus d'équilibre élémentaire est égale au rapport de la part de chaleur δQ que le système reçoit dans ce processus à la température du système T :

Puisque la température du système dans une transition de phase donnée ne change pas et est égale à la température de fusion, l'intégrande est une quantité qui ne change pas au cours du processus, elle ne dépend donc pas de la masse m de la substance. Alors

De cette formule, il s'ensuit que lors de la fusion, l'entropie augmente et lors de la cristallisation, elle diminue. Signification physique Ce résultat est assez clair : la région de phase d'une molécule dans un solide est beaucoup plus petite que dans un liquide, puisque dans un solide seule une petite région d'espace entre les nœuds adjacents est disponible pour chaque molécule. réseau cristallin, et dans un liquide, les molécules occupent toute la région de l’espace. Ainsi, à température égale, l’entropie d’un corps solide est inférieure à l’entropie d’un liquide. Cela signifie qu’un solide est un système plus ordonné et moins chaotique qu’un liquide.
L'application de l'entropie dans ce processus (liquide-gaz) peut être trouvée simplement en considérant le processus comme étant à l'équilibre. Et encore une fois, il s'agit d'une approximation tout à fait acceptable, à condition que la différence de température entre le système et le « fournisseur » de chaleur soit faible, c'est-à-dire bien inférieur au point d'ébullition. Alors

De la formule, il s'ensuit que pendant l'évaporation, l'entropie augmente et pendant la condensation, elle diminue.
La signification physique de ce résultat est la différence dans la région de phase de la molécule dans le liquide et dans le gaz. Bien que dans les liquides et les gaz, chaque molécule ait accès à toute la région de l’espace occupée par le système, cette région elle-même est nettement plus petite pour un liquide que pour un gaz. Dans un liquide, les forces d’attraction entre les molécules les maintiennent à une certaine distance les unes des autres. Ainsi, bien que chaque molécule ait la possibilité de migrer librement à travers la région de l'espace occupée par le liquide, elle n'a pas la possibilité de « se détacher du collectif » des autres molécules : dès qu'elle se détache d'une molécule, une autre est immédiatement attiré. Le volume de liquide dépend donc de sa quantité et n’est en aucun cas lié au volume du récipient.

Les molécules de gaz se comportent différemment. Ils ont beaucoup plus de liberté, la distance moyenne entre eux est telle que les forces d'attraction sont très faibles, et les molécules ne se « remarquent » que lors de collisions. De ce fait, le gaz occupe toujours tout le volume de la cuve.

Par conséquent, à températures égales, la région de phase des molécules de gaz est nettement plus grande que la région de phase des molécules liquides, et l’entropie du gaz est supérieure à l’entropie du liquide. Le gaz, comparé au liquide, est un système beaucoup moins ordonné et plus chaotique.

La variation de l'entropie molaire standard dans une réaction chimique est déterminée par l'équation :

Il est à noter que l'évolution de l'entropie dans l'exemple considéré s'avère négative. On pourrait s'y attendre si l'on considère que, selon l'équation de la réaction en question, la quantité totale de réactifs gazeux est de 1,5 mole et la quantité totale de produits gazeux n'est que de 1 mole. Ainsi, à la suite de la réaction, il y a une diminution nombre total des gaz En même temps, nous savons que les réactions de combustion sont des réactions exothermiques. Par conséquent, le résultat de leur apparition est une dissipation d’énergie, ce qui laisse présager une augmentation de l’entropie, et non une diminution. En outre, il faut tenir compte du fait que la combustion de l'hydrogène gazeux à 25°C, provoquée par l'amorçage initial, se déroule alors spontanément et avec une grande intensité. Mais le changement d’entropie dans cette réaction ne devrait-il pas être positif dans ce cas, comme l’exige la deuxième loi de la thermodynamique ? Il s'avère que non, ou du moins pas nécessairement. La deuxième loi de la thermodynamique exige que, à la suite d'un processus spontané, l'entropie totale du système et de son environnement augmente. Le changement d'entropie calculé ci-dessus caractérise uniquement le système chimique, constitué de réactifs et de produits qui participent à la combustion de l'hydrogène gazeux à 25°C.

  • 3.3. Rotation d'un corps rigide autour d'un axe fixe, son moment d'inertie et son énergie cinétique.
  • 3.4. Moment d'impulsion. Loi de conservation du moment cinétique. Deuxième loi de la dynamique du mouvement de rotation.
  • Conférence n°4
  • 4.1. Description du mouvement du liquide et du gaz. Viscosité des liquides et des gaz.
  • 4.2. Équation de continuité.
  • 4.3. L'équation de Bernoulli et ses conclusions
  • Conférence n°5
  • 5.1. Vibrations harmoniques.
  • 5.2. Ajout de vibrations harmoniques.
  • 5.3. Ajout de vibrations perpendiculaires.
  • 5.4. Équation différentielle des oscillations.
  • 5.5. Relations énergétiques dans les processus oscillatoires.
  • 5.6. Oscillations des pendules mathématiques et physiques
  • 5.7. Équation des oscillations forcées. Résonance
  • Conférence n°6
  • 6.1.Ondes dans les milieux élastiques et leurs types. Front d'onde, ondes planes et sphériques.
  • 6.2. Vague d'énérgie
  • 6.3. Ondes élastiques dans un solide
  • Conférence n°7
  • 7.1. Dispositions de base du MKT.
  • États agrégés de la matière
  • 7.2. Lois expérimentales des gaz parfaits
  • La loi d'Avogadro
  • 7.3. Équation d'état des gaz parfaits
  • 7.4. Équation de base de la théorie cinétique moléculaire d'un gaz parfait.
  • 7.5. Loi de Maxwell pour la distribution des molécules en fonction de la vitesse.
  • 7.6. Formule barométrique. Distribution Boltzmann
  • Conférence n°8
  • 8.2. Collisions de molécules et phénomènes de transport dans un gaz parfait
  • 8.3. Nombre moyen de collisions et temps de parcours libre moyen des molécules
  • 8.4.Libre parcours moyen des molécules
  • 8.5. Diffusion dans les gaz
  • 8.6. Viscosité du gaz
  • 8.7. Conductivité thermique des gaz
  • 8.8. Osmose. Pression osmotique
  • Conférence n°9
  • 9.1. Répartition de l'énergie sur les degrés de liberté des molécules
  • 9.2. Énergie interne
  • 9.3. Travail du gaz lors de sa détente
  • 9.4. Première loi de la thermodynamique
  • 9.5. Capacité thermique. L'équation de Mayer
  • 9.6. Processus adiabatique
  • 9.7. Processus polytropique
  • 9.8. Principe de fonctionnement d'un moteur thermique. Cycle de Carnot et son efficacité.
  • 9.9. Entropie. Signification physique de l'entropie. Entropie et probabilité.
  • 9.10. La deuxième loi de la thermodynamique et sa signification statistique.
  • Conférence n°10
  • 10.1. Gaz réels, équation de van der Waals.
  • L'équation de Van der Waals décrit assez bien qualitativement le comportement du gaz lors de la liquéfaction, mais n'est pas adaptée au processus de solidification.
  • 10.2. Caractéristiques de base et modèles d'états d'agrégation et de transitions de phase.
  • Transitions de phase du second ordre. Hélium liquide. Superfluidité
  • 10.3. Tension superficielle d'un liquide. Pression de Laplace.
  • 10.4. Phénomènes capillaires
  • 10.5. Solides
  • Défauts dans les cristaux
  • Propriétés thermiques des cristaux
  • Cristaux liquides
  • Conférence n°11
  • 11.1. Propriétés électriques des corps. Charge électrique. Loi de conservation de charge
  • 11.2. La loi de coulomb
  • 11.3. Champ électrostatique. Intensité du champ électrique. Lignes de champ.
  • 11.4. Dipôle électrique
  • 11.5. Flux vectoriel de tension. Théorème d'Ostrogradsky-Gauss
  • 11.6. Le travail du champ électrostatique oblige à déplacer les charges.
  • 11.6. Potentiel. Différence potentielle. Potentiel d'une charge ponctuelle, dipôle, sphère.
  • 11.7. Relation entre l'intensité du champ électrique et le potentiel
  • 11.8. Types de diélectriques. Polarisation des diélectriques.
  • 11.9. Théorème d'Ostrogradsky-Gauss pour un champ dans un diélectrique. Relation entre vecteurs - déplacement, - tension et - polarisation
  • 11.10. Conducteurs dans un champ électrostatique
  • 11.11. Conducteur dans un champ électrostatique externe. Capacité électrique
  • 11.12. Énergie d'un conducteur chargé, d'un système conducteur et d'un condensateur
  • Conférence n°12
  • 12.1. Électricité. Force et densité du courant.
  • 12.3. Loi d'Ohm pour une section homogène d'une chaîne. Résistance du conducteur.
  • 12.4. Loi d'Ohm pour une section non uniforme d'un circuit
  • 12.5. Loi Joule-Lenz. Travail et puissance actuelle.
  • 12.6. Les règles de Kirchhoff
  • Conférence n°13
  • 13.1. Théorie classique de la conductivité électrique des métaux
  • 13.2. Émission thermoionique. Courant électrique dans le vide.
  • 13.3. Courant électrique dans les gaz. Types de décharge de gaz.
  • Décharge de gaz autonome et ses types
  • Conférence n°14
  • 14.1. Un champ magnétique. Interaction magnétique des courants. La loi d'Ampère. Vecteur d'induction magnétique.
  • 14.2. Loi Biot-Savart-Laplace. Champ magnétique de courants rectilignes et circulaires.
  • 14.3. Circulation du vecteur induction magnétique. Champ solénoïde et toroïde
  • 14.4. Flux magnétique. Théorème de Gauss
  • 14.5. Le travail de déplacement d'un conducteur et d'un cadre avec un courant dans un champ magnétique
  • 14.6. L'effet d'un champ magnétique sur une charge en mouvement. Force de Lorentz
  • 14.7. Champ magnétique dans la matière. Magnétisation et intensité du champ magnétique.
  • 14.8. Loi du courant total pour le champ magnétique dans la matière
  • 14.9. Types d'aimants
  • Conférence 15
  • 15.1. Le phénomène d'induction électromagnétique.
  • 15.2. Phénomène d'auto-induction
  • 15.3. Énergie du champ magnétique
  • 15.4. La théorie électromagnétique de Maxwell.
  • 1) La première équation de Maxwell
  • 2) Courant de mélange. Deuxième équation de Maxwell
  • 3) Troisième et quatrième équations de Maxwell
  • 4) Le système complet des équations de Maxwell sous forme différentielle
  • 15.5. Courant alternatif
  • Conférence n°16
  • 16.1. Lois fondamentales de l'optique géométrique. Réflexion interne complète de la lumière.
  • 16.2. Réflexion et réfraction de la lumière sur une surface sphérique. Lentilles.
  • 16.3. Grandeurs photométriques de base et leurs unités
  • 17.1. Interférence de la lumière. Cohérence et monochromaticité des ondes lumineuses. Longueur du trajet optique et différence de trajet optique des rayons.
  • 17.2. Méthodes d'obtention de modèles d'interférence.
  • 17.3. Interférence dans les couches minces.
  • 17.4. Revêtement optique
  • 17.5. Diffraction de la lumière et conditions de son observation. Principe de Huygens-Fresnel. Réseau de diffraction. Diffraction par un réseau spatial. Formule de Wulff-Bragg
  • 17.6. Diffraction de Fresnel à partir des obstacles les plus simples.
  • 17.7. Diffraction en faisceaux parallèles (diffraction de Fraunhofer)
  • 17.8. Diffraction par réseaux spatiaux. Formule de Wolfe-Bragg.
  • 17.9. Polarisation de la lumière. Lumière naturelle et polarisée.
  • 17.10. Polarisation de la lumière pendant la réflexion et la réfraction. Loi de Brewster.
  • 17.11. Polarisation pendant la biréfringence.
  • 17.12. Rotation du plan de polarisation.
  • 17.13. Dispersion de la lumière. Absorption (absorption) de la lumière.
  • Conférence n°18
  • 18.1. Nature quantique du rayonnement. Rayonnement thermique et ses caractéristiques. Loi de Kirchhoff. Lois Stefan-Boltzmann et Wien.
  • 18.2.Types d'effet photoélectrique. Lois de l'effet photoélectrique externe. L'équation d'Einstein pour l'effet photoélectrique.
  • 18.3. Masse et élan des photons. Légère pression. Effet Compton.
  • Conférence n°19
  • 19.2 Spectre de raies de l'atome d'hydrogène.
  • 19.3. Les postulats de Bohr. Expériences de Frank et Hertz.
  • Conférence n°20
  • 20.1.Noyau atomique.
  • 20.2.Forces nucléaires.
  • 20.3. Énergie de liaison nucléaire. Défaut de masse.
  • 20.4. Réactions de fission nucléaire.
  • 2.5.Fusion thermonucléaire.
  • 20.6.Radioactivité. Loi de la désintégration radioactive.
  • Horaire de travail indépendant
  • Calendrier des travaux pratiques et laboratoires
  • Liste de questions à préparer pour le Colloque de Mécanique
  • Formules
  • Définitions
  • Questions pour l'examen
  • Règles et échantillon de travaux de laboratoire
  • 9.9. Entropie. Signification physique de l'entropie. Entropie et probabilité.

    Considérant le rendement d'un moteur thermique fonctionnant selon le cycle de Carnot, on peut noter que le rapport de la température du réfrigérateur à la température du réchauffeur est égal au rapport de la quantité de chaleur cédée par le fluide moteur à la réfrigérateur et la quantité de chaleur reçue du radiateur. Cela signifie que pour un moteur thermique idéal fonctionnant selon le cycle de Carnot, la relation suivante est vraie :
    . Attitude Lorenz a appelé chaleur réduite . Pour un procédé élémentaire, la chaleur réduite sera égale à . Cela signifie que lorsque le cycle de Carnot est mis en œuvre (et c'est un processus cyclique réversible), la chaleur réduite reste inchangée et se comporte en fonction de l'état, donc, comme on le sait, la quantité de chaleur est fonction du processus.

    En utilisant la première loi de la thermodynamique pour les processus réversibles,
    et en divisant les deux côtés de cette égalité par la température, on obtient :

    (9-41)

    Exprimons à partir de l'équation de Mendeleev-Clapeyron
    , remplacez-le par l'équation (9-41) et obtenez :

    (9-42)

    Prenons en compte cela
    , UN
    , remplacez-les dans l'équation (9-42) et obtenez :

    (9-43)

    Le côté droit de cette égalité est un différentiel complet, donc dans les processus réversibles, la chaleur réduite est également un différentiel complet, ce qui est un signe de la fonction d'état.

    Fonction d'état dont le différentiel est , appelé entropie et est désigné S . Ainsi, l’entropie est fonction de l’état. Après avoir introduit l'entropie, la formule (9-43) ressemblera à :

    , (9-44)

    DS– incrément d'entropie. L'égalité (9-44) n'est valable que pour les processus réversibles et est pratique pour calculer la variation d'entropie au cours de processus finis :

    (9-45)

    Si un système subit un processus circulaire (cycle) de manière réversible, alors
    , et donc S=0, alors S = const.

    En exprimant la quantité de chaleur par incrément d'entropie pour un processus élémentaire et en la substituant dans l'équation de la première loi de la thermodynamique, nous obtenons une nouvelle forme d'écriture de cette équation, qui est habituellement appelée identité thermodynamique de base :

    (9-46)

    Ainsi, pour calculer la variation d’entropie au cours de processus réversibles, il est pratique d’utiliser une chaleur réduite.

    Dans le cas de processus irréversibles hors équilibre
    , et pour les processus circulaires irréversibles, il est valable Inégalité de Clausius :

    (9-47)

    Considérons ce qui arrive à l'entropie dans un système thermodynamique isolé.

    Dans un système thermodynamique isolé, avec tout changement d'état réversible, son entropie ne changera pas. Mathématiquement, cela peut s'écrire ainsi : S = const.

    Considérons ce qui arrive à l'entropie d'un système thermodynamique au cours d'un processus irréversible. Supposons que la transition de l'état 1 à l'état 2 le long du chemin L 1 est réversible, et de l'état 2 à l'état 1 le long du chemin L 2 est irréversible (Fig. 9.13).

    Alors l'inégalité de Clausius (9-47) est valide. Écrivons l'expression du membre droit de cette inégalité correspondant à notre exemple :

    .

    Le premier terme de cette formule peut être remplacé par un changement d’entropie, puisque ce processus est réversible. Alors l’inégalité de Clausius peut s’écrire :

    .

    D'ici
    . Parce que
    , alors on peut enfin écrire :

    (9-48)

    Si le système est isolé, alors
    , et l'inégalité (9-48) ressemblera à :

    , (9-49)

    T Autrement dit, l’entropie d’un système isolé augmente au cours d’un processus irréversible. La croissance de l'entropie ne se poursuit pas indéfiniment, mais jusqu'à une certaine valeur maximale caractéristique d'un état donné du système. Cette valeur d'entropie maximale correspond à un état d'équilibre thermodynamique. Une augmentation de l'entropie au cours de processus irréversibles dans un système isolé signifie que l'énergie possédée par le système devient moins disponible pour la conversion en travail mécanique. En état d’équilibre, lorsque l’entropie atteint sa valeur maximale, l’énergie du système ne peut être convertie en travail mécanique.

    Si le système n'est pas isolé, l'entropie peut diminuer ou augmenter en fonction de la direction du transfert de chaleur.

    L'entropie en fonction de l'état du système peut servir de même paramètre d'état que la température, la pression et le volume. En décrivant un processus particulier sur un diagramme (T,S), on peut donner une interprétation mathématique de la quantité de chaleur comme l'aire de la figure sous la courbe représentant le processus. La figure 9.14 montre un diagramme pour un processus isotherme en coordonnées entropie – température.

    L'entropie peut être exprimée à travers les paramètres de l'état du gaz - température, pression, volume. Pour ce faire, à partir de l'identité thermodynamique principale (9-46) nous exprimons l'incrément d'entropie :

    .

    Intégrons cette expression et obtenons :

    (9-50)

    Le changement d’entropie peut également être exprimé par une autre paire de paramètres d’état : la pression et le volume. Pour ce faire, vous devez exprimer les températures des états initial et final à partir de l'équation d'état d'un gaz parfait par la pression et le volume et les remplacer par (9-50) :

    (9-51)

    Avec une expansion isotherme du gaz dans le vide, T 1 = T 2, ce qui signifie que le premier terme de la formule (9-47) sera remis à zéro et le changement d'entropie ne sera déterminé que par le deuxième terme :

    (9-52)

    Bien que dans de nombreux cas, il soit pratique d'utiliser la chaleur réduite pour calculer la variation de l'entropie, il est clair que la chaleur réduite et l'entropie sont des concepts différents et non identiques.

    Découvrons-le signification physique de l'entropie . Pour ce faire, nous utilisons la formule (9-52) pour un processus isotherme, dans lequel l'énergie interne ne change pas et tous les changements possibles de caractéristiques sont dus uniquement à des changements de volume. Considérons la relation entre le volume occupé par le gaz dans état d'équilibre, avec le nombre de microétats spatiaux des particules de gaz. Le nombre de microétats de particules de gaz, à l'aide desquels un macroétat donné d'un gaz en tant que système thermodynamique est réalisé, peut être calculé comme suit. Divisons le volume entier en cellules cubiques élémentaires de côté d~10–10 m (de l'ordre du diamètre effectif de la molécule). Le volume d'une telle cellule sera égal à d 3. Dans le premier état, le gaz occupe le volume V 1, donc le nombre de cellules élémentaires, c'est-à-dire le nombre de places N 1 que les molécules peuvent occuper dans cet état sera égal à
    . De même, pour le deuxième état de volume V 2 on obtient
    . Il est à noter que le changement de position des molécules correspond à un nouveau microétat. Tous les changements dans le microétat n’entraîneront pas un changement dans le macroétat. Supposons que les molécules puissent occuper N 1 places, alors échanger les places de n'importe quelle molécule dans ces N 1 cellules ne conduira pas à un nouveau macroétat. Cependant, la transition des molécules vers d’autres cellules entraînera une modification du macroétat du système. Le nombre de microétats d'un gaz correspondant à un macroétat donné peut être calculé en déterminant le nombre de manières de placer les particules de ce gaz dans des cellules élémentaires. Pour simplifier les calculs, considérons 1 mole d'un gaz parfait. Pour 1 mole de gaz parfait, la formule (9-52) ressemblera à :

    (9-53)

    Le nombre de microétats du système occupant le volume V 1 sera noté Г 1 et déterminé en comptant le nombre de placements N A (nombre d'Avogadro) de molécules contenues dans 1 mole de gaz dans N 1 cellules (emplacements) :
    . De même, on calcule le nombre de microétats G 2 du système occupant le volume V 2 :
    .

    Le nombre de microétats Г i à l'aide desquels le ième macroétat peut être réalisé est appelé probabilité thermodynamique de ce macroétat. Probabilité thermodynamique Г ≥ 1.

    Trouvons le rapport Г 2 /Г 1 :

    .

    Pour les gaz parfaits, le nombre places gratuites beaucoup plus grand que le nombre de molécules, c'est-à-dire N 1 >> N A et N 2 >> N A. . Puis, compte tenu de l'expression des nombres N 1 et N 2 à travers les volumes correspondants, on obtient :

    De là, nous pouvons exprimer le rapport volumique à travers le rapport des probabilités thermodynamiques des états correspondants :

    (9-54)

    Remplacez (9-54) par (9-53) et obtenez :
    . Considérant que le rapport entre la constante molaire des gaz et le nombre d'Avogadro, il existe la constante de Boltzmann k, et aussi que le logarithme du rapport de deux grandeurs est égal à la différence des logarithmes de ces grandeurs, on obtient :. De là, nous pouvons conclure que l'entropie de cet état S i est déterminée par le logarithme du nombre de microétats à travers lesquels un macroétat donné est réalisé :

    (9-55)

    La formule (9-55) s'appelle La formule de Boltzmann qui l'a reçu le premier et a compris signification statistique de l'entropie , Comment fonctions de désordre . La formule de Boltzmann a une signification plus générale que la formule (9-53), c'est-à-dire qu'elle peut être utilisée non seulement pour les gaz parfaits, et permet de révéler la signification physique de l'entropie. Plus le système est ordonné, plus moins de nombre plus les microétats à travers lesquels un macroétat donné est réalisé, plus l'entropie du système est faible. Une augmentation de l'entropie dans un système isolé, où se produisent des processus irréversibles, signifie le mouvement du système vers l'état le plus probable, qui est l'état d'équilibre. On peut dire que entropie est mesure du désordre systèmes; plus il y a de désordre, plus l’entropie est élevée. C'est signification physique de l'entropie .