Changement d'entropie d'un système idéal. Encyclopédie scolaire
Dans la section précédente, nous sommes partis de l'hypothèse de base selon laquelle pour tout système, il existe un paramètre appelé entropie et noté S. Pour de petites valeurs d'interaction thermique, la variation différentielle correspondante de l'entropie dS est . Nous utilisons également cette définition pour calculer les changements d'entropie dans certains processus simples et bien connus.
L'entropie change lorsque la glace fond. Supposons que par une chaude journée d'été, nous apportions un thermos rempli d'un mélange de glace et d'eau à un pique-nique. L’isolation du thermos n’étant pas parfaite, la glace va fondre petit à petit. Cependant, la fusion se fait lentement ; la température dans le thermos restera quasiment inchangée et égale à 0°C. Calculons la variation d'entropie correspondant à la fonte de 1 mole (ou 18 g) de glace. La valeur du tableau pour la chaleur de fusion de la glace est de 79,67 cal/g, ce qui donne environ 1434 cal/mol. On peut alors écrire
Comme auparavant, cela signifie simplement la somme de quantités infinitésimales - l'intégration (ou la somme) de toutes les quantités correspondant à chaque petite quantité de chaleur. L'intégration s'effectue dans ce cas d'autant plus simplement que la température T ne change pas au cours du processus de fusion. Par conséquent, le facteur 1/T peut être retiré du signe de l'intégrale, de sorte qu'il devient simplement un facteur dont la dernière expression représente en fait la chaleur de transition de phase (fonte) de la glace cal/mol. La relation (19) signifie que l’entropie d’une mole d’eau à 273 K est supérieure de 5,27 cal/K à l’entropie d’une mole de glace à la même température.
Croyez quand la glace fond. L'entropie augmentera.
Au contraire, si suffisamment de chaleur est retirée de l’eau à une température de 273 K pour former 1 mole de glace à 273 K, l’entropie du système diminuera de .
Notez que tout au long de cette section, nous avons utilisé température absolue selon Kelvin au dénominateur du rapport. Il serait possible d'utiliser l'échelle absolue de Rankine si l'on mesurait la quantité de chaleur en b.t. e. Évidemment, les températures sur les échelles Celsius ou Fahrenheit ne peuvent pas être utilisées comme dénominateur de l'expression (comme même les étudiants formés tentent parfois de le faire). Ainsi, par exemple, en utilisant l'échelle Celsius, dans le cas considéré, nous arriverions à un résultat absurde (le dénominateur de l'expression deviendrait zéro). Notez que les unités dans lesquelles le changement d'entropie est exprimé coïncident avec les unités dans lesquelles la capacité thermique molaire est mesurée. Le changement d'entropie lors de la fonte de 1 mole de glace à un point de congélation de conditions normales est de 5,27 cal/(mol K).
L'entropie change lorsque l'eau bout. Un autre processus bien connu qui se produit à une certaine température est la transition de l'eau liquide en vapeur à une pression de 1 atm. La température à laquelle l'eau bout dans des conditions normales est, par définition, de 100°C, ou 373 K. La chaleur d'évaporation à cette température est de 539 cal/g, ou 9 702 cal/mol. Alors la variation d'entropie correspondant à l'évaporation de 1 mole d'eau dans des conditions normales est égale à
Ce calcul était si simple car la température n’a pas changé pendant le processus.
Notez que le changement d'entropie lors de l'évaporation de l'eau est presque 5 fois supérieur au changement d'entropie lors de la fonte de la glace. La valeur est légèrement plus élevée que d'habitude pour situations similaires valeurs et indique propriétés inhabituelles une substance telle que l'eau. Pour de nombreux liquides « normaux » (non polaires), la variation de l’entropie au cours de l’évaporation est de 1000. Cette règle a été obtenue empiriquement par le physicien anglais Frederick Troughton (1863-1922) et est appelée « règle de Troughton ». Il fournit un moyen d'estimer la chaleur de vaporisation de cette substance, si la température à laquelle il bout dans des conditions normales est connue.
Pour trouver une valeur approximative de la chaleur d'évaporation, il suffit de multiplier le point d'ébullition (exprimé en Kelvin) par la constante de Groveton.
Changement d'entropie pendant l'expansion isotherme gaz parfait. Il existe un autre processus à température constante, que nous avons rencontré plus d'une fois auparavant : il s'agit du processus de dilatation isotherme réversible d'un gaz parfait. Si, à côté de l'interaction thermique, il n'y a qu'une interaction mécanique ordinaire (de sorte que le travail élémentaire s'exprime par la formule, la première loi de la thermodynamique pour 1 mole d'un gaz parfait peut s'écrire sous la forme
(ici on en tient compte). En utilisant l'équation pV = RT, on peut écrire à dT = 0 (condition de température constante)
Nous avons dû intégrer cette expression au Chap. 4, nous présentons donc ici immédiatement le résultat :
Puisque la température T reste constante, l’expression du changement d’entropie correspondant est
Comme on le sait, la constante des gaz R a la dimension cal/(mol K) et le facteur contenant le logarithme est un nombre sans dimension, donc les dimensions des côtés gauche et droit de la relation (24) coïncident. Ainsi, une augmentation de volume (c’est-à-dire une expansion) à température constante s’accompagne d’une augmentation de l’entropie.
Revenons au cas de l'eau bouillante. Laissez 1 mole d’eau s’évaporer ; 1 mole d'un gaz parfait, on s'en souvient, dans des conditions normales (pression 1 atm et température 273 K) occupe un volume d'environ 22 400 cm3. À 373 K, le volume correspondant serait de 22 400 (373/273), soit environ 30 600 cm3. Avant évaporation, 1 mole de liquide occupait un volume d'environ Ainsi, le rapport est D'après l'égalité (24), la variation d'entropie correspondant à la variation de volume due à l'évaporation est R ln 1700. Considérant que la valeur de R est d'environ égal à , le changement d'entropie souhaité est d'environ 14,88 cal/(mol K).
En calculant dans la section précédente la variation totale de l'entropie pendant tout le processus d'évaporation de 1 mole d'eau, nous avons obtenu une valeur de 26,0 cal/(mol K). Comme nous l'avons vu maintenant, un peu plus de la moitié de cette valeur est associée à la variation de volume lorsque le liquide se transforme en vapeur.
Changements d'entropie dus aux changements de température. Jusqu’à présent, tous nos calculs de changement d’entropie ont été effectués pour des interactions thermiques à température constante. Considérons maintenant le cas plus courant et un peu plus complexe où un chauffage réversible entraîne une modification de la température. Si le chauffage se produit à volume constant, alors. selon la définition de la capacité thermique spécifique à volume constant, nous avons. Alors
En intégrant cette expression sur une plage de température finie, on obtient
Ici, on a supposé que la capacité thermique ne dépend pas de la température et peut être retirée du signe intégral. Il est significatif que, en identifiant
nous supprimons les restrictions sur la réversibilité du processus de chauffage, ainsi que sur l'uniformité de la température pendant le processus de chauffage. Il suffit de connaître la température du système au début et à la fin du processus de chauffage. En d’autres termes, il est seulement essentiel que l’équilibre thermique existe dans les états initial et final : les états intermédiaires ne jouent aucun rôle.
Dans le cas le plus courant et pratiquement beaucoup plus facile à mettre en œuvre du chauffage à pression constante, nous avons. En répétant littéralement tout le raisonnement ci-dessus, nous obtenons
2. Chauffage de l'eau à 1 atm de 273 K à 373 K :
3. Transition eau-vapeur à 1 atm et 373 K :
Ainsi, le changement d'entropie résultant lorsqu'une mole de glace à une température de 273 K est convertie en vapeur à 373 K est
La notion d'entropie est utilisée dans diverses sciences : physique, chimie, mathématiques, biologie, sociologie. Le mot lui-même vient du grec et signifie « transformation, changement ». Qu’est-ce que c’est en termes simples ? On peut dire que c'est une mesure du désordre, du chaos dans tout système. Plus la commande est basse, plus sa valeur est grande. Si les livres sont sur une étagère, ils sont moins en désordre que s’ils sont en pile.
La définition de ce terme dépend du champ d'application de son application. En termes généraux, nous pouvons dire qu'il s'agit d'une mesure de désordre et de dissipation irréversible de l'énergie. Plus un système est ordonné, plus l’énergie est concentrée. Par exemple, si nous plaçons un objet chaud dans eau froide, elle se refroidira progressivement et l'eau se réchauffera. Dans le second cas, l’entropie est plus grande.
Important! L'entropie caractérise le désordre. Plus il est grand, moins le système est ordonné.
Tout peut faire office de système. En physique ou en chimie, il s'agit généralement d'un gaz, d'un liquide, d'un solide ou d'un ensemble d'un certain nombre de particules. En informatique, cela pourrait être un texte, en sociologie, un groupe de personnes.
Le terme entropie
En physique
Ce terme est utilisé dans des branches de la physique telles que la thermodynamique et la physique statistique. La thermodynamique étudie les méthodes de transfert et de transformation de l'énergie. Il traite des processus dans lesquels la notion de température peut être utilisée. C’est en thermodynamique que ce concept a été utilisé pour la première fois. Il a été introduit par le scientifique allemand Rudolf Clausius. La mécanique statistique étudie le comportement de systèmes constitués d'un nombre fini de particules en utilisant les méthodes de la théorie des probabilités.
Dans différentes branches de la physique, ce terme signifie des choses légèrement différentes. En thermodynamique, c'est une caractéristique de dissipation d'énergie irréversible. En physique statistique, cette quantité montre la probabilité d’un état.
En thermodynamique
L'entropie est la seule quantité qui montre la direction des processus physiques. Qu'est-ce que ça veut dire?
- Dans un système isolé, c'est-à-dire qui n'échange ni matière ni énergie avec les objets environnants, les processus se déroulent toujours de telle manière que le désordre augmente. Ayant atteint un maximum, il reste constant. C'est l'essence de la deuxième loi de la thermodynamique.
- Les processus réversibles ne modifient pas le désordre.
- Les processus irréversibles se déroulent toujours de telle manière que le désordre augmente.
Dans un système ouvert, cette valeur peut augmenter ou rester constante ; des processus dans lesquels le désordre diminue sont également possibles. Autrement dit, grâce à une intervention extérieure, nous pouvons réduire le désordre.
Tout système qui se trouve dans des conditions externes constantes finit par atteindre un état d'équilibre et ne peut pas en sortir tout seul. Dans ce cas, toutes ses parties auront la même température. C'est la loi zéro de la thermodynamique.
C'est dans l'équilibre qu'il y a le plus de désordre. Par exemple, il y a un récipient divisé par une cloison. D'un côté il y a un gaz, de l'autre il y en a un autre. Si vous retirez la cloison, les gaz se mélangeront progressivement et ne se sépareront plus d'eux-mêmes. Cet état sera plus désordonné que l’état lorsque les gaz étaient séparés.
En physique, cette grandeur est fonction de l’état du système. Cela signifie que cela dépend des paramètres du système :
- température;
- pression;
- volume;
- énergie interne.
En mécanique statistique
En mécanique statistique, ce concept est associé à la probabilité d'obtenir un certain état. Par exemple, pour plusieurs objets ou particules, cela dépend du nombre de façons de les disposer.
Il existe plusieurs définitions de cette quantité. La définition la plus simple de Bolzamann. Elle est égale au logarithme de la probabilité d'état multiplié par la constante de Boltzmann : S=k*ln(W).
Vidéo utile : qu'est-ce que l'entropie
Valeur absolue
L'entropie est une quantité non négative (supérieure ou égale à zéro). Plus la température est proche du zéro absolu, plus elle est proche de zéro. C'est la troisième loi de la thermodynamique. Il a été initialement formulé par Max Planck en 1911.
La troisième loi de la thermodynamique est également appelée principe de l'inaccessibilité du zéro absolu. Cela signifie que lors de tout processus associé à un changement de désordre, il est impossible d'atteindre le zéro absolu (0K ou -273,15 C). On ne peut s'approcher de cette température qu'à l'infini. Les scientifiques s'accordent à dire qu'à 0 K, le désordre est égal à 0.
Important! La valeur absolue du désordre peut être calculée comme la variation d’énergie à une température donnée.
En thermodynamique, la valeur absolue n'a généralement pas d'importance, seule sa variation est importante. Cependant, la valeur absolue peut également être trouvée. Il est calculé à l'aide de différentes formules pour les états solide, liquide et gazeux d'une substance. Cette quantité est mesurée en J/K ou J/degré, c'est-à-dire dans les mêmes unités que la capacité thermique. Il est pratique de diviser cette valeur par la masse ou le nombre de moles de la substance. Par conséquent, les unités J/(mol*K) ou J/(mol*degree) sont utilisées, selon que la température est mesurée en kelvins ou en degrés.
En chimie
Qu’est-ce que l’entropie en chimie, par exemple ? Ce concept est utilisé en thermodynamique chimique. Ce qui est important ici, c'est l'évolution de cette valeur. S’il est positif, alors le système devient moins ordonné. Il est important de savoir cela pour déterminer la direction des réactions chimiques et les changements d’équilibre chimique. Ce terme est associé au concept d'enthalpie - énergie qui peut être convertie en chaleur à une certaine pression constante.
Le changement de trouble peut déterminer si une réaction peut se produire spontanément. Cela ne peut pas être fait uniquement en changeant l'énergie, car il existe à la fois des réactions qui se produisent avec l'absorption de chaleur et des réactions qui se produisent avec sa libération. Selon la deuxième loi de la thermodynamique, l’état présentant le plus grand désordre est l’état le plus stable d’un système fermé. De plus, tout système fermé tend vers l’état le moins ordonné. Par conséquent, dans les processus spontanés, le désordre augmente.
En théorie de l'information
L'entropie de l'information caractérise l'imprévisibilité de tout système. Par exemple, cela pourrait être la probabilité qu’un caractère de l’alphabet apparaisse dans le texte. De plus, cette fonction est égale à la quantité d'informations tombant sur un caractère. Claude Shannon, le scientifique qui a introduit ce terme dans la théorie de l'information, a même initialement voulu appeler cette quantité information.
Shannon a suggéré qu'en augmentant la quantité d'informations, nous réduisons l'incertitude. En rationalisant le système, nous réduisons également l’incertitude.
Important! Plus un événement est prévisible, moins il est informatif et moins il y a de désordre.
Grâce à cette incertitude, vous pouvez prédire des événements, par exemple le résultat d'une expérience. Pour ce faire, les événements sont divisés en parties distinctes et leur incertitude est prise en compte.
L'entropie de l'information est liée au nombre d'états disponibles. Plus ce nombre est élevé, plus il est grand. Par exemple, si nous jouons aux échecs selon les règles, pour un échiquier, cette valeur sera inférieure à celle si nous réorganisons les pièces de manière chaotique. L’incertitude pour une pièce qui ne peut atterrir que d’un côté ou de l’autre est moindre que celle d’une pièce de monnaie qui ne peut atterrir que d’un côté ou de l’autre. dé avec 6 côtés, et pour un os à 20 côtés cette valeur est encore plus grande.
Il y a aussi l'entropie du langage. Ce concept désigne la quantité d'informations par unité de texte dans cette langue (un caractère) et se mesure en bits par lettre. Pour différentes langues elle est différente.
Dans une langue, certains symboles apparaissent plus souvent, d’autres moins fréquemment, et certaines combinaisons de symboles apparaissent également fréquemment. En analysant la probabilité d'apparition d'un caractère particulier, vous pouvez décoder le texte chiffré. Le désordre de l'information aide également à établir les débit canaux de transmission de messages cryptés.
L'analyse de l'entropie de l'information est utilisée pour analyser des données dans divers domaines, de la médecine à la sociologie. En mots simples on peut dire qu'en analysant l'augmentation ou la diminution du désordre, il est possible d'établir des liens entre les phénomènes.
Le concept d’« entropie de l’information » est également utilisé dans statistiques mathématiques et physique statistique. Ces sciences traitent également de la probabilité de divers états et utilisent les méthodes de la théorie des probabilités.
En économie
En économie, la notion de « coefficient d'entropie » est utilisée. Elle est associée à la concentration des vendeurs sur le marché. Plus la concentration est élevée, plus ce coefficient, ou indice, est faible. Cela dépend de la répartition des parts entre les entreprises sur le marché et de la manière dont plus de différence plus le coefficient d'entropie est élevé, plus ces parts sont importantes.
Si vous divisez cet indice par le nombre d'entreprises présentes sur le marché, vous obtenez un indicateur relatif. Elle est désignée par la lettre E. Sa valeur est comprise entre 0 et 1. La valeur E=0 correspond au monopole et E=1 à la concurrence parfaite.
Ce que dit Wikipédia
Vous pouvez le trouver sur Wikipédia différentes définitions ce concept. La chose la plus générale est une mesure de dissipation d'énergie irréversible, l'écart d'un processus réel par rapport à un processus idéal. Vous pouvez également trouver sur Wikipédia :
- des articles sur ce terme en thermodynamique classique ;
- en écologie biologique;
- entropie de l'Univers ;
- langue;
- différentiel;
- topologique;
- informatif.
Vidéo utile : Comprendre l'entropie
Conclusion
Le terme « entropie » a été utilisé pour la première fois en thermodynamique par Rudolf Clausius. De la physique, il est venu à d'autres sciences. Ce concept désigne le désordre, le chaos, l'imprévisibilité et est étroitement lié à la probabilité. L'analyse entropique permet d'étudier les données et de trouver des liens entre les phénomènes, de déterminer les directions des processus physiques et chimiques.
Entropie
Un changement de l'enthalpie d'un système ne peut pas servir de seul critère de mise en œuvre spontanée réaction chimique, puisque de nombreux processus endothermiques se produisent spontanément. Ceci est illustré par la dissolution de certains sels (par exemple NH 4NO 3) dans l'eau, accompagnée d'un refroidissement notable de la solution. Il est nécessaire de prendre en compte un autre facteur qui détermine la capacité à passer spontanément d'un état plus ordonné à un état moins ordonné (plus chaotique).
Entropie (S) est une fonction thermodynamique d'état, qui sert de mesure du désordre (désordre) du système. La possibilité que des processus endothermiques se produisent est due à un changement d'entropie, car dans les systèmes isolés, l'entropie d'un processus se produisant spontanément augmente Δ S > 0 (deuxième loi de la thermodynamique).
L. Boltzmann a défini l'entropie comme la probabilité thermodynamique de l'état (désordre) d'un système W. Puisque le nombre de particules dans le système est grand (le nombre d'Avogadro N A = 6,02∙10 23), alors l'entropie est proportionnelle au logarithme népérien de la probabilité thermodynamique de l'état du système W:
La dimension de l'entropie de 1 mole d'une substance coïncide avec la dimension de la constante des gaz R. et est égal à J∙mol –1∙K –1. Changement d'entropie *) dans des processus irréversibles et réversibles se traduit par les relations Δ S > Q / T et Δ S = Q / T. Par exemple, la variation de l'entropie de fusion est égale à la chaleur (enthalpie) de fusion Δ S pl = Δ H PL/ T pl Pour une réaction chimique, le changement d'entropie est similaire au changement d'enthalpie
*) terme entropie a été introduit par Clausius (1865) à travers le rapport Q/T (chaleur réduite).
Ici Δ S° correspond à l'entropie de l'état standard. Entropies standards substances simples ne sont pas égaux à zéro. Contrairement à d’autres fonctions thermodynamiques, l’entropie d’un corps idéalement cristallin au zéro absolu est nulle (postulat de Planck), puisque W = 1.
L'entropie d'une substance ou d'un système de corps à une certaine température est une valeur absolue. Dans le tableau 4.1 montre les entropies standard S° certaines substances.
|
||||||||||||||||||||||||||||||||||||||||||||
Tableau 4.1. Entropies standards de certaines substances. |
De la table 4.1, il s'ensuit que l'entropie dépend de :
- État global d'une substance. L'entropie augmente lors du passage de l'état solide à l'état liquide et surtout à l'état gazeux (eau, glace, vapeur).
- Composition isotopique (H 2O et D 2O).
- Masse moléculaire composés du même type (CH 4, C 2H 6, n-C 4H 10).
- Structure de la molécule (n-C 4H 10, iso-C 4H 10).
- Structure cristalline (allotropie) – diamant, graphite.
Enfin, fig. 4.3 illustre la dépendance de l'entropie à la température.
Par conséquent, plus la température est élevée, plus le système a tendance au désordre. Produit du changement d'entropie du système et de la température TΔ S quantifie cette tendance et est appelé facteur d'entropie.
Problèmes et tests sur le thème "Thermodynamique chimique. Entropie"
- Éléments chimiques. Signes d'éléments chimiques - Concepts chimiques initiaux et concepts théoriques, niveaux 8-9
Leçons : 3 Devoirs : 9 Tests : 1
2. Entropie standard des substances. Changement d'entropie lorsque l'état d'agrégation des substances change. Calcul de la variation de l'entropie standard dans une réaction chimique.
L'entropie (S) est une fonction thermodynamique de l'état, qui sert de mesure du désordre (désordre) d'un système. La possibilité que des processus endothermiques se produisent est due à un changement d'entropie, car dans les systèmes isolés, l'entropie d'un processus se produisant spontanément augmente ΔS > 0 (deuxième loi de la thermodynamique). L. Boltzmann a défini l'entropie comme la probabilité thermodynamique de l'état (désordre) d'un système W. L'entropie est liée à la probabilité thermodynamique par la relation : S = R ln W
La dimension de l'entropie de 1 mole d'une substance coïncide avec la dimension de la constante des gaz R et est égale à J∙mol–1∙K–1. Le changement d'entropie *) dans les processus irréversibles et réversibles est véhiculé par les relations ΔS > Q / T et ΔS = Q / T. Par exemple, le changement d'entropie de fusion est égal à la chaleur (enthalpie) de fusion ΔSmel = ΔHmel/Tmel. Pour une réaction chimique, le changement d'entropie est similaire au changement d'enthalpie
*) le terme d'entropie a été introduit par Clausius (1865) à travers le rapport Q/T (chaleur réduite).
Ici ΔS° correspond à l'entropie de l'état standard. Les entropies standards des substances simples ne sont pas nulles. Contrairement à d'autres fonctions thermodynamiques, l'entropie d'un corps idéalement cristallin au zéro absolu est nulle (postulat de Planck), puisque W = 1.
L'entropie d'une substance ou d'un système de corps à une certaine température est une valeur absolue.
L'entropie dépend de :
-état global d'une substance. L'entropie augmente lors du passage de l'état solide à l'état liquide et surtout à l'état gazeux (eau, glace, vapeur).
-composition isotopique (H2O et D2O).
-poids moléculaire de composés similaires (CH4, C2H6, n-C4H10).
- structure moléculaire (n-C4H10, iso-C4H10).
-structure cristalline (allotropie) – diamant, graphite.
Le changement d'entropie au cours de cette transition de phase (solide-liquide) peut être trouvé simplement si l'on considère le processus comme étant en équilibre.
Il s'agit d'une approximation tout à fait acceptable si l'on suppose que la différence de température entre le système et l'objet qui fournit de la chaleur au système n'est pas trop importante, bien inférieure au point de fusion. On peut alors utiliser le sens thermodynamique de l'entropie : du point de vue de la thermodynamique, l'entropie est fonction de l'état du système dont la variation dS dans un processus d'équilibre élémentaire est égale au rapport de la part de chaleur δQ que le système reçoit dans ce processus à la température du système T :
Puisque la température du système dans une transition de phase donnée ne change pas et est égale à la température de fusion, l'intégrande est une quantité qui ne change pas au cours du processus, elle ne dépend donc pas de la masse m de la substance. Alors
De cette formule, il s'ensuit que lors de la fusion, l'entropie augmente et lors de la cristallisation, elle diminue. Signification physique Ce résultat est assez clair : la région de phase d'une molécule dans un solide est beaucoup plus petite que dans un liquide, puisque dans un solide seule une petite région d'espace entre les nœuds adjacents est disponible pour chaque molécule. réseau cristallin, et dans un liquide, les molécules occupent toute la région de l’espace. Ainsi, à température égale, l’entropie d’un corps solide est inférieure à l’entropie d’un liquide. Cela signifie qu’un solide est un système plus ordonné et moins chaotique qu’un liquide.
L'application de l'entropie dans ce processus (liquide-gaz) peut être trouvée simplement en considérant le processus comme étant à l'équilibre. Et encore une fois, il s'agit d'une approximation tout à fait acceptable, à condition que la différence de température entre le système et le « fournisseur » de chaleur soit faible, c'est-à-dire bien inférieur au point d'ébullition. Alors
De la formule, il s'ensuit que pendant l'évaporation, l'entropie augmente et pendant la condensation, elle diminue.
La signification physique de ce résultat est la différence dans la région de phase de la molécule dans le liquide et dans le gaz. Bien que dans les liquides et les gaz, chaque molécule ait accès à toute la région de l’espace occupée par le système, cette région elle-même est nettement plus petite pour un liquide que pour un gaz. Dans un liquide, les forces d’attraction entre les molécules les maintiennent à une certaine distance les unes des autres. Ainsi, bien que chaque molécule ait la possibilité de migrer librement à travers la région de l'espace occupée par le liquide, elle n'a pas la possibilité de « se détacher du collectif » des autres molécules : dès qu'elle se détache d'une molécule, une autre est immédiatement attiré. Le volume de liquide dépend donc de sa quantité et n’est en aucun cas lié au volume du récipient.
Les molécules de gaz se comportent différemment. Ils ont beaucoup plus de liberté, la distance moyenne entre eux est telle que les forces d'attraction sont très faibles, et les molécules ne se « remarquent » que lors de collisions. De ce fait, le gaz occupe toujours tout le volume de la cuve.
Par conséquent, à températures égales, la région de phase des molécules de gaz est nettement plus grande que la région de phase des molécules liquides, et l’entropie du gaz est supérieure à l’entropie du liquide. Le gaz, comparé au liquide, est un système beaucoup moins ordonné et plus chaotique.
La variation de l'entropie molaire standard dans une réaction chimique est déterminée par l'équation :
Il est à noter que l'évolution de l'entropie dans l'exemple considéré s'avère négative. On pourrait s'y attendre si l'on considère que, selon l'équation de la réaction en question, la quantité totale de réactifs gazeux est de 1,5 mole et la quantité totale de produits gazeux n'est que de 1 mole. Ainsi, à la suite de la réaction, il y a une diminution nombre total des gaz En même temps, nous savons que les réactions de combustion sont des réactions exothermiques. Par conséquent, le résultat de leur apparition est une dissipation d’énergie, ce qui laisse présager une augmentation de l’entropie, et non une diminution. En outre, il faut tenir compte du fait que la combustion de l'hydrogène gazeux à 25°C, provoquée par l'amorçage initial, se déroule alors spontanément et avec une grande intensité. Mais le changement d’entropie dans cette réaction ne devrait-il pas être positif dans ce cas, comme l’exige la deuxième loi de la thermodynamique ? Il s'avère que non, ou du moins pas nécessairement. La deuxième loi de la thermodynamique exige que, à la suite d'un processus spontané, l'entropie totale du système et de son environnement augmente. Le changement d'entropie calculé ci-dessus caractérise uniquement le système chimique, constitué de réactifs et de produits qui participent à la combustion de l'hydrogène gazeux à 25°C.
9.9. Entropie. Signification physique de l'entropie. Entropie et probabilité.
Considérant le rendement d'un moteur thermique fonctionnant selon le cycle de Carnot, on peut noter que le rapport de la température du réfrigérateur à la température du réchauffeur est égal au rapport de la quantité de chaleur cédée par le fluide moteur à la réfrigérateur et la quantité de chaleur reçue du radiateur. Cela signifie que pour un moteur thermique idéal fonctionnant selon le cycle de Carnot, la relation suivante est vraie :
. Attitude Lorenz a appelé chaleur réduite
. Pour un procédé élémentaire, la chaleur réduite sera égale à . Cela signifie que lorsque le cycle de Carnot est mis en œuvre (et c'est un processus cyclique réversible), la chaleur réduite reste inchangée et se comporte en fonction de l'état, donc, comme on le sait, la quantité de chaleur est fonction du processus.
En utilisant la première loi de la thermodynamique pour les processus réversibles,
et en divisant les deux côtés de cette égalité par la température, on obtient :
(9-41)
Exprimons à partir de l'équation de Mendeleev-Clapeyron
, remplacez-le par l'équation (9-41) et obtenez :
(9-42)
Prenons en compte cela
, UN
, remplacez-les dans l'équation (9-42) et obtenez :
(9-43)
Le côté droit de cette égalité est un différentiel complet, donc dans les processus réversibles, la chaleur réduite est également un différentiel complet, ce qui est un signe de la fonction d'état.
Fonction d'état dont le différentiel est , appelé entropie et est désigné S . Ainsi, l’entropie est fonction de l’état. Après avoir introduit l'entropie, la formule (9-43) ressemblera à :
, (9-44)
Où DS– incrément d'entropie. L'égalité (9-44) n'est valable que pour les processus réversibles et est pratique pour calculer la variation d'entropie au cours de processus finis :
(9-45)
Si un système subit un processus circulaire (cycle) de manière réversible, alors
, et donc S=0, alors S = const.
En exprimant la quantité de chaleur par incrément d'entropie pour un processus élémentaire et en la substituant dans l'équation de la première loi de la thermodynamique, nous obtenons une nouvelle forme d'écriture de cette équation, qui est habituellement appelée identité thermodynamique de base :
(9-46)
Ainsi, pour calculer la variation d’entropie au cours de processus réversibles, il est pratique d’utiliser une chaleur réduite.
Dans le cas de processus irréversibles hors équilibre
, et pour les processus circulaires irréversibles, il est valable Inégalité de Clausius
:
(9-47)
Considérons ce qui arrive à l'entropie dans un système thermodynamique isolé.
Dans un système thermodynamique isolé, avec tout changement d'état réversible, son entropie ne changera pas. Mathématiquement, cela peut s'écrire ainsi : S = const.
Considérons ce qui arrive à l'entropie d'un système thermodynamique au cours d'un processus irréversible. Supposons que la transition de l'état 1 à l'état 2 le long du chemin L 1 est réversible, et de l'état 2 à l'état 1 le long du chemin L 2 est irréversible (Fig. 9.13).
Alors l'inégalité de Clausius (9-47) est valide. Écrivons l'expression du membre droit de cette inégalité correspondant à notre exemple :
.
Le premier terme de cette formule peut être remplacé par un changement d’entropie, puisque ce processus est réversible. Alors l’inégalité de Clausius peut s’écrire :
.
D'ici
. Parce que
, alors on peut enfin écrire :
(9-48)
Si le système est isolé, alors
, et l'inégalité (9-48) ressemblera à :
, (9-49)
T Autrement dit, l’entropie d’un système isolé augmente au cours d’un processus irréversible. La croissance de l'entropie ne se poursuit pas indéfiniment, mais jusqu'à une certaine valeur maximale caractéristique d'un état donné du système. Cette valeur d'entropie maximale correspond à un état d'équilibre thermodynamique. Une augmentation de l'entropie au cours de processus irréversibles dans un système isolé signifie que l'énergie possédée par le système devient moins disponible pour la conversion en travail mécanique. En état d’équilibre, lorsque l’entropie atteint sa valeur maximale, l’énergie du système ne peut être convertie en travail mécanique.
Si le système n'est pas isolé, l'entropie peut diminuer ou augmenter en fonction de la direction du transfert de chaleur.
L'entropie en fonction de l'état du système peut servir de même paramètre d'état que la température, la pression et le volume. En décrivant un processus particulier sur un diagramme (T,S), on peut donner une interprétation mathématique de la quantité de chaleur comme l'aire de la figure sous la courbe représentant le processus. La figure 9.14 montre un diagramme pour un processus isotherme en coordonnées entropie – température.
L'entropie peut être exprimée à travers les paramètres de l'état du gaz - température, pression, volume. Pour ce faire, à partir de l'identité thermodynamique principale (9-46) nous exprimons l'incrément d'entropie :
.
Intégrons cette expression et obtenons :
(9-50)
Le changement d’entropie peut également être exprimé par une autre paire de paramètres d’état : la pression et le volume. Pour ce faire, vous devez exprimer les températures des états initial et final à partir de l'équation d'état d'un gaz parfait par la pression et le volume et les remplacer par (9-50) :
(9-51)
Avec une expansion isotherme du gaz dans le vide, T 1 = T 2, ce qui signifie que le premier terme de la formule (9-47) sera remis à zéro et le changement d'entropie ne sera déterminé que par le deuxième terme :
(9-52)
Bien que dans de nombreux cas, il soit pratique d'utiliser la chaleur réduite pour calculer la variation de l'entropie, il est clair que la chaleur réduite et l'entropie sont des concepts différents et non identiques.
Découvrons-le signification physique de l'entropie
. Pour ce faire, nous utilisons la formule (9-52) pour un processus isotherme, dans lequel l'énergie interne ne change pas et tous les changements possibles de caractéristiques sont dus uniquement à des changements de volume. Considérons la relation entre le volume occupé par le gaz dans état d'équilibre, avec le nombre de microétats spatiaux des particules de gaz. Le nombre de microétats de particules de gaz, à l'aide desquels un macroétat donné d'un gaz en tant que système thermodynamique est réalisé, peut être calculé comme suit. Divisons le volume entier en cellules cubiques élémentaires de côté d~10–10 m (de l'ordre du diamètre effectif de la molécule). Le volume d'une telle cellule sera égal à d 3. Dans le premier état, le gaz occupe le volume V 1, donc le nombre de cellules élémentaires, c'est-à-dire le nombre de places N 1 que les molécules peuvent occuper dans cet état sera égal à
. De même, pour le deuxième état de volume V 2 on obtient
. Il est à noter que le changement de position des molécules correspond à un nouveau microétat. Tous les changements dans le microétat n’entraîneront pas un changement dans le macroétat. Supposons que les molécules puissent occuper N 1 places, alors échanger les places de n'importe quelle molécule dans ces N 1 cellules ne conduira pas à un nouveau macroétat. Cependant, la transition des molécules vers d’autres cellules entraînera une modification du macroétat du système. Le nombre de microétats d'un gaz correspondant à un macroétat donné peut être calculé en déterminant le nombre de manières de placer les particules de ce gaz dans des cellules élémentaires. Pour simplifier les calculs, considérons 1 mole d'un gaz parfait. Pour 1 mole de gaz parfait, la formule (9-52) ressemblera à :
(9-53)
Le nombre de microétats du système occupant le volume V 1 sera noté Г 1 et déterminé en comptant le nombre de placements N A (nombre d'Avogadro) de molécules contenues dans 1 mole de gaz dans N 1 cellules (emplacements) :
. De même, on calcule le nombre de microétats G 2 du système occupant le volume V 2 :
.
Le nombre de microétats Г i à l'aide desquels le ième macroétat peut être réalisé est appelé probabilité thermodynamique de ce macroétat. Probabilité thermodynamique Г ≥ 1.
Trouvons le rapport Г 2 /Г 1 :
.
Pour les gaz parfaits, le nombre places gratuites beaucoup plus grand que le nombre de molécules, c'est-à-dire N 1 >> N A et N 2 >> N A. . Puis, compte tenu de l'expression des nombres N 1 et N 2 à travers les volumes correspondants, on obtient :
De là, nous pouvons exprimer le rapport volumique à travers le rapport des probabilités thermodynamiques des états correspondants :
(9-54)
Remplacez (9-54) par (9-53) et obtenez :
. Considérant que le rapport entre la constante molaire des gaz et le nombre d'Avogadro, il existe la constante de Boltzmann k,
et aussi que le logarithme du rapport de deux grandeurs est égal à la différence des logarithmes de ces grandeurs, on obtient :. De là, nous pouvons conclure que l'entropie de cet état S i est déterminée par le logarithme du nombre de microétats à travers lesquels un macroétat donné est réalisé :
(9-55)
La formule (9-55) s'appelle La formule de Boltzmann qui l'a reçu le premier et a compris signification statistique de l'entropie , Comment fonctions de désordre . La formule de Boltzmann a une signification plus générale que la formule (9-53), c'est-à-dire qu'elle peut être utilisée non seulement pour les gaz parfaits, et permet de révéler la signification physique de l'entropie. Plus le système est ordonné, plus moins de nombre plus les microétats à travers lesquels un macroétat donné est réalisé, plus l'entropie du système est faible. Une augmentation de l'entropie dans un système isolé, où se produisent des processus irréversibles, signifie le mouvement du système vers l'état le plus probable, qui est l'état d'équilibre. On peut dire que entropie est mesure du désordre systèmes; plus il y a de désordre, plus l’entropie est élevée. C'est signification physique de l'entropie .