stringtranslate.com

Entropía (termodinámica estadística)

El concepto de entropía fue desarrollado por primera vez por el físico alemán Rudolf Clausius a mediados del siglo XIX como una propiedad termodinámica que predice que ciertos procesos espontáneos son irreversibles o imposibles. En mecánica estadística , la entropía se formula como una propiedad estadística utilizando la teoría de la probabilidad . La perspectiva de la entropía estadística fue introducida en 1870 por el físico austríaco Ludwig Boltzmann , quien estableció un nuevo campo de la física que proporcionaba el vínculo descriptivo entre la observación macroscópica de la naturaleza y la visión microscópica basada en el tratamiento riguroso de grandes conjuntos de estados microscópicos que constituyen los sistemas termodinámicos .

Principio de Boltzmann

Ludwig Boltzmann definió la entropía como una medida del número de posibles estados microscópicos ( microestados ) de un sistema en equilibrio termodinámico , consistentes con sus propiedades termodinámicas macroscópicas, que constituyen el macroestado del sistema. Una ilustración útil es el ejemplo de una muestra de gas contenida en un recipiente. Los parámetros fácilmente medibles volumen, presión y temperatura del gas describen su condición macroscópica ( estado ). A nivel microscópico, el gas consiste en una gran cantidad de átomos o moléculas que se mueven libremente , que chocan aleatoriamente entre sí y con las paredes del recipiente. Las colisiones con las paredes producen la presión macroscópica del gas, que ilustra la conexión entre los fenómenos microscópicos y macroscópicos.

Un microestado del sistema es una descripción de las posiciones y momentos de todas sus partículas. La gran cantidad de partículas del gas proporciona un número infinito de posibles microestados para la muestra, pero colectivamente exhiben un promedio bien definido de configuración, que se exhibe como el macroestado del sistema, al cual la contribución de cada microestado individual es despreciablemente pequeña. El conjunto de microestados comprende una distribución estadística de probabilidad para cada microestado, y el grupo de configuraciones más probables explica el estado macroscópico. Por lo tanto, el sistema puede describirse como un todo mediante solo unos pocos parámetros macroscópicos, llamados variables termodinámicas : la energía total E , el volumen V , la presión P , la temperatura T , etc. Sin embargo, esta descripción es relativamente simple solo cuando el sistema está en un estado de equilibrio.

El equilibrio se puede ilustrar con un ejemplo sencillo: una gota de colorante alimentario que cae en un vaso de agua. El colorante se difunde de una manera complicada, que es difícil de predecir con precisión. Sin embargo, después de que haya transcurrido suficiente tiempo, el sistema alcanza un color uniforme, un estado mucho más fácil de describir y explicar.

Boltzmann formuló una relación sencilla entre la entropía y el número de microestados posibles de un sistema, que se denota con el símbolo Ω. La entropía S es proporcional al logaritmo natural de este número:

La constante de proporcionalidad k B es una de las constantes fundamentales de la física y se llama constante de Boltzmann en honor a su descubridor.

La entropía de Boltzmann describe el sistema en el que todos los microestados accesibles tienen la misma probabilidad. Es la configuración correspondiente al máximo de entropía en el equilibrio. La aleatoriedad o desorden es máximo, y también lo es la falta de distinción (o información) de cada microestado.

La entropía es una propiedad termodinámica, al igual que la presión, el volumen o la temperatura. Por lo tanto, conecta la visión del mundo microscópica con la macroscópica.

El principio de Boltzmann se considera la base de la mecánica estadística .

Fórmula de entropía de Gibbs

El estado macroscópico de un sistema se caracteriza por una distribución en los microestados . La entropía de esta distribución está dada por la fórmula de entropía de Gibbs, llamada así por J. Willard Gibbs . Para un sistema clásico (es decir, una colección de partículas clásicas) con un conjunto discreto de microestados, si es la energía del microestado i , y es la probabilidad de que ocurra durante las fluctuaciones del sistema, entonces la entropía del sistema es

Cambios de entropía para sistemas en un estado canónico

Un sistema con una temperatura bien definida, es decir, uno en equilibrio térmico con un reservorio térmico, tiene una probabilidad de estar en un microestado i dada por la distribución de Boltzmann .

Los cambios en la entropía causados ​​por cambios en las restricciones externas se dan entonces por:

donde hemos utilizado dos veces la conservación de la probabilidad, Σ dp i = 0 .

Ahora, Σ i d ( E i p i ) es el valor esperado del cambio en la energía total del sistema.

Si los cambios son suficientemente lentos, de modo que el sistema permanece en el mismo estado microscópico, pero el estado cambia lentamente (y reversiblemente), entonces Σ i ( dE i ) p i es el valor esperado del trabajo realizado en el sistema a través de este proceso reversible, dw rev .

Pero según la primera ley de la termodinámica, dE = δw + δq . Por lo tanto,

En el límite termodinámico , la fluctuación de las cantidades macroscópicas con respecto a sus valores promedio se vuelve insignificante; por lo que esto reproduce la definición de entropía de la termodinámica clásica, dada anteriormente.

La cantidad es la constante de Boltzmann . El factor restante de la ecuación, la suma total, es adimensional , ya que el valor es una probabilidad y, por lo tanto, adimensional, y ln es el logaritmo natural . Por lo tanto, las unidades derivadas del SI en ambos lados de la ecuación son las mismas que la capacidad térmica :

Esta definición sigue siendo significativa incluso cuando el sistema está lejos del equilibrio. Otras definiciones suponen que el sistema está en equilibrio térmico , ya sea como un sistema aislado , o como un sistema en intercambio con su entorno. El conjunto de microestados (con distribución de probabilidad) sobre el que se realiza la suma se llama conjunto estadístico . Cada tipo de conjunto estadístico (microcanónico, canónico, grancanónico, etc.) describe una configuración diferente de los intercambios del sistema con el exterior, que varía desde un sistema completamente aislado hasta un sistema que puede intercambiar una o más cantidades con un reservorio, como energía, volumen o moléculas. En cada conjunto, la configuración de equilibrio del sistema está dictada por la maximización de la entropía de la unión del sistema y su reservorio, de acuerdo con la segunda ley de la termodinámica (ver el artículo de mecánica estadística ).

Si se descuidan las correlaciones (o, más generalmente, las dependencias estadísticas ) entre los estados de partículas individuales, se obtendrá una distribución de probabilidad incorrecta en los microestados y, por lo tanto, una sobreestimación de la entropía. [1] Tales correlaciones ocurren en cualquier sistema con partículas que interactúan de manera no trivial, es decir, en todos los sistemas más complejos que un gas ideal .

Esta S se denomina casi universalmente simplemente entropía . También se la puede llamar entropía estadística o entropía termodinámica sin cambiar el significado. Nótese que la expresión anterior de la entropía estadística es una versión discretizada de la entropía de Shannon . La fórmula de la entropía de von Neumann es una extensión de la fórmula de la entropía de Gibbs al caso de la mecánica cuántica .

Se ha demostrado [1] que la entropía de Gibbs es igual a la entropía clásica de la "máquina térmica" caracterizada por , y la distribución de Boltzmann generalizada es una condición suficiente y necesaria para esta equivalencia. [2] Además, la entropía de Gibbs es la única entropía que es equivalente a la entropía clásica de la "máquina térmica" bajo los siguientes postulados: [3]

  1. La función de densidad de probabilidad es proporcional a alguna función de los parámetros del conjunto y las variables aleatorias.
  2. Las funciones de estado termodinámicas se describen mediante promedios de conjuntos de variables aleatorias.
  3. A temperatura infinita, todos los microestados tienen la misma probabilidad.

Conjuntos

Los diversos conjuntos utilizados en la termodinámica estadística están vinculados a la entropía mediante las siguientes relaciones: [ aclaración necesaria ]

El orden a través del caos y la segunda ley de la termodinámica

Podemos pensar en Ω como una medida de nuestra falta de conocimiento sobre un sistema. Para ilustrar esta idea, considere un conjunto de 100 monedas , cada una de las cuales es cara o cruz . En este ejemplo, supongamos que los macroestados se especifican por el número total de caras y cruces, mientras que los microestados se especifican por las caras de cada moneda individual (es decir, el orden exacto en el que aparecen caras y cruces). Para los macroestados de 100 caras o 100 cruces, hay exactamente una configuración posible, por lo que nuestro conocimiento del sistema es completo. En el extremo opuesto, el macroestado que nos da el menor conocimiento sobre el sistema consiste en 50 caras y 50 cruces en cualquier orden, para lo cual hay100 891 344 545 564 193 334 812 497 256 ( 100 elige 50 ) ≈ 10 29 posibles microestados.

Incluso cuando un sistema está completamente aislado de influencias externas, su microestado está cambiando constantemente. Por ejemplo, las partículas en un gas están en constante movimiento, y por lo tanto ocupan una posición diferente en cada momento del tiempo; sus momentos también están cambiando constantemente a medida que chocan entre sí o con las paredes del recipiente. Supongamos que preparamos el sistema en un estado de equilibrio artificialmente altamente ordenado. Por ejemplo, imaginemos dividir un recipiente con un tabique y colocar un gas en un lado del tabique, con el vacío en el otro lado. Si quitamos el tabique y observamos el comportamiento posterior del gas, encontraremos que su microestado evoluciona de acuerdo con algún patrón caótico e impredecible, y que en promedio estos microestados corresponderán a un macroestado más desordenado que antes. Es posible , pero extremadamente improbable , que las moléculas de gas reboten entre sí de tal manera que permanezcan en una mitad del recipiente. Es abrumadoramente probable que el gas se distribuya para llenar el recipiente de manera uniforme, que es el nuevo macroestado de equilibrio del sistema.

Este es un ejemplo que ilustra la segunda ley de la termodinámica :

La entropía total de cualquier sistema termodinámico aislado tiende a aumentar con el tiempo, acercándose a un valor máximo .

Desde su descubrimiento, esta idea ha sido objeto de una gran cantidad de reflexiones, algunas de ellas confusas. Un punto de confusión principal es el hecho de que la Segunda Ley se aplica únicamente a sistemas aislados . Por ejemplo, la Tierra no es un sistema aislado porque recibe constantemente energía en forma de luz solar . En cambio, el universo puede considerarse un sistema aislado, de modo que su entropía total aumenta constantemente. (Necesita una aclaración. Véase: Segunda ley de la termodinámica#cite note-Grandy 151-21 )

Conteo de microestados

En la mecánica estadística clásica , el número de microestados es en realidad incontablemente infinito , ya que las propiedades de los sistemas clásicos son continuas. Por ejemplo, un microestado de un gas ideal clásico se especifica por las posiciones y los momentos de todos los átomos, que varían continuamente a lo largo de los números reales . Si queremos definir Ω, tenemos que idear un método para agrupar los microestados para obtener un conjunto contable. Este procedimiento se conoce como granulado grueso . En el caso del gas ideal, contamos dos estados de un átomo como el "mismo" estado si sus posiciones y momentos están dentro de δx y δp entre sí. Dado que los valores de δx y δp se pueden elegir arbitrariamente, la entropía no está definida de forma única. Se define solo hasta una constante aditiva. (Como veremos, la definición termodinámica de la entropía también se define solo hasta una constante).

Para evitar el granulado grueso se puede tomar la entropía tal como se define en el teorema H. ​​[4]

Sin embargo, esta ambigüedad se puede resolver con la mecánica cuántica . El estado cuántico de un sistema se puede expresar como una superposición de estados "base", que se pueden elegir como estados propios de energía (es decir, estados propios del hamiltoniano cuántico ). Por lo general, los estados cuánticos son discretos, aunque puede haber un número infinito de ellos. Para un sistema con cierta energía especificada E , se toma Ω como el número de estados propios de energía dentro de un rango de energía macroscópicamente pequeño entre E y E + δE . En el límite termodinámico , la entropía específica se vuelve independiente de la elección de δE .

Un resultado importante, conocido como el teorema de Nernst o la tercera ley de la termodinámica , establece que la entropía de un sistema a temperatura absoluta cero es una constante bien definida. Esto se debe a que un sistema a temperatura cero existe en su estado de energía más baja, o estado fundamental , de modo que su entropía está determinada por la degeneración del estado fundamental. Muchos sistemas, como las redes cristalinas , tienen un estado fundamental único y (como ln(1) = 0 ) esto significa que tienen entropía cero en el cero absoluto. Otros sistemas tienen más de un estado con la misma energía más baja y tienen una "entropía de punto cero" que no desaparece. Por ejemplo, el hielo ordinario tiene una entropía de punto cero de3,41 J/(mol⋅K) , porque su estructura cristalina subyacente posee múltiples configuraciones con la misma energía (un fenómeno conocido como frustración geométrica ).

La tercera ley de la termodinámica establece que la entropía de un cristal perfecto en el cero absoluto (0  K ) es cero. Esto significa que casi todo movimiento molecular debería cesar. La ecuación del oscilador para predecir los niveles vibracionales cuantizados muestra que incluso cuando el número cuántico vibracional es 0, la molécula aún tiene energía vibracional [ cita requerida ] :

donde es la constante de Planck, es la frecuencia característica de la vibración y es el número cuántico vibracional. Incluso cuando (la energía del punto cero ), no es igual a 0, en cumplimiento del principio de incertidumbre de Heisenberg .

Véase también

Referencias

  1. ^ ab ET Jaynes; Entropías de Gibbs frente a Boltzmann; Revista estadounidense de física, 391 (1965); https://doi.org/10.1119/1.1971557
  2. ^ Gao, Xiang; Gallicchio, Emilio; Roitberg, Adrian (2019). "La distribución de Boltzmann generalizada es la única distribución en la que la entropía de Gibbs-Shannon es igual a la entropía termodinámica". The Journal of Chemical Physics . 151 (3): 034113. arXiv : 1903.02121 . Bibcode :2019JChPh.151c4113G. doi :10.1063/1.5111333. PMID  31325924. S2CID  118981017.
  3. ^ Gao, Xiang (marzo de 2022). "Las matemáticas de la teoría de conjuntos". Resultados en Física . 34 : 105230. arXiv : 2006.00485 . Código Bibliográfico :2022ResPh..3405230G. doi : 10.1016/j.rinp.2022.105230 . S2CID  221978379.
  4. ^ Boltzmann, Ludwig (enero de 1995). Lecciones sobre teoría de los gases . Courier Corporation. ISBN 0-486-68455-5.