stringtranslate.com

Entropía (termodinámica estadística)

El concepto de entropía fue desarrollado por primera vez por el físico alemán Rudolf Clausius a mediados del siglo XIX como una propiedad termodinámica que predice que ciertos procesos espontáneos son irreversibles o imposibles. En mecánica estadística , la entropía se formula como una propiedad estadística utilizando la teoría de la probabilidad . La perspectiva de la entropía estadística fue introducida en 1870 por el físico austriaco Ludwig Boltzmann , quien estableció un nuevo campo de la física que proporcionó el vínculo descriptivo entre la observación macroscópica de la naturaleza y la visión microscópica basada en el tratamiento riguroso de grandes conjuntos de estados microscópicos que constituyen la termodinámica. sistemas .

principio de Boltzmann

Ludwig Boltzmann definió la entropía como una medida del número de posibles estados microscópicos ( microestados ) de un sistema en equilibrio termodinámico , consistentes con sus propiedades termodinámicas macroscópicas, que constituyen el macroestado del sistema. Un ejemplo útil es el de una muestra de gas contenida en un recipiente. Los parámetros fácilmente mensurables volumen, presión y temperatura del gas describen su condición macroscópica ( estado ). A nivel microscópico, el gas está formado por una gran cantidad de átomos o moléculas que se mueven libremente , que chocan aleatoriamente entre sí y con las paredes del recipiente. Las colisiones con las paredes producen la presión macroscópica del gas, lo que ilustra la conexión entre los fenómenos microscópicos y macroscópicos.

Un microestado del sistema es una descripción de las posiciones y momentos de todas sus partículas. La gran cantidad de partículas del gas proporciona un número infinito de microestados posibles para la muestra, pero colectivamente exhiben un promedio de configuración bien definido, que se exhibe como el macroestado del sistema, al cual la contribución de cada microestado individual es insignificante. . El conjunto de microestados comprende una distribución estadística de probabilidad para cada microestado, y el grupo de configuraciones más probables representa el estado macroscópico. Por lo tanto, el sistema puede describirse como un todo mediante sólo unos pocos parámetros macroscópicos, llamados variables termodinámicas : la energía total E , el volumen V , la presión P , la temperatura T , etc. Sin embargo, esta descripción es relativamente simple sólo cuando el sistema está en estado de equilibrio.

El equilibrio puede ilustrarse con un ejemplo sencillo de una gota de colorante alimentario que cae en un vaso de agua. El tinte se difunde de una manera complicada, lo cual es difícil de predecir con precisión. Sin embargo, una vez transcurrido el tiempo suficiente, el sistema alcanza un color uniforme, un estado mucho más fácil de describir y explicar.

Boltzmann formuló una relación simple entre la entropía y el número de microestados posibles de un sistema, que se denota con el símbolo Ω . La entropía S es proporcional al logaritmo natural de este número:

La constante de proporcionalidad k B es una de las constantes fundamentales de la física y recibe el nombre de constante de Boltzmann en honor a su descubridor.

Dado que |Ω|es un número natural (1,2,3,...), la entropía es cero o positiva ( ln 1 = 0 , ln Ω ≥ 0 ).

La entropía de Boltzmann describe el sistema cuando todos los microestados accesibles son igualmente probables. Es la configuración correspondiente al máximo de entropía en equilibrio. La aleatoriedad o el desorden es máximo, y también lo es la falta de distinción (o información) de cada microestado.

La entropía es una propiedad termodinámica como la presión, el volumen o la temperatura. Por lo tanto, conecta la visión del mundo microscópica y macroscópica.

El principio de Boltzmann se considera la base de la mecánica estadística .

Fórmula de entropía de Gibbs

El estado macroscópico de un sistema se caracteriza por una distribución en los microestados . La entropía de esta distribución viene dada por la fórmula de entropía de Gibbs, que lleva el nombre de J. Willard Gibbs . Para un sistema clásico (es decir, una colección de partículas clásicas) con un conjunto discreto de microestados, si es la energía del microestado i y es la probabilidad de que ocurra durante las fluctuaciones del sistema, entonces la entropía del sistema es

Cambios de entropía para sistemas en un estado canónico.

Un sistema con una temperatura bien definida, es decir, uno en equilibrio térmico con un reservorio térmico, tiene una probabilidad de estar en un microestado i dada por la distribución de Boltzmann .

Los cambios en la entropía causados ​​por cambios en las restricciones externas vienen dados por:

donde hemos utilizado dos veces la conservación de la probabilidad, Σ dp i = 0 .

Ahora, Σ i d ( E i p i ) es el valor esperado del cambio en la energía total del sistema.

Si los cambios son lo suficientemente lentos como para que el sistema permanezca en el mismo estado microscópico, pero el estado cambia lentamente (y reversiblemente), entonces Σ i ( dE i ) p i es el valor esperado del trabajo realizado en el sistema a través de este proceso reversible, dw rev .

Pero según la primera ley de la termodinámica, dE = δw + δq . Por lo tanto,

En el límite termodinámico , la fluctuación de las cantidades macroscópicas respecto de sus valores medios se vuelve insignificante; entonces esto reproduce la definición de entropía de la termodinámica clásica, dada anteriormente.

La cantidad es una constante física conocida como constante de Boltzmann . El factor restante de la ecuación, la suma completa, es adimensional , ya que el valor es una probabilidad y por lo tanto adimensional, y el logaritmo es la base de la constante matemática adimensional e . Por lo tanto, las unidades derivadas del SI en ambos lados de la ecuación son las mismas que la capacidad calorífica :

Esta definición sigue siendo significativa incluso cuando el sistema está lejos del equilibrio. Otras definiciones suponen que el sistema se encuentra en equilibrio térmico , ya sea como sistema aislado , o como sistema en intercambio con su entorno. El conjunto de microestados (con distribución de probabilidad) sobre los que se realiza la suma se denomina conjunto estadístico . Cada tipo de conjunto estadístico (microcanónico, canónico, gran canónico, etc.) describe una configuración diferente de los intercambios del sistema con el exterior, variando desde un sistema completamente aislado hasta un sistema que puede intercambiar una o más cantidades con un depósito. , como energía, volumen o moléculas. En todo conjunto, la configuración de equilibrio del sistema está dictada por la maximización de la entropía de la unión del sistema y su reservorio, según la segunda ley de la termodinámica (ver el artículo de mecánica estadística ).

Descuidar las correlaciones (o, más generalmente, las dependencias estadísticas ) entre los estados de partículas individuales conducirá a una distribución de probabilidad incorrecta en los microestados y, por tanto, a una sobreestimación de la entropía. [1] Tales correlaciones ocurren en cualquier sistema con partículas que interactúan de manera no trivial, es decir, en todos los sistemas más complejos que un gas ideal .

Esta S se llama casi universalmente simplemente entropía . También se le puede llamar entropía estadística o entropía termodinámica sin cambiar el significado. Tenga en cuenta que la expresión anterior de la entropía estadística es una versión discretizada de la entropía de Shannon . La fórmula de entropía de von Neumann es una extensión de la fórmula de entropía de Gibbs al caso de la mecánica cuántica .

Se ha demostrado [1] que la entropía de Gibbs es igual a la entropía clásica del "motor térmico" caracterizada por , y la distribución generalizada de Boltzmann es una condición suficiente y necesaria para esta equivalencia. [2] Además, la entropía de Gibbs es la única entropía equivalente a la entropía clásica del "motor térmico" según los siguientes postulados: [3]

  1. La función de densidad de probabilidad es proporcional a alguna función de los parámetros del conjunto y las variables aleatorias.
  2. Las funciones de estado termodinámicas se describen mediante promedios conjuntos de variables aleatorias.
  3. A temperatura infinita, todos los microestados tienen la misma probabilidad.

conjuntos

Los diversos conjuntos utilizados en termodinámica estadística están vinculados a la entropía mediante las siguientes relaciones: [ se necesita aclaración ]

Orden a través del caos y la segunda ley de la termodinámica

Podemos pensar en Ω como una medida de nuestra falta de conocimiento sobre un sistema. Para ilustrar esta idea, considere un conjunto de 100 monedas , cada una de las cuales está cara o cruz . En este ejemplo, supongamos que los macroestados se especifican por el número total de caras y cruces, mientras que los microestados se especifican por las caras de cada moneda individual (es decir, el orden exacto en que aparecen caras y cruces). Para los macroestados de 100 caras o 100 colas, hay exactamente una configuración posible, por lo que nuestro conocimiento del sistema es completo. En el extremo opuesto, el macroestado que menos conocimiento nos da sobre el sistema consta de 50 caras y 50 cruces en cualquier orden, para lo cual hay 100.891.344.545.564.193.334.812.497.256 ( 100 eligen 50 ) ≈ 10 29 microestados posibles.

Incluso cuando un sistema está completamente aislado de influencias externas, su microestado cambia constantemente. Por ejemplo, las partículas de un gas se mueven constantemente y, por tanto, ocupan una posición diferente en cada momento; sus momentos también cambian constantemente cuando chocan entre sí o con las paredes del contenedor. Supongamos que preparamos el sistema en un estado de equilibrio artificialmente altamente ordenado. Por ejemplo, imagine dividir un recipiente con una partición y colocar un gas en un lado de la partición y un vacío en el otro lado. Si eliminamos la partición y observamos el comportamiento posterior del gas, encontraremos que su microestado evoluciona según algún patrón caótico e impredecible, y que en promedio estos microestados corresponderán a un macroestado más desordenado que antes. Es posible , pero extremadamente improbable , que las moléculas de gas reboten entre sí de tal manera que permanezcan en la mitad del recipiente. Es abrumadoramente probable que el gas se distribuya para llenar el recipiente de manera uniforme, que es el nuevo macroestado de equilibrio del sistema.

Este es un ejemplo que ilustra la segunda ley de la termodinámica :

La entropía total de cualquier sistema termodinámico aislado tiende a aumentar con el tiempo, acercándose a un valor máximo .

Desde su descubrimiento, esta idea ha sido el centro de muchas reflexiones, algunas de ellas confusas. Un principal punto de confusión es el hecho de que la Segunda Ley se aplica sólo a sistemas aislados . Por ejemplo, la Tierra no es un sistema aislado porque constantemente está recibiendo energía en forma de luz solar . Por el contrario, el universo puede considerarse un sistema aislado, de modo que su entropía total aumenta constantemente. (Necesita aclaración. Ver: Segunda ley de la termodinámica#citar nota-Grandy 151-21 )

Conteo de microestados

En la mecánica estadística clásica , el número de microestados es en realidad incontablemente infinito , ya que las propiedades de los sistemas clásicos son continuas. Por ejemplo, un microestado de un gas ideal clásico está especificado por las posiciones y momentos de todos los átomos, que varían continuamente en los números reales . Si queremos definir Ω, tenemos que idear un método para agrupar los microestados para obtener un conjunto contable. Este procedimiento se conoce como grano grueso . En el caso del gas ideal, contamos dos estados de un átomo como el "mismo" estado si sus posiciones y momentos están dentro de δx y δp entre sí. Dado que los valores de δx y δp pueden elegirse arbitrariamente, la entropía no está definida de forma única. Se define sólo hasta una constante aditiva. (Como veremos, la definición termodinámica de entropía también se define sólo hasta una constante).

Para evitar la definición gruesa , se puede tomar la entropía definida por el teorema H. [4]

Sin embargo, esta ambigüedad puede resolverse con la mecánica cuántica . El estado cuántico de un sistema se puede expresar como una superposición de estados "básicos", que pueden elegirse como estados propios de energía (es decir, estados propios del hamiltoniano cuántico ). Normalmente, los estados cuánticos son discretos, aunque pueda haber un número infinito de ellos. Para un sistema con cierta energía especificada E , se toma Ω como el número de estados propios de energía dentro de un rango de energía macroscópicamente pequeño entre E y E + δE . En el límite termodinámico , la entropía específica se vuelve independiente de la elección de δE .

Un resultado importante, conocido como teorema de Nernst o tercera ley de la termodinámica , establece que la entropía de un sistema a temperatura absoluta cero es una constante bien definida. Esto se debe a que un sistema a temperatura cero existe en su estado de menor energía, o estado fundamental , de modo que su entropía está determinada por la degeneración del estado fundamental. Muchos sistemas, como las redes cristalinas , tienen un estado fundamental único y (dado que ln(1) = 0 ) esto significa que tienen entropía cero en el cero absoluto. Otros sistemas tienen más de un estado con la misma energía más baja y tienen una "entropía de punto cero" que no desaparece. Por ejemplo, el hielo ordinario tiene una entropía de punto cero de3,41 J/(mol⋅K) , porque su estructura cristalina subyacente posee múltiples configuraciones con la misma energía (fenómeno conocido como frustración geométrica ).

La tercera ley de la termodinámica establece que la entropía de un cristal perfecto en el cero absoluto (0 kelvin ) es cero. Esto significa que casi todo el movimiento molecular debería cesar. La ecuación del oscilador para predecir niveles vibratorios cuantificados muestra que incluso cuando el número cuántico vibratorio es 0, la molécula todavía tiene energía vibratoria [ cita necesaria ] :

donde es la constante de Planck, es la frecuencia característica de la vibración y es el número cuántico vibratorio. Incluso cuando (la energía del punto cero ), no es igual a 0, de conformidad con el principio de incertidumbre de Heisenberg .

Ver también

Referencias

  1. ^ ab ET Jaynes; Entropías de Gibbs y Boltzmann; Revista Estadounidense de Física, 391 (1965); https://doi.org/10.1119/1.1971557
  2. ^ Gao, Xiang; Gallicchio, Emilio; Roitberg, Adrián (2019). "La distribución generalizada de Boltzmann es la única distribución en la que la entropía de Gibbs-Shannon es igual a la entropía termodinámica". La Revista de Física Química . 151 (3): 034113. arXiv : 1903.02121 . Código Bib :2019JChPh.151c4113G. doi : 10.1063/1.5111333. PMID  31325924. S2CID  118981017.
  3. ^ Gao, Xiang (marzo de 2022). "Las Matemáticas de la Teoría de Conjuntos". Resultados en Física . 34 : 105230. arXiv : 2006.00485 . Código Bib : 2022ResPh..3405230G. doi : 10.1016/j.rinp.2022.105230 . S2CID  221978379.
  4. ^ Boltzmann, Ludwig (enero de 1995). Conferencias sobre teoría de los gases . Corporación de mensajería. ISBN 0-486-68455-5.