stringtranslate.com

Relación termodinámica fundamental

En termodinámica , la relación termodinámica fundamental son cuatro ecuaciones fundamentales que demuestran cómo cuatro cantidades termodinámicas importantes dependen de variables que pueden controlarse y medirse experimentalmente. Por lo tanto, son esencialmente ecuaciones de estado y, utilizando las ecuaciones fundamentales, se pueden utilizar datos experimentales para determinar cantidades buscadas como G ( energía libre de Gibbs ) o H ( entalpía ). [1] La relación se expresa generalmente como un cambio microscópico en la energía interna en términos de cambios microscópicos en la entropía y el volumen para un sistema cerrado en equilibrio térmico de la siguiente manera.

Aquí, U es energía interna , T es temperatura absoluta , S es entropía , P es presión y V es volumen .

Ésta es sólo una expresión de la relación termodinámica fundamental. Puede expresarse de otras maneras, utilizando diferentes variables (por ejemplo, utilizando potenciales termodinámicos ). Por ejemplo, la relación fundamental puede expresarse en términos de la entalpía H como

en términos de la energía libre de Helmholtz F como

y en términos de la energía libre de Gibbs G como

.

La primera y segunda leyes de la termodinámica.

La primera ley de la termodinámica establece que:

donde y son cantidades infinitesimales de calor suministrada al sistema por sus alrededores y trabajo realizado por el sistema sobre sus alrededores, respectivamente.

Según la segunda ley de la termodinámica tenemos para un proceso reversible:

Por eso:

Sustituyendo esto en la primera ley, tenemos:

Sea el trabajo presión-volumen reversible realizado por el sistema en sus alrededores,

tenemos:

Esta ecuación se ha obtenido en el caso de cambios reversibles. Sin embargo, dado que U , S y V son funciones de estado termodinámico que dependen únicamente de los estados inicial y final de un proceso termodinámico, la relación anterior también es válida para cambios no reversibles. Si la composición, es decir las cantidades de los componentes químicos, en un sistema de temperatura y presión uniformes también puede cambiar, por ejemplo debido a una reacción química, la relación termodinámica fundamental se generaliza a:

Son los potenciales químicos correspondientes a partículas de tipo .

Si el sistema tiene más parámetros externos que solo el volumen que puede cambiar, la relación termodinámica fundamental se generaliza a

Aquí están las fuerzas generalizadas correspondientes a los parámetros externos . (El signo negativo usado con la presión es inusual y surge porque la presión representa un esfuerzo de compresión que tiende a disminuir el volumen. Otras fuerzas generalizadas tienden a aumentar sus desplazamientos conjugados).

Relación con la mecánica estadística

La relación termodinámica fundamental y los principios mecánicos estadísticos se pueden derivar uno del otro.

Derivación de principios mecánicos estadísticos.

La derivación anterior utiliza la primera y segunda leyes de la termodinámica. La primera ley de la termodinámica es esencialmente una definición de calor , es decir, el calor es el cambio en la energía interna de un sistema que no es causado por un cambio de los parámetros externos del sistema.

Sin embargo, la segunda ley de la termodinámica no es una relación definitoria de la entropía. La definición fundamental de entropía de un sistema aislado que contiene una cantidad de energía es:

donde es el número de estados cuánticos en un pequeño intervalo entre y . Aquí hay un intervalo de energía macroscópicamente pequeño que se mantiene fijo. Estrictamente hablando, esto significa que la entropía depende de la elección de . Sin embargo, en el límite termodinámico (es decir, en el límite de un tamaño de sistema infinitamente grande), la entropía específica (entropía por unidad de volumen o por unidad de masa) no depende de . La entropía es, por tanto, una medida de la incertidumbre sobre exactamente en qué estado cuántico se encuentra el sistema, dado que sabemos que su energía está en algún intervalo de tamaño .

Por tanto, derivar la relación termodinámica fundamental a partir de los primeros principios equivale a demostrar que la definición anterior de entropía implica que para procesos reversibles tenemos:

El supuesto fundamental de la mecánica estadística es que todos los estados con una energía particular son igualmente probables. Esto nos permite extraer todas las cantidades termodinámicas de interés. La temperatura se define como:

Esta definición se puede derivar del conjunto microcanónico , que es un sistema de un número constante de partículas, un volumen constante y que no intercambia energía con su entorno. Supongamos que el sistema tiene algún parámetro externo, x, que se puede cambiar. En general, los estados propios de energía del sistema dependerán de  x . Según el teorema adiabático de la mecánica cuántica, en el límite de un cambio infinitamente lento del hamiltoniano del sistema, el sistema permanecerá en el mismo estado propio de energía y, por lo tanto, cambiará su energía de acuerdo con el cambio de energía del estado propio de energía en el que se encuentra.

La fuerza generalizada, X , correspondiente al parámetro externo x se define de manera que es el trabajo realizado por el sistema si x aumenta en una cantidad  dx . Por ejemplo, si x es el volumen, entonces X es la presión. La fuerza generalizada para un sistema que se sabe que está en estado propio de energía está dada por:

Dado que el sistema puede estar en cualquier estado propio de energía dentro de un intervalo de , definimos la fuerza generalizada para el sistema como el valor esperado de la expresión anterior:

Para evaluar el promedio, dividimos los estados propios de energía contando cuántos de ellos tienen un valor dentro de un rango entre y . Llamando a este número tenemos:

El promedio que define la fuerza generalizada ahora se puede escribir:

Podemos relacionar esto con la derivada de la entropía con respecto a x a energía constante E de la siguiente manera. Supongamos que cambiamos x por x  +  dx . Entonces cambiará porque los estados propios de energía dependen de x, lo que hace que los estados propios de energía se muevan dentro o fuera del rango entre y . Centrémonos nuevamente en los estados propios de energía que se encuentran dentro del rango entre y . Dado que estos estados propios de energía aumentan en energía en Y dx , todos esos estados propios de energía que están en el intervalo que va desde E  −  Y dx a E se mueven desde debajo de E hasta arriba de E. Hay 

tales estados propios de energía. Si , todos estos estados propios de energía se moverán al rango entre y y contribuirán a un aumento en . El número de estados propios de energía que se mueven de abajo hacia arriba está, por supuesto, dado por . La diferencia

es, por tanto, la contribución neta al aumento de . Tenga en cuenta que si Y dx es mayor que habrá estados propios de energía que se moverán de abajo hacia arriba . Se cuentan en ambos y , por lo tanto la expresión anterior también es válida en ese caso.

Expresando la expresión anterior como una derivada con respecto a E y sumando Y se obtiene la expresión:

La derivada logarítmica de con respecto a x viene dada por:

El primer término es intensivo, es decir, no escala con el tamaño del sistema. Por el contrario, el último término aumenta a medida que el tamaño del sistema inverso y, por lo tanto, desaparece en el límite termodinámico. Así hemos encontrado que:

Combinando esto con

Da:

que podemos escribir como:

Derivación de principios mecánicos estadísticos a partir de la relación termodinámica fundamental.

Se ha demostrado que la relación termodinámica fundamental junto con los tres postulados siguientes [2]

  1. La función de densidad de probabilidad es proporcional a alguna función de los parámetros del conjunto y las variables aleatorias.
  2. Las funciones de estado termodinámicas se describen mediante promedios conjuntos de variables aleatorias.
  3. La entropía definida por la fórmula de entropía de Gibbs coincide con la entropía definida en la termodinámica clásica .

es suficiente para construir la teoría de la mecánica estadística sin el postulado de igual probabilidad a priori.

Por ejemplo, para derivar la distribución de Boltzmann , asumimos que la densidad de probabilidad del microestado i satisface . Por lo tanto, el factor de normalización (función de partición) es

Por tanto, la entropía viene dada por

Si cambiamos la temperatura T por dT mientras mantenemos constante el volumen del sistema, el cambio de entropía satisface

dónde

Teniendo en cuenta que

tenemos

De la relación termodinámica fundamental, tenemos

Como mantuvimos V constante al perturbar T , tenemos . Combinando las ecuaciones anteriores, tenemos

Las leyes de la física deben ser universales, es decir, la ecuación anterior debe ser válida para sistemas arbitrarios, y la única manera de que esto suceda es

Eso es

Se ha demostrado que el tercer postulado del formalismo anterior puede sustituirse por el siguiente: [3]

  1. A temperatura infinita, todos los microestados tienen la misma probabilidad.

Sin embargo, la derivación matemática será mucho más complicada.

Referencias

  1. ^ "Formas diferenciales de ecuaciones fundamentales". LibreTexts de Química . 2 de octubre de 2013.
  2. ^ Gao, Xiang; Gallicchio, Emilio; Roitberg, Adrián (2019). "La distribución generalizada de Boltzmann es la única distribución en la que la entropía de Gibbs-Shannon es igual a la entropía termodinámica". La Revista de Física Química . 151 (3): 034113. arXiv : 1903.02121 . Código Bib :2019JChPh.151c4113G. doi : 10.1063/1.5111333. PMID  31325924. S2CID  118981017.
  3. ^ Gao, Xiang (marzo de 2022). "Las Matemáticas de la Teoría de Conjuntos". Resultados en Física . 34 : 105230. arXiv : 2006.00485 . Código Bib : 2022ResPh..3405230G. doi : 10.1016/j.rinp.2022.105230 . S2CID  221978379.

enlaces externos