stringtranslate.com

Entropía de mezcla

En termodinámica , la entropía de mezcla es el aumento de la entropía total cuando varios sistemas inicialmente separados de diferente composición, cada uno en un estado termodinámico de equilibrio interno, se mezclan sin reacción química mediante la operación termodinámica de eliminación de la(s) partición(es) impermeable(s) entre ellos, seguida de un tiempo para el establecimiento de un nuevo estado termodinámico de equilibrio interno en el nuevo sistema cerrado no particionado.

En general, la mezcla puede estar restringida a que ocurra bajo diversas condiciones prescritas. En las condiciones prescritas habitualmente, los materiales están inicialmente a una temperatura y presión comunes, y el nuevo sistema puede cambiar su volumen, mientras se mantiene a esa misma temperatura, presión y masas de componentes químicos constantes. El volumen disponible para que cada material explore se incrementa, desde el de su compartimento inicialmente separado, hasta el volumen final común total. El volumen final no necesita ser la suma de los volúmenes inicialmente separados, de modo que se puede realizar trabajo sobre o por el nuevo sistema cerrado durante el proceso de mezcla, así como transferir calor hacia o desde los alrededores, debido al mantenimiento de presión y temperatura constantes.

La energía interna del nuevo sistema cerrado es igual a la suma de las energías internas de los sistemas inicialmente separados. Los valores de referencia para las energías internas deben especificarse de manera que se limite a ello, manteniendo también que las energías internas sean proporcionales respectivamente a las masas de los sistemas. [1]

Para mayor concisión en este artículo, el término "material ideal" se utiliza para referirse a un gas ideal (mezcla) o a una solución ideal .

En el caso especial de la mezcla de materiales ideales, el volumen común final es, de hecho, la suma de los volúmenes iniciales de los compartimentos separados. No hay transferencia de calor y no se realiza ningún trabajo. La entropía de la mezcla se explica completamente por la expansión difusiva de cada material en un volumen final que inicialmente no era accesible para él.

Sin embargo, en el caso general de la mezcla de materiales no ideales, el volumen común final total puede ser diferente de la suma de los volúmenes iniciales separados, y puede producirse transferencia de trabajo o calor hacia o desde el entorno; también puede haber una desviación de la entropía de la mezcla con respecto a la del caso ideal correspondiente. Esa desviación es la principal razón del interés por la entropía de la mezcla. Estas variables de energía y entropía y sus dependencias de la temperatura proporcionan información valiosa sobre las propiedades de los materiales.

A nivel molecular, la entropía de la mezcla es de interés porque es una variable macroscópica que proporciona información sobre las propiedades moleculares constitutivas . En los materiales ideales, las fuerzas intermoleculares son las mismas entre cada par de tipos moleculares, de modo que una molécula no siente ninguna diferencia entre otras moléculas de su mismo tipo y las de otro tipo. En materiales no ideales, puede haber diferencias de fuerzas intermoleculares o efectos moleculares específicos entre diferentes especies, aunque no reaccionen químicamente. La entropía de la mezcla proporciona información sobre las diferencias constitutivas de las fuerzas intermoleculares o los efectos moleculares específicos en los materiales.

El concepto estadístico de aleatoriedad se utiliza para la explicación mecánica estadística de la entropía de la mezcla. La mezcla de materiales ideales se considera aleatoria a nivel molecular y, en consecuencia, la mezcla de materiales no ideales puede ser no aleatoria.

Mezcla de especies ideales a temperatura y presión constantes

En las especies ideales, las fuerzas intermoleculares son las mismas entre cada par de tipos moleculares, de modo que una molécula no "siente" ninguna diferencia entre sí misma y sus vecinas moleculares. Este es el caso de referencia para examinar la mezcla correspondiente de especies no ideales.

Por ejemplo, dos gases ideales, a la misma temperatura y presión, están inicialmente separados por un tabique divisorio.

Al eliminar la partición divisoria, se expanden en un volumen común final (la suma de los dos volúmenes iniciales), y la entropía de la mezcla está dada por

donde es la constante de los gases , el número total de moles y la fracción molar del componente , que inicialmente ocupa el volumen . Después de la eliminación de la partición, los moles del componente pueden explorar el volumen combinado , lo que provoca un aumento de entropía igual a para cada gas componente.

En este caso, el aumento de la entropía se debe enteramente a los procesos irreversibles de expansión de los dos gases y no implica ningún flujo de calor o trabajo entre el sistema y sus alrededores.

Energía libre de Gibbs de mezcla

El cambio de energía libre de Gibbs determina si la mezcla a temperatura y presión constantes (absolutas) es un proceso espontáneo . Esta cantidad combina dos efectos físicos: la entalpía de mezcla , que es una medida del cambio de energía, y la entropía de mezcla considerada aquí.

Para una mezcla de gases ideal o una solución ideal , no existe entalpía de mezcla ( ), de modo que la energía libre de Gibbs de mezcla está dada únicamente por el término de entropía:

Para una solución ideal, la energía libre de Gibbs de la mezcla es siempre negativa, lo que significa que la mezcla de soluciones ideales siempre es espontánea. El valor más bajo se da cuando la fracción molar es 0,5 para una mezcla de dos componentes, o 1/n para una mezcla de n componentes.

La entropía de la mezcla para una solución ideal de dos especies se maximiza cuando la fracción molar de cada especie es 0,5.

Soluciones y dependencia de la temperatura de la miscibilidad.

Soluciones ideales y regulares

La ecuación anterior para la entropía de la mezcla de gases ideales es válida también para ciertas soluciones líquidas (o sólidas), aquellas formadas por una mezcla completamente aleatoria de modo que los componentes se mueven independientemente en el volumen total. Tal mezcla aleatoria de soluciones ocurre si las energías de interacción entre moléculas diferentes son similares a las energías de interacción promedio entre moléculas iguales. [2] : 149  [3] El valor de la entropía corresponde exactamente a la mezcla aleatoria para soluciones ideales y para soluciones regulares , y aproximadamente así para muchas soluciones reales. [3] [4]

Para mezclas binarias, la entropía de la mezcla aleatoria puede considerarse como una función de la fracción molar de un componente.

Para todas las mezclas posibles, , de modo que y son ambos negativos y la entropía de la mezcla es positiva y favorece la mezcla de los componentes puros.

La curvatura de en función de está dada por la segunda derivada

Esta curvatura es negativa para todas las mezclas posibles , de modo que la mezcla de dos soluciones para formar una solución de composición intermedia también aumenta la entropía del sistema. Por lo tanto, la mezcla aleatoria siempre favorece la miscibilidad y se opone a la separación de fases.

Para soluciones ideales, la entalpía de mezcla es cero, de modo que los componentes son miscibles en todas las proporciones. Para soluciones regulares, una entalpía de mezcla positiva puede causar una miscibilidad incompleta ( separación de fases para algunas composiciones) a temperaturas inferiores a la temperatura crítica superior de la solución (UCST). [2] : 186  Esta es la temperatura mínima a la que el término de la energía de Gibbs de la mezcla es suficiente para producir miscibilidad en todas las proporciones.

Sistemas con una temperatura crítica de solución más baja

La mezcla no aleatoria con una entropía de mezcla más baja puede ocurrir cuando las interacciones atractivas entre moléculas diferentes son significativamente más fuertes (o más débiles) que las interacciones medias entre moléculas similares. Para algunos sistemas, esto puede conducir a una temperatura crítica de solución (LCST) más baja o una temperatura límite más baja para la separación de fases.

Por ejemplo, la trietilamina y el agua son miscibles en todas las proporciones por debajo de los 19 °C, pero por encima de esta temperatura crítica, las soluciones de ciertas composiciones se separan en dos fases en equilibrio entre sí. [2] : 187  [5] Esto significa que es negativo para la mezcla de las dos fases por debajo de los 19 °C y positivo por encima de esta temperatura. Por lo tanto, es negativo para la mezcla de estas dos fases en equilibrio. Esto se debe a la formación de enlaces de hidrógeno atractivos entre los dos componentes que evitan la mezcla aleatoria. Las moléculas de trietilamina no pueden formar enlaces de hidrógeno entre sí, sino solo con moléculas de agua, por lo que en solución permanecen asociadas a las moléculas de agua con pérdida de entropía. La mezcla que ocurre por debajo de los 19 °C no se debe a la entropía sino a la entalpía de formación de los enlaces de hidrógeno.

En muchas mezclas de polímeros y disolventes también se dan temperaturas críticas de solución más bajas. [6] En el caso de sistemas polares como el ácido poliacrílico en 1,4-dioxano , esto suele deberse a la formación de enlaces de hidrógeno entre el polímero y el disolvente. En el caso de sistemas no polares como el poliestireno en ciclohexano , se ha observado una separación de fases en tubos sellados (a alta presión) a temperaturas que se aproximan al punto crítico líquido-vapor del disolvente. A tales temperaturas, el disolvente se expande mucho más rápidamente que el polímero, cuyos segmentos están unidos covalentemente. Por lo tanto, la mezcla requiere la contracción del disolvente para la compatibilidad del polímero, lo que da como resultado una pérdida de entropía. [6]

Explicación termodinámica estadística de la entropía de la mezcla de gases ideales

Dado que la entropía termodinámica puede relacionarse con la mecánica estadística o con la teoría de la información , es posible calcular la entropía de la mezcla utilizando estos dos enfoques. Aquí consideramos el caso simple de la mezcla de gases ideales.

Prueba de mecánica estadística

Supongamos que las moléculas de dos sustancias diferentes tienen aproximadamente el mismo tamaño y consideremos que el espacio está subdividido en una red cuadrada cuyas celdas tienen el tamaño de las moléculas (de hecho, cualquier red serviría, incluso la de empaquetamiento compacto ). Este es un modelo conceptual similar al cristal para identificar los centros de masa moleculares . Si las dos fases son líquidas, no hay incertidumbre espacial en cada una de ellas individualmente (esto es, por supuesto, una aproximación. Los líquidos tienen un "volumen libre". Por eso son (normalmente) menos densos que los sólidos ). En todas partes donde miremos en el componente 1, hay una molécula presente, y lo mismo ocurre con el componente 2. Después de que las dos sustancias diferentes se entremezclan (suponiendo que sean miscibles), el líquido sigue siendo denso en moléculas, pero ahora hay incertidumbre sobre qué tipo de molécula está en qué ubicación.Por supuesto, cualquier idea de identificar moléculas en ubicaciones determinadas es un experimento mental , no algo que uno pueda hacer, pero el cálculo de la incertidumbre está bien definido.

Podemos utilizar la ecuación de Boltzmann para el cambio de entropía aplicado al proceso de mezcla.

donde es la constante de Boltzmann . Luego calculamos el número de formas de organizar las moléculas del componente 1 y las moléculas del componente 2 en una red, donde

es el número total de moléculas y, por lo tanto, el número de sitios reticulares. Calculando el número de permutaciones de objetos, corrigiendo el hecho de que de ellos son idénticos entre sí, y lo mismo para ,

Después de aplicar la aproximación de Stirling para el factorial de un entero grande m:

,

El resultado es

donde hemos introducido las fracciones molares , que también son las probabilidades de encontrar cualquier componente particular en un sitio reticular dado.

Dado que la constante de Boltzmann , donde es la constante de Avogadro, y el número de moléculas , recuperamos la expresión termodinámica para la mezcla de dos gases ideales,

Esta expresión se puede generalizar a una mezcla de componentes, , con

La teoría de soluciones de Flory-Huggins es un ejemplo de un modelo más detallado en este sentido.

Relación con la teoría de la información

La entropía de la mezcla también es proporcional a la entropía de Shannon o incertidumbre compositiva de la teoría de la información , que se define sin requerir la aproximación de Stirling. Claude Shannon introdujo esta expresión para su uso en la teoría de la información , pero se pueden encontrar fórmulas similares desde el trabajo de Ludwig Boltzmann y J. Willard Gibbs . La incertidumbre de Shannon no es lo mismo que el principio de incertidumbre de Heisenberg en mecánica cuántica que se basa en la varianza. La entropía de Shannon se define como:

donde p i es la probabilidad de que una fuente de información produzca el i ésimo símbolo de un alfabeto de r símbolos y es independiente de los símbolos anteriores (por lo tanto, i va de 1 a r ). H es entonces una medida de la cantidad esperada de información (log p i ) que falta antes de que se conozca o mida el símbolo o, alternativamente, la cantidad esperada de información suministrada cuando se conoce el símbolo. El conjunto de mensajes de longitud N símbolos de la fuente tendrá entonces una entropía de NH .

La entropía termodinámica se debe únicamente a la incertidumbre posicional, por lo que podemos tomar el "alfabeto" como cualquiera de las r especies diferentes en el gas y, en equilibrio, la probabilidad de que una partícula dada sea del tipo i es simplemente la fracción molar x i para esa partícula. Como estamos tratando con gases ideales, la identidad de las partículas cercanas es irrelevante. Multiplicando por el número de partículas N obtenemos el cambio en la entropía de todo el sistema a partir del caso sin mezclar en el que todos los p i fueran 1 o 0. Nuevamente obtenemos la entropía de la mezcla al multiplicar por la constante de Boltzmann .

Por lo tanto, la entropía termodinámica con r especies químicas con un total de N partículas tiene un paralelo con una fuente de información que tiene r símbolos distintos con mensajes que tienen N símbolos de longitud.

Aplicación a gases

En los gases hay mucha más incertidumbre espacial porque la mayor parte de su volumen es simplemente espacio vacío. Podemos considerar que el proceso de mezcla permite que el contenido de los dos componentes originalmente separados se expanda en el volumen combinado de los dos recipientes unidos. Las dos redes que nos permiten localizar conceptualmente los centros de masa molecular también se unen. El número total de celdas vacías es la suma del número de celdas vacías en los dos componentes antes de la mezcla. En consecuencia, esa parte de la incertidumbre espacial relativa a si alguna molécula está presente en una celda de la red es la suma de los valores iniciales y no aumenta al "mezclarse".

Casi en todas partes donde miramos, encontramos celdas reticulares vacías. Sin embargo, encontramos moléculas en unas pocas celdas ocupadas. Cuando hay una mezcla real, para cada una de esas pocas celdas ocupadas, hay una incertidumbre contingente sobre qué tipo de molécula es. Cuando no hay una mezcla real porque las dos sustancias son idénticas, no hay incertidumbre sobre qué tipo de molécula es. Usando probabilidades condicionales , resulta que el problema analítico para el pequeño subconjunto de celdas ocupadas es exactamente el mismo que para líquidos mezclados, y el aumento en la entropía, o incertidumbre espacial, tiene exactamente la misma forma que la obtenida previamente. Obviamente, el subconjunto de celdas ocupadas no es el mismo en diferentes momentos. Pero solo cuando hay una mezcla real y se encuentra una celda ocupada nos preguntamos qué tipo de molécula hay allí.

Véase también: Paradoja de Gibbs , en la que parecería que "mezclar" dos muestras del mismo gas produciría entropía.

Aplicación a soluciones

Si el soluto es un sólido cristalino , el argumento es muy similar. Un cristal no tiene ninguna incertidumbre espacial, excepto por los defectos cristalográficos , y un cristal (perfecto) nos permite localizar las moléculas utilizando el grupo de simetría cristalina . El hecho de que los volúmenes no se sumen al disolver un sólido en un líquido no es importante para las fases condensadas . Si el soluto no es cristalino, aún podemos utilizar una red espacial, una aproximación tan buena para un sólido amorfo como para un líquido.

La teoría de la solución de Flory-Huggins proporciona la entropía de la mezcla para soluciones de polímeros , en las que las macromoléculas son enormes en comparación con las moléculas de disolvente. En este caso, se parte del supuesto de que cada subunidad monomérica en la cadena de polímeros ocupa un sitio reticular.

Obsérvese que los sólidos en contacto entre sí también se interdifunden lentamente y se pueden realizar mezclas sólidas de dos o más componentes a voluntad ( aleaciones , semiconductores , etc.). Nuevamente, se aplican las mismas ecuaciones para la entropía de la mezcla, pero solo para fases homogéneas y uniformes.

Mezcla bajo otras restricciones

Mezcla con y sin cambio de volumen disponible

En el uso habitual establecido, expresado en la sección introductoria de este artículo, la entropía de la mezcla proviene de dos mecanismos: la mezcla y las posibles interacciones de las distintas especies moleculares, y el cambio en el volumen disponible para cada especie molecular, o el cambio en la concentración de cada especie molecular. Para los gases ideales, la entropía de la mezcla a una temperatura y presión comunes prescritas no tiene nada que ver con la mezcla en el sentido de la mezcla y las interacciones de las especies moleculares, sino que solo tiene que ver con la expansión en el volumen común. [7] : 273 

Según Fowler y Guggenheim (1939/1965), [8] la combinación de los dos mecanismos recién mencionados para la entropía de la mezcla está bien establecida en la terminología habitual, pero puede ser confusa a menos que se tenga en cuenta que las variables independientes son la temperatura inicial y final comunes y la presión total; si se eligen las respectivas presiones parciales o el volumen total como variables independientes en lugar de la presión total, la descripción es diferente.

Mezcla con cada gas mantenido en un volumen parcial constante, con volumen total cambiante

En contraste con el uso habitual establecido, la "mezcla" podría realizarse de manera reversible a un volumen constante para cada una de dos masas fijas de gases de igual volumen, mezclándose mediante la fusión gradual de sus volúmenes inicialmente separados mediante el uso de dos membranas semipermeables ideales, cada una permeable sólo a uno de los respectivos gases, de modo que los respectivos volúmenes disponibles para cada gas permanezcan constantes durante la fusión. Se elige que una de las temperaturas o la presión comunes sean controladas independientemente por el experimentador, y se permite que la otra varíe de modo de mantener un volumen constante para cada masa de gas. En este tipo de "mezcla", el volumen común final es igual a cada uno de los respectivos volúmenes iniciales separados, y cada gas finalmente ocupa el mismo volumen que inicialmente. [9] [10] : 163–164  [11] : 217  [12] [13] [14]

Este tipo de "mezcla" de volumen constante, en el caso especial de los gases perfectos, se menciona en lo que a veces se denomina teorema de Gibbs. [9] [12] [14] Afirma que la entropía de dicha "mezcla" de gases perfectos es cero.

Mezcla a volumen total constante y volúmenes parciales cambiantes, con presión variable controlada mecánicamente y temperatura constante.

Se puede considerar una demostración experimental. Los dos gases distintos, en un cilindro de volumen total constante, están separados primero por dos pistones contiguos hechos respectivamente de dos membranas semipermeables ideales adecuadamente específicas. Idealmente, de manera lenta y ficticiamente reversible, a temperatura constante, se permite que los gases se mezclen en el volumen entre las membranas separadoras, forzándolas a separarse, suministrando así trabajo a un sistema externo. La energía para el trabajo proviene del depósito de calor que mantiene la temperatura constante. Luego, al forzar externamente idealmente, lentamente, las membranas separadoras para que vuelvan a estar contiguas, se realiza trabajo sobre los gases mezclados, separándolos nuevamente de manera ficticiamente reversible, de modo que el calor regresa al depósito de calor a temperatura constante. Debido a que la mezcla y la separación son idealmente lentas y ficticiamente reversibles, el trabajo suministrado por los gases mientras se mezclan es igual al trabajo realizado al separarlos nuevamente. Pasando de la reversibilidad ficticia a la realidad física, cierta cantidad de trabajo adicional, que permanece externa a los gases y al depósito de calor, debe ser proporcionada desde una fuente externa para este ciclo, como lo requiere la segunda ley de la termodinámica, porque este ciclo tiene solo un depósito de calor a temperatura constante, y la provisión externa de trabajo no puede ser completamente eficiente. [10] : 163–164 

Paradoja de Gibbs: “mezcla” de especies idénticas versus mezcla de especies muy similares pero no idénticas

Para que exista entropía de mezcla, las especies moleculares que supuestamente se mezclan deben ser química o físicamente detectables distintas. De ahí surge la llamada paradoja de Gibbs , como sigue. Si las especies moleculares son idénticas, no hay cambio de entropía al mezclarlas, porque, definido en términos termodinámicos, no hay transferencia de masa y, por lo tanto, no hay proceso de mezcla reconocido termodinámicamente. Sin embargo, la más mínima diferencia detectable en las propiedades constitutivas entre las dos especies produce un proceso de transferencia reconocido termodinámicamente con la mezcla y un cambio de entropía posiblemente considerable, es decir, la entropía de mezcla.

La "paradoja" surge porque cualquier distinción constitutiva detectable, por mínima que sea, puede llevar a un cambio considerablemente grande en la cantidad de entropía como resultado de la mezcla. Aunque un cambio continuo en las propiedades de los materiales que se mezclan podría hacer que el grado de diferencia constitutiva tienda continuamente a cero, el cambio de entropía, no obstante, desaparecería de manera discontinua cuando la diferencia llegara a cero. [15] : 87 

Desde un punto de vista físico general, esta discontinuidad es paradójica, pero desde un punto de vista específicamente termodinámico no lo es, porque en esa disciplina no se cuestiona el grado de diferencia constitutiva; o está o no está. El propio Gibbs no lo veía como paradójico. La distinguibilidad de dos materiales es una diferencia constitutiva, no termodinámica, porque las leyes de la termodinámica son las mismas para todos los materiales, mientras que sus características constitutivas son diversas. [16]

Aunque se podría imaginar una disminución continua de la diferencia constitutiva entre dos sustancias químicas cualesquiera, físicamente no puede disminuirse continuamente hasta que realmente desaparezca. [10] : 164  [17] [nota 1] Es difícil pensar en una diferencia menor que la que existe entre el hidrógeno orto y el parahidrógeno. Sin embargo, difieren en una cantidad finita. La hipótesis de que la distinción podría tender continuamente a cero no es física. Esto no se examina ni se explica mediante la termodinámica. Las diferencias de constitución se explican mediante la mecánica cuántica, que postula la discontinuidad de los procesos físicos. [18]

Para que se pueda detectar una distinción, deben estar físicamente disponibles algunos medios. Uno de ellos, en teoría, sería una membrana semipermeable ideal. [11] : 217  Debería permitir el paso, hacia atrás y hacia adelante, de una especie, mientras que se impide por completo el paso de la otra. La prevención en su totalidad debería incluir una eficacia perfecta durante un tiempo prácticamente infinito, en vista de la naturaleza del equilibrio termodinámico. Incluso la más mínima desviación de la idealidad, evaluada durante un tiempo finito, se extendería a la no idealidad absoluta, evaluada durante un tiempo prácticamente infinito. Fenómenos cuánticos como el efecto túnel aseguran que la naturaleza no permite una idealidad de membrana tal que apoyaría la disminución continua, hasta cero, teóricamente exigida de la distinción detectable. La disminución hasta cero de la distinción detectable debe ser discontinua.

En el caso de los gases ideales, la entropía de la mezcla no depende del grado de diferencia entre las distintas especies moleculares, sino sólo del hecho de que son distintas; en el caso de los gases no ideales, la entropía de la mezcla puede depender del grado de diferencia entre las distintas especies moleculares. La sugerida o supuesta "mezcla" de especies moleculares idénticas no es en absoluto una mezcla en términos termodinámicos, porque la termodinámica se refiere a estados especificados por variables de estado y no permite un etiquetado imaginario de partículas. Sólo si las especies moleculares son diferentes hay mezcla en el sentido termodinámico. [19] [11] : 217–218  [20] [7] : 274, 516–517  [21] [22]

Véase también

Notas

  1. ^ Partington (1949) cita a Larmor (1929).

Referencias

  1. ^ Prigogine, I. (1955/1967). Introducción a la termodinámica de procesos irreversibles , tercera edición, Interscience Publishers, Nueva York, pág. 12.
  2. ^ abc Atkins, PW , de Paula, J. (2006). Atkins' Physical Chemistry , octava edición, WH Freeman, Nueva York, ISBN  978-0-7167-8759-4 .
  3. ^ ab K. Denbigh, "Los principios del equilibrio químico" (3.ª ed., Cambridge University Press 1971) pág. 432
  4. ^ PA Rock "Termodinámica química. Principios y aplicaciones". (MacMillan 1969) p.263
  5. ^ MA White, "Propiedades de los materiales" (Oxford University Press 1999) p.175
  6. ^ ab Cowie, JMG "Polímeros: química y física de los materiales modernos" (2.ª ed., Blackie 1991) págs. 174-176
  7. ^ ab Bailyn, M. (1994). Un estudio de la termodinámica , Instituto Americano de Física, Nueva York, ISBN 0-88318-797-3
  8. ^ Fowler, R., Guggenheim, EA (1939/1965). Termodinámica estadística. Una versión de Mecánica estadística para estudiantes de física y química , Cambridge University Press, Cambridge, Reino Unido, páginas 163-164
  9. ^ ab Planck, M. (1897/1903). Tratado de termodinámica , traducido con la autorización del autor por Alexander Ogg, Longmans, Green and Co., Londres, Secciones 235-236.
  10. ^ abc Partington, JR (1949). Tratado avanzado de química física , volumen 1, Principios fundamentales. Propiedades de los gases , Longmans, Green, and Co., Londres.
  11. ^ abc Adkins, CJ (1983) [1963]. Termodinámica del equilibrio (3.ª ed.). Londres: McGraw-Hill. ISBN 0-521-25445-0.OCLC 9132054  .
  12. ^ ab Callen, HB (1960/1985). Termodinámica y una introducción a la termoestadística , segunda edición, Wiley, Nueva York, ISBN 981-253-185-8 , páginas 69-70. 
  13. ^ Buchdahl, HA (1966). Los conceptos de la termodinámica clásica , Cambridge University Press, Londres, páginas 170-171.
  14. ^ ab Iribarne, JV, Godson, WL (1973/1981), Termodinámica atmosférica , segunda edición, D. Reidel, Kluwer Academic Publishers, Dordrecht, ISBN 90-277-1296-4 , páginas 48-49. 
  15. ^ ter Haar, D. , Wergeland, H. (1966). Elementos de termodinámica , Addison-Wesley Publishing, Reading MA.
  16. ^ Truesdell, C. (1969). Termodinámica racional: un curso de conferencias sobre temas seleccionados , McGraw-Hill Book Company, Nueva York, pág. 6.
  17. ^ Larmor, J. (1929), Documentos matemáticos y físicos , volumen 2, Cambridge University Press, Cambridge, Reino Unido, pág. 99.
  18. ^ Landé, A. (1955). Fundamentos de la mecánica cuántica: un estudio sobre continuidad y simetría , Yale University Press, New Haven, pág. 10.
  19. ^ Tolman, RC (1938). Los principios de la mecánica estadística , Oxford University Press, Oxford, páginas 626-628.
  20. ^ Landsberg, PT (1978). Termodinámica y mecánica estadística , Oxford University Press, Oxford, ISBN 0-19-851142-6 , página 74. 
  21. ^ Grandy, WT, Jr (2008). Entropía y evolución temporal de sistemas macroscópicos , Oxford University Press, Oxford, ISBN 978-0-19-954617-6 , páginas 60-62. 
  22. ^ Kondepudi, D. (2008). Introducción a la termodinámica moderna , Wiley, Chichester, ISBN 978-0-470-01598-8 , páginas 197-199. 

Enlaces externos