stringtranslate.com

Entropía de mezcla

En termodinámica , la entropía de mezcla es el aumento de la entropía total cuando varios sistemas inicialmente separados de diferente composición, cada uno en un estado termodinámico de equilibrio interno, se mezclan sin reacción química mediante la operación termodinámica de eliminación de la(s) partición(es) impermeable(s) entre ellos, seguido de un tiempo para el establecimiento de un nuevo estado termodinámico de equilibrio interno en el nuevo sistema cerrado no dividido.

En general, se puede obligar a que la mezcla se produzca bajo diversas condiciones prescritas. En las condiciones habitualmente prescritas, cada uno de los materiales se encuentra inicialmente a una temperatura y presión comunes, y el nuevo sistema puede cambiar su volumen, mientras se mantiene a la misma temperatura, presión y masas de componentes químicos constantes. Se incrementa el volumen disponible de cada material a explorar, desde el de su compartimento inicialmente separado, hasta el volumen final total común. El volumen final no necesita ser la suma de los volúmenes inicialmente separados, de modo que se puede realizar trabajo sobre o por el nuevo sistema cerrado durante el proceso de mezcla, así como también transferir calor hacia o desde los alrededores, debido al mantenimiento de presión y temperatura constantes.

La energía interna del nuevo sistema cerrado es igual a la suma de las energías internas de los sistemas inicialmente separados. Los valores de referencia para las energías internas deben especificarse de manera que se requiera que así sea, manteniendo también que las energías internas sean respectivamente proporcionales a las masas de los sistemas. [1]

Para ser conciso en este artículo, el término "material ideal" se utiliza para referirse a un gas ideal (mezcla) o a una solución ideal .

En el caso especial de mezclar materiales ideales, el volumen común final es de hecho la suma de los volúmenes iniciales de los compartimentos separados. No hay transferencia de calor y no se realiza ningún trabajo. La entropía de la mezcla se explica enteramente por la expansión difusiva de cada material en un volumen final al que inicialmente no tiene acceso.

Sin embargo, en el caso general de mezclar materiales no ideales, el volumen común final total puede ser diferente de la suma de los volúmenes iniciales separados, y puede ocurrir transferencia de trabajo o calor hacia o desde los alrededores; también puede haber una desviación de la entropía de la mezcla con respecto a la del caso ideal correspondiente. Esa desviación es la principal razón del interés por la entropía de la mezcla. Estas variables de energía y entropía y sus dependencias con la temperatura proporcionan información valiosa sobre las propiedades de los materiales.

A nivel molecular, la entropía de la mezcla es de interés porque es una variable macroscópica que proporciona información sobre las propiedades moleculares constitutivas . En los materiales ideales, las fuerzas intermoleculares son las mismas entre cada par de tipos moleculares, de modo que una molécula no siente diferencia entre otras moléculas de su propio tipo y las del otro tipo. En materiales no ideales, puede haber diferencias de fuerzas intermoleculares o efectos moleculares específicos entre diferentes especies, aunque no reaccionen químicamente. La entropía de la mezcla proporciona información sobre diferencias constitutivas de fuerzas intermoleculares o efectos moleculares específicos en los materiales.

El concepto estadístico de aleatoriedad se utiliza para la explicación mecánica estadística de la entropía de la mezcla. La mezcla de materiales ideales se considera aleatoria a nivel molecular y, en consecuencia, la mezcla de materiales no ideales puede no ser aleatoria.

Mezcla de especies ideales a temperatura y presión constantes.

En las especies ideales, las fuerzas intermoleculares son las mismas entre cada par de tipos moleculares, de modo que una molécula no "siente" ninguna diferencia entre ella misma y sus vecinas moleculares. Este es el caso de referencia para examinar la mezcla correspondiente de especies no ideales.

Por ejemplo, dos gases ideales, a la misma temperatura y presión, están inicialmente separados por un tabique divisorio.

Al eliminar la partición divisoria, se expanden hasta formar un volumen común final (la suma de los dos volúmenes iniciales), y la entropía de la mezcla viene dada por

donde es la constante de los gases , el número total de moles y la fracción molar del componente que inicialmente ocupa volumen . Después de la eliminación de la partición, los moles del componente pueden explorar el volumen combinado , lo que provoca un aumento de entropía igual a para cada gas componente.

En este caso, el aumento de entropía se debe enteramente a los procesos irreversibles de expansión de los dos gases, y no implica flujo de calor ni de trabajo entre el sistema y su entorno.

Energía libre de Gibbs de mezcla.

El cambio de energía libre de Gibbs determina si la mezcla a temperatura y presión constantes (absolutas) es un proceso espontáneo . Esta cantidad combina dos efectos físicos: la entalpía de mezcla , que es una medida del cambio de energía, y la entropía de mezcla que se considera aquí.

Para una mezcla de gases ideal o una solución ideal , no hay entalpía de mezcla ( ), de modo que la energía libre de mezcla de Gibbs viene dada únicamente por el término de entropía:

Para una solución ideal, la energía libre de Gibbs de mezcla es siempre negativa, lo que significa que la mezcla de soluciones ideales siempre es espontánea. El valor más bajo es cuando la fracción molar es 0,5 para una mezcla de dos componentes, o 1/n para una mezcla de n componentes.

La entropía de mezcla para una solución ideal de dos especies se maximiza cuando la fracción molar de cada especie es 0,5.

Soluciones y dependencia de la temperatura de la miscibilidad.

Soluciones ideales y habituales.

La ecuación anterior para la entropía de la mezcla de gases ideales es válida también para ciertas soluciones líquidas (o sólidas), aquellas formadas por una mezcla completamente aleatoria de modo que los componentes se mueven independientemente en el volumen total. Esta mezcla aleatoria de soluciones ocurre si las energías de interacción entre moléculas diferentes son similares a las energías de interacción promedio entre moléculas similares. [2] : 149  [3] El valor de la entropía corresponde exactamente a la mezcla aleatoria para soluciones ideales y para soluciones regulares , y aproximadamente para muchas soluciones reales. [3] [4]

Para mezclas binarias, la entropía de la mezcla aleatoria se puede considerar como una función de la fracción molar de un componente.

Para todas las mezclas posibles, , de modo que y sean negativos y la entropía de la mezcla sea positiva y favorezca la mezcla de los componentes puros.

Además, la curvatura de en función de está dada por la segunda derivada.

Esta curvatura es negativa para todas las mezclas posibles , de modo que mezclar dos soluciones para formar una solución de composición intermedia también aumenta la entropía del sistema. Por tanto, la mezcla aleatoria siempre favorece la miscibilidad y se opone a la separación de fases.

Para soluciones ideales, la entalpía de mezcla es cero para que los componentes sean miscibles en todas las proporciones. Para soluciones regulares, una entalpía positiva de mezcla puede causar una miscibilidad incompleta (separación de fases para algunas composiciones) a temperaturas por debajo de la temperatura crítica superior de la solución (UCST). [2] : 186  Ésta es la temperatura mínima a la que el término de la energía de mezcla de Gibbs es suficiente para producir miscibilidad en todas las proporciones.

Sistemas con una temperatura de solución crítica más baja.

La mezcla no aleatoria con una entropía de mezcla más baja puede ocurrir cuando las interacciones atractivas entre moléculas diferentes son significativamente más fuertes (o más débiles) que las interacciones medias entre moléculas similares. Para algunos sistemas, esto puede conducir a una temperatura crítica de solución (LCST) más baja o una temperatura límite más baja para la separación de fases.

Por ejemplo, la trietilamina y el agua son miscibles en todas las proporciones por debajo de 19 °C, pero por encima de esta temperatura crítica, las soluciones de ciertas composiciones se separan en dos fases en equilibrio entre sí. [2] : 187  [5] Esto significa que es negativo para la mezcla de las dos fases por debajo de 19 °C y positivo por encima de esta temperatura. Por lo tanto, es negativo para la mezcla de estas dos fases de equilibrio. Esto se debe a la formación de enlaces de hidrógeno atractivos entre los dos componentes que impiden la mezcla aleatoria. Las moléculas de trietilamina no pueden formar enlaces de hidrógeno entre sí sino sólo con moléculas de agua, por lo que en solución quedan asociadas a moléculas de agua con pérdida de entropía. La mezcla que se produce por debajo de 19 °C no se debe a la entropía sino a la entalpía de formación de los enlaces de hidrógeno.

En muchas mezclas de polímeros y disolventes también se producen temperaturas de solución críticas más bajas. [6] Para sistemas polares como el ácido poliacrílico en 1,4-dioxano , esto a menudo se debe a la formación de enlaces de hidrógeno entre el polímero y el disolvente. Para sistemas no polares como el poliestireno en ciclohexano , se ha observado separación de fases en tubos sellados (a alta presión) a temperaturas cercanas al punto crítico líquido-vapor del disolvente. A tales temperaturas, el disolvente se expande mucho más rápidamente que el polímero, cuyos segmentos están unidos covalentemente. Por lo tanto, la mezcla requiere la contracción del solvente para la compatibilidad del polímero, lo que resulta en una pérdida de entropía. [6]

Explicación termodinámica estadística de la entropía de la mezcla de gases ideales.

Dado que la entropía termodinámica puede relacionarse con la mecánica estadística o con la teoría de la información , es posible calcular la entropía de mezcla utilizando estos dos enfoques. Aquí consideramos el caso simple de mezclar gases ideales.

Prueba de la mecánica estadística.

Supongamos que las moléculas de dos sustancias diferentes tienen aproximadamente el mismo tamaño y consideremos el espacio como subdividido en una red cuadrada cuyas celdas son del tamaño de las moléculas. (De hecho, cualquier red serviría, incluido el empaquetamiento cerrado ). Este es un modelo conceptual similar a un cristal para identificar los centros de masa moleculares . Si las dos fases son líquidas, no existe incertidumbre espacial en cada una de ellas individualmente. (Esto es, por supuesto, una aproximación. Los líquidos tienen un "volumen libre". Por eso son (normalmente) menos densos que los sólidos .) Dondequiera que miremos en el componente 1, hay una molécula presente, y lo mismo ocurre con el componente 2. Después de mezclar las dos sustancias diferentes (suponiendo que sean miscibles), el líquido todavía está denso en moléculas, pero ahora hay incertidumbre sobre qué tipo de molécula se encuentra en qué lugar.Por supuesto, cualquier idea de identificar moléculas en ubicaciones determinadas es un experimento mental , no algo que uno pueda hacer, pero el cálculo de la incertidumbre está bien definido.

Podemos usar la ecuación de Boltzmann para el cambio de entropía aplicada al proceso de mezcla.

¿Dónde está la constante de Boltzmann ? Luego calculamos el número de formas de organizar las moléculas del componente 1 y las moléculas del componente 2 en una red, donde

es el número total de moléculas y, por tanto, el número de sitios de la red. Calcular el número de permutaciones de objetos, corrigiendo por el hecho de que son idénticos entre sí, y también por ,

Después de aplicar la aproximación de Stirling para el factorial de un número entero grande m:

,

el resultado es

donde hemos introducido las fracciones molares , que también son las probabilidades de encontrar cualquier componente particular en un sitio determinado de la red.

A partir de la constante de Boltzmann , donde es la constante de Avogadro, y el número de moléculas , recuperamos la expresión termodinámica para la mezcla de dos gases ideales,

Esta expresión se puede generalizar a una mezcla de componentes, , con

Relación con la teoría de la información

La entropía de la mezcla también es proporcional a la entropía de Shannon o incertidumbre composicional de la teoría de la información , que se define sin requerir la aproximación de Stirling. Claude Shannon introdujo esta expresión para su uso en la teoría de la información , pero se pueden encontrar fórmulas similares ya en el trabajo de Ludwig Boltzmann y J. Willard Gibbs . La incertidumbre de Shannon no es lo mismo que el principio de incertidumbre de Heisenberg en la mecánica cuántica , que se basa en la varianza. La entropía de Shannon se define como:

donde p i es la probabilidad de que una fuente de información produzca el i- ésimo símbolo de un alfabeto de r símbolos y es independiente de los símbolos anteriores. (por lo tanto, voy de 1 a r ). H es entonces una medida de la cantidad esperada de información (log pi ) que falta antes de que se conozca o mida el símbolo o, alternativamente, la cantidad esperada de información suministrada cuando se conoce el símbolo. El conjunto de mensajes de longitud N símbolos de la fuente tendrá entonces una entropía de NH .

La entropía termodinámica sólo se debe a la incertidumbre posicional, por lo que podemos tomar el "alfabeto" como cualquiera de las r especies diferentes en el gas y, en equilibrio, la probabilidad de que una partícula dada sea del tipo i es simplemente la fracción molar. x i para esa partícula. Como se trata de gases ideales, la identidad de las partículas cercanas es irrelevante. Multiplicar por el número de partículas N produce el cambio en la entropía de todo el sistema desde el caso sin mezclar en el que todos los p i eran 1 o 0. Nuevamente obtenemos la entropía de la mezcla al multiplicar por la constante de Boltzmann .

Entonces, la entropía termodinámica con r especies químicas con un total de N partículas tiene un paralelo con una fuente de información que tiene r símbolos distintos con mensajes que tienen N símbolos de longitud.

Aplicación a gases

En los gases hay mucha más incertidumbre espacial porque la mayor parte de su volumen es simplemente espacio vacío. Podemos considerar que el proceso de mezcla permite que los contenidos de los dos contenidos originalmente separados se expandan en el volumen combinado de los dos contenedores unidos. También se unen las dos redes que nos permiten localizar conceptualmente los centros de masa moleculares . El número total de celdas vacías es la suma del número de celdas vacías en los dos componentes antes de mezclar. En consecuencia, esa parte de la incertidumbre espacial relativa a si alguna molécula está presente en una celda de la red es la suma de los valores iniciales y no aumenta al "mezclarse".

Casi dondequiera que miremos, encontramos celdas reticulares vacías. Sin embargo, encontramos moléculas en algunas celdas ocupadas. Cuando hay una mezcla real, para cada una de esas pocas celdas ocupadas, existe una incertidumbre contingente sobre qué tipo de molécula es. Cuando no hay una mezcla real porque las dos sustancias son idénticas, no hay incertidumbre sobre qué tipo de molécula es. Utilizando probabilidades condicionales , resulta que el problema analítico para el pequeño subconjunto de celdas ocupadas es exactamente el mismo que para líquidos mixtos, y el aumento de la entropía, o incertidumbre espacial, tiene exactamente la misma forma que la obtenida anteriormente. Evidentemente el subconjunto de celdas ocupadas no es el mismo en distintos momentos. Pero sólo cuando hay una mezcla real y se encuentra una celda ocupada preguntamos qué tipo de molécula hay allí.

Véase también: Paradoja de Gibbs , en la que parecería que "mezclar" dos muestras del mismo gas produciría entropía.

Aplicación a soluciones

Si el soluto es un sólido cristalino , el argumento es prácticamente el mismo. Un cristal no tiene ninguna incertidumbre espacial, excepto defectos cristalográficos , y un cristal (perfecto) nos permite localizar las moléculas utilizando el grupo de simetría del cristal . El hecho de que los volúmenes no sumen al disolver un sólido en un líquido no es importante para las fases condensadas . Si el soluto no es cristalino, aún podemos usar una red espacial, una aproximación tan buena para un sólido amorfo como para un líquido.

La teoría de la solución de Flory-Huggins proporciona la entropía de mezcla para soluciones de polímeros , en las que las macromoléculas son enormes en comparación con las moléculas del disolvente. En este caso, se supone que cada subunidad de monómero en la cadena polimérica ocupa un sitio de red.

Tenga en cuenta que los sólidos en contacto entre sí también se interdifunden lentamente , y se pueden hacer mezclas sólidas de dos o más componentes a voluntad ( aleaciones , semiconductores , etc.). Nuevamente, se aplican las mismas ecuaciones para la entropía de mezcla, pero sólo para fases homogéneas y uniformes.

Mezclar bajo otras restricciones

Mezclado con y sin cambio de volumen disponible

En el uso habitual establecido, expresado en la sección principal de este artículo, la entropía de la mezcla proviene de dos mecanismos, el entremezclado y posibles interacciones de las distintas especies moleculares, y el cambio en el volumen disponible para cada especie molecular, o el cambio en concentración de cada especie molecular. Para los gases ideales, la entropía de la mezcla a una temperatura y presión comunes prescritas no tiene nada que ver con la mezcla en el sentido de entremezcla e interacciones de especies moleculares, sino que sólo tiene que ver con la expansión en el volumen común. [7] : 273 

Según Fowler y Guggenheim (1939/1965), [8] la combinación de los dos mecanismos recién mencionados para la entropía de la mezcla está bien establecida en la terminología habitual, pero puede resultar confusa a menos que se tenga en cuenta que las variables independientes son la temperatura inicial y final común y la presión total; si en lugar de la presión total se eligen como variables independientes las respectivas presiones parciales o el volumen total, la descripción es diferente.

Mezclado con cada gas mantenido a un volumen parcial constante, con un volumen total cambiante

En contraste con el uso habitual establecido, la "mezcla" podría realizarse de manera reversible a volumen constante para cada una de dos masas fijas de gases de igual volumen, mezclándose fusionando gradualmente sus volúmenes inicialmente separados mediante el uso de dos membranas semipermeables ideales, cada una de ellas permeable únicamente. a uno de los respectivos gases, de modo que los respectivos volúmenes disponibles para cada gas permanezcan constantes durante la fusión. El experimentador elige una de las dos, la temperatura común o la presión común, para que la controle independientemente, y se permite que la otra varíe para mantener un volumen constante para cada masa de gas. En este tipo de "mezcla", el volumen común final es igual a cada uno de los respectivos volúmenes iniciales separados, y cada gas ocupa finalmente el mismo volumen que ocupaba inicialmente. [9] [10] : 163–164  [11] : 217  [12] [13] [14]

Este tipo de "mezcla" de volumen constante, en el caso especial de los gases perfectos, se menciona en lo que a veces se denomina teorema de Gibbs. [9] [12] [14] Afirma que la entropía de tal "mezcla" de gases perfectos es cero.

Mezclado a volumen total constante y volúmenes parciales cambiantes, con presión variable controlada mecánicamente y temperatura constante

Se puede considerar una demostración experimental. Los dos gases distintos, en un cilindro de volumen total constante, están separados al principio por dos pistones contiguos hechos respectivamente de dos membranas semipermeables ideales, adecuadamente específicas. Idealmente, de forma lenta y reversible, a temperatura constante, se permite que los gases se mezclen en el volumen entre las membranas separadoras, obligándolas a separarse, suministrando así trabajo a un sistema externo. La energía para el trabajo proviene del depósito de calor que mantiene la temperatura constante. Luego, al forzar externamente, idealmente lentamente, las membranas separadoras para que vuelvan a estar contigüas, se realiza trabajo sobre los gases mezclados, separándolos de nuevo de manera ficticia y reversible, de modo que el calor regresa al depósito de calor a temperatura constante. Debido a que la mezcla y la separación son idealmente lentas y ficticiamente reversibles, el trabajo proporcionado por los gases mientras se mezclan es igual al trabajo realizado al separarlos nuevamente. Pasando de la reversibilidad ficticia a la realidad física, una cierta cantidad de trabajo adicional, que permanece externo a los gases y al depósito de calor, debe ser proporcionado desde una fuente externa para este ciclo, como lo requiere la segunda ley de la termodinámica, porque este ciclo solo tiene un depósito de calor a temperatura constante y la provisión externa de trabajo no puede ser completamente eficiente. [10] : 163–164 

La paradoja de Gibbs: "mezcla" de especies idénticas versus mezcla de especies muy similares pero no idénticas

Para que exista entropía de mezcla, las especies moleculares que supuestamente se mezclan deben ser química o físicamente detectables distintas. Surge así la llamada paradoja de Gibbs , de la siguiente manera. Si las especies moleculares son idénticas, no hay cambio de entropía al mezclarlas porque, definido en términos termodinámicos, no hay transferencia de masa y, por tanto, no hay proceso de mezcla termodinámicamente reconocido. Sin embargo, la más mínima diferencia detectable en las propiedades constitutivas entre las dos especies produce un proceso de transferencia con mezcla termodinámicamente reconocido, y un cambio de entropía posiblemente considerable, a saber, la entropía de la mezcla.

La "paradoja" surge porque cualquier distinción constitutiva detectable, por mínima que sea, puede conducir a un cambio considerablemente grande en la cantidad de entropía como resultado de la mezcla. Aunque un cambio continuo en las propiedades de los materiales que se mezclan podría hacer que el grado de diferencia constitutiva tienda continuamente a cero, el cambio de entropía desaparecería discontinuamente cuando la diferencia llegara a cero. [15] : 87 

Desde un punto de vista físico general, esta discontinuidad es paradójica. Pero desde un punto de vista específicamente termodinámico, no es paradójico, porque en esa disciplina no se cuestiona el grado de diferencia constitutiva; o está ahí o no está ahí. El propio Gibbs no lo consideró paradójico. La distinguibilidad de dos materiales es una diferencia constitutiva, no termodinámica, ya que las leyes de la termodinámica son las mismas para todos los materiales, mientras que sus características constitutivas son diversas. [dieciséis]

Aunque uno podría imaginar una disminución continua de la diferencia constitutiva entre dos sustancias químicas cualesquiera, físicamente no puede disminuirse continuamente hasta que realmente desaparezca. [10] : 164  [17] [nota 1] Es difícil pensar en una diferencia menor que la que existe entre orto y parahidrógeno. Sin embargo, difieren en una cantidad finita. La hipótesis de que la distinción podría tender continuamente a cero no es física. Esto no es examinado ni explicado por la termodinámica. Las diferencias de constitución se explican por la mecánica cuántica, que postula la discontinuidad de los procesos físicos. [18]

Para una distinción detectable, algunos medios deben estar físicamente disponibles. Un medio teórico sería a través de una membrana semipermeable ideal. [11] : 217  Debe permitir el paso, hacia adelante y hacia atrás, de una especie, mientras que el paso de la otra se impide por completo. El conjunto de la prevención debería incluir una eficacia perfecta durante un tiempo prácticamente infinito, dada la naturaleza del equilibrio termodinámico. Incluso la más mínima desviación de la idealidad, evaluada durante un tiempo finito, se extendería a una absoluta no idealidad, evaluada durante un tiempo prácticamente infinito. Fenómenos cuánticos como la formación de túneles garantizan que la naturaleza no permita una idealidad de membrana que respaldaría la disminución continua, hasta cero, teóricamente exigida de la distinción detectable. La disminución a cero de la distinción detectable debe ser discontinua.

Para los gases ideales, la entropía de la mezcla no depende del grado de diferencia entre las distintas especies moleculares, sino sólo del hecho de que son distintas; para gases no ideales, la entropía de la mezcla puede depender del grado de diferencia de las distintas especies moleculares. La "mezcla" sugerida o supuesta de especies moleculares idénticas no es en términos termodinámicos una mezcla en absoluto, porque la termodinámica se refiere a estados especificados por variables de estado y no permite un etiquetado imaginario de partículas. Sólo si las especies moleculares son diferentes hay mezcla en el sentido termodinámico. [19] [11] : 217–218  [20] [7] : 274, 516–517  [21] [22]

Ver también

Notas

  1. ^ Partington (1949) cita a Larmor (1929).

Referencias

  1. ^ Prigogine, I. (1955/1967). Introducción a la termodinámica de procesos irreversibles , tercera edición, Interscience Publishers, Nueva York, p. 12.
  2. ^ abc Atkins, PW , de Paula, J. (2006). Atkins' Physical Chemistry , octava edición, WH Freeman, Nueva York, ISBN  978-0-7167-8759-4 .
  3. ^ ab K. Denbigh, "Los principios del equilibrio químico" (3.ª ed., Cambridge University Press 1971) p.432
  4. ^ PA Rock "Termodinámica química. Principios y aplicaciones (MacMillan 1969) p.263
  5. ^ MA White, "Propiedades de los materiales" (Oxford University Press 1999) p.175
  6. ^ ab Cowie, JMG "Polímeros: química y física de materiales modernos" (2ª ed., Blackie 1991) p.174-176
  7. ^ ab Bailyn, M. (1994). Un estudio de termodinámica , Instituto Americano de Física, Nueva York, ISBN 0-88318-797-3
  8. ^ Fowler, R., Guggenheim, EA (1939/1965). Termodinámica estadística. Una versión de Mecánica estadística para estudiantes de física y química , Cambridge University Press, Cambridge, Reino Unido, páginas 163-164
  9. ^ ab Planck, M. (1897/1903). Tratado de termodinámica , traducido con la autorización del autor por Alexander Ogg, Longmans, Green and Co., Londres, secciones 235-236.
  10. ^ a b C Partington, JR (1949). Tratado avanzado de química física , volumen 1, principios fundamentales. Las propiedades de los gases , Longmans, Green y Co., Londres.
  11. ^ abc Adkins, CJ (1983) [1963]. Termodinámica de equilibrio (3ª ed.). Londres: McGraw-Hill. ISBN 0-521-25445-0. OCLC  9132054.
  12. ^ ab Callen, HB (1960/1985). Termodinámica e introducción a la termostatística , segunda edición, Wiley, Nueva York, ISBN 981-253-185-8 , páginas 69-70. 
  13. ^ Buchdahl, HA (1966). Los conceptos de termodinámica clásica , Cambridge University Press, Londres, páginas 170-171.
  14. ^ ab Iribarne, JV, Godson, WL (1973/1981), Termodinámica atmosférica , segunda edición, D. Reidel, Kluwer Academic Publishers, Dordrecht, ISBN 90-277-1296-4 , páginas 48-49. 
  15. ^ ter Haar, D. , Wergeland, H. (1966). Elementos de termodinámica , Addison-Wesley Publishing, Reading MA.
  16. ^ Truesdell, C. (1969). Termodinámica racional: un curso de conferencias sobre temas seleccionados , McGraw-Hill Book Company, Nueva York, p. 6.
  17. ^ Larmor, J. (1929), Artículos físicos y matemáticos , volumen 2, Cambridge University Press, Cambridge, Reino Unido, p. 99.
  18. ^ Landé, A. (1955). Fundamentos de la mecánica cuántica: un estudio sobre continuidad y simetría , Yale University Press, New Haven, p.10.
  19. ^ Tolman, RC (1938). Los principios de la mecánica estadística , Oxford University Press, Oxford, páginas 626-628.
  20. ^ Landsberg, PT (1978). Termodinámica y mecánica estadística , Oxford University Press, Oxford, ISBN 0-19-851142-6 , página 74. 
  21. ^ Grandy, WT, Jr (2008). La entropía y la evolución temporal de los sistemas macroscópicos , Oxford University Press, Oxford, ISBN 978-0-19-954617-6 , páginas 60-62. 
  22. ^ Kondepudi, D. (2008). Introducción a la termodinámica moderna , Wiley, Chichester, ISBN 978-0-470-01598-8 , páginas 197-199. 

enlaces externos