stringtranslate.com

entropía

La entropía es un concepto científico que se asocia más comúnmente con un estado de desorden, aleatoriedad o incertidumbre. El término y el concepto se utilizan en diversos campos, desde la termodinámica clásica , donde fue reconocida por primera vez, hasta la descripción microscópica de la naturaleza en la física estadística , y hasta los principios de la teoría de la información . Ha encontrado aplicaciones de gran alcance en química y física , en sistemas biológicos y su relación con la vida, en cosmología , economía , sociología , ciencia meteorológica , cambio climático y sistemas de información , incluida la transmisión de información en telecomunicaciones . [1]

La entropía es fundamental para la segunda ley de la termodinámica , que establece que la entropía de un sistema aislado dejado a la evolución espontánea no puede disminuir con el tiempo. Como resultado, los sistemas aislados evolucionan hacia el equilibrio termodinámico , donde la entropía es mayor. Una consecuencia de la segunda ley de la termodinámica es que ciertos procesos son irreversibles .

El concepto termodinámico fue referido por el científico e ingeniero escocés William Rankine en 1850 con los nombres de función termodinámica y potencial calorífico . [2] En 1865, el físico alemán Rudolf Clausius , uno de los principales fundadores del campo de la termodinámica, la definió como el cociente de una cantidad infinitesimal de calor a la temperatura instantánea. Inicialmente lo describió como contenido de transformación , en alemán Verwandlungsinhalt , y luego acuñó el término entropía a partir de una palabra griega que significa transformación . [3]

El físico austriaco Ludwig Boltzmann explicó la entropía como la medida del número de posibles disposiciones microscópicas o estados de átomos y moléculas individuales de un sistema que cumplen con la condición macroscópica del sistema. De este modo introdujo el concepto de desorden estadístico y distribuciones de probabilidad en un nuevo campo de la termodinámica, llamado mecánica estadística , y encontró el vínculo entre las interacciones microscópicas, que fluctúan alrededor de una configuración promedio, con el comportamiento macroscópicamente observable, en forma de una simple logarítmica. ley, con una constante de proporcionalidad , la constante de Boltzmann , que se ha convertido en una de las constantes universales definitorias del moderno Sistema Internacional de Unidades (SI).

Historia

Rudolf Clausius (1822-1888), creador del concepto de entropía

En su artículo de 1803 Principios fundamentales de equilibrio y movimiento , el matemático francés Lazare Carnot propuso que en cualquier máquina, las aceleraciones y choques de las partes móviles representan pérdidas de momento de actividad ; En cualquier proceso natural existe una tendencia inherente a la disipación de energía útil. En 1824, basándose en ese trabajo, el hijo de Lazare, Sadi Carnot , publicó Reflexiones sobre la fuerza motriz del fuego , que postulaba que en todas las máquinas térmicas, siempre que " calórico " (lo que ahora se conoce como calor) cae a través de una diferencia de temperatura, El trabajo o la fuerza motriz se pueden producir a partir de las acciones de su caída de un cuerpo caliente a uno frío. Usó una analogía con cómo el agua cae en una rueda hidráulica . Ésa fue una de las primeras ideas sobre la segunda ley de la termodinámica . [4] Carnot basó sus puntos de vista sobre el calor en parte en la "hipótesis newtoniana" de principios del siglo XVIII de que tanto el calor como la luz eran tipos de formas indestructibles de materia, que son atraídas y repelidas por otra materia, y en parte en las opiniones contemporáneas del Conde Rumford , quien demostró en 1789 que se podía crear calor mediante la fricción, como cuando se mecanizan los orificios de los cañones. [5] Carnot razonó que si el cuerpo de la sustancia de trabajo, como una masa de vapor, regresa a su estado original al final de un ciclo completo del motor , "no se produce ningún cambio en la condición del cuerpo de trabajo".

La primera ley de la termodinámica , deducida de los experimentos de calor-fricción de James Joule en 1843, expresa el concepto de energía y su conservación en todos los procesos; La primera ley, sin embargo, no es adecuada para cuantificar por separado los efectos de la fricción y la disipación . [ cita necesaria ]

En las décadas de 1850 y 1860, el físico alemán Rudolf Clausius objetó la suposición de que no se produce ningún cambio en el cuerpo de trabajo y dio a ese cambio una interpretación matemática, al cuestionar la naturaleza de la pérdida inherente de calor utilizable cuando se realiza trabajo, por ejemplo, calor. producido por la fricción. [6] Describió sus observaciones como un uso disipativo de energía, que resulta en una transformación-contenido ( Verwandlungsinhalt en alemán), de un sistema termodinámico o cuerpo de trabajo de especies químicas durante un cambio de estado . [6] Esto contrastaba con puntos de vista anteriores, basados ​​en las teorías de Isaac Newton , de que el calor era una partícula indestructible que tenía masa. Clausius descubrió que la energía no utilizable aumenta a medida que el vapor pasa desde la entrada hasta el escape en una máquina de vapor. Del prefijo en- , como en 'energía', y de la palabra griega τροπή [tropē], que se traduce en un léxico establecido como giro o cambio [7] y que él tradujo en alemán como Verwandlung , palabra traducida a menudo al Inglesa como transformación , en 1865 Clausius acuñó el nombre de esa propiedad como entropía . [8] La palabra fue adoptada en el idioma inglés en 1868.

Más tarde, científicos como Ludwig Boltzmann , Josiah Willard Gibbs y James Clerk Maxwell dieron a la entropía una base estadística. En 1877, Boltzmann visualizó una forma probabilística de medir la entropía de un conjunto de partículas de gas ideal , en la que definió la entropía como proporcional al logaritmo natural del número de microestados que dicho gas podría ocupar. La constante de proporcionalidad en esta definición, llamada constante de Boltzmann , se ha convertido en una de las constantes universales que definen el moderno Sistema Internacional de Unidades (SI). De ahora en adelante, el problema esencial en termodinámica estadística ha sido determinar la distribución de una cantidad dada de energía E sobre N sistemas idénticos. Constantin Carathéodory , matemático griego, vinculó la entropía con una definición matemática de irreversibilidad, en términos de trayectorias e integrabilidad.

Etimología

En 1865, Clausius nombró al concepto de "diferencial de una cantidad que depende de la configuración del sistema" entropía ( Entropie ), en honor a la palabra griega que significa "transformación". [9] Dio "contenido transformacional" ( Verwandlungsinhalt ) como sinónimo, paralelamente a su "contenido térmico y ergonal" ( Wärme- und Werkinhalt ) como nombre de , pero prefiriendo el término entropía como un paralelo cercano de la palabra energía , como encontró los conceptos casi "análogos en su significado físico". [9] Este término se formó reemplazando la raíz de ἔργον ('ergon', 'trabajo') por la de τροπή ('tropía', 'transformación'). [8]

Con más detalle, Clausius explicó su elección de "entropía" como nombre de la siguiente manera: [10]

Prefiero acudir a las lenguas antiguas en busca de nombres de cantidades científicas importantes, para que puedan significar lo mismo en todas las lenguas vivas. Propongo, por tanto, llamar a S la entropía de un cuerpo, en honor a la palabra griega "transformación". He acuñado deliberadamente la palabra entropía para que sea similar a energía, porque estas dos cantidades son tan análogas en su significado físico, que una analogía de denominaciones me parece útil.

Leon Cooper añadió que de esta manera "logró acuñar una palabra que significaba lo mismo para todos: nada". [10]

Definiciones y descripciones

Cualquier método que involucre la noción de entropía, cuya existencia misma depende de la segunda ley de la termodinámica, sin duda les parecerá a muchos inverosímil y puede repeler a los principiantes por considerarlo oscuro y difícil de comprender.

Willard Gibbs , Métodos gráficos en termodinámica de fluidos [11]

El concepto de entropía se describe mediante dos enfoques principales, la perspectiva macroscópica de la termodinámica clásica y la descripción microscópica central de la mecánica estadística . El enfoque clásico define la entropía en términos de propiedades físicas medibles macroscópicamente, como masa, volumen, presión y temperatura. La definición estadística de entropía la define en términos de las estadísticas de los movimientos de los constituyentes microscópicos de un sistema, modelados al principio de forma clásica, por ejemplo, partículas newtonianas que constituyen un gas, y más tarde de forma cuántica (fotones, fonones , espines, etc.). . Los dos enfoques forman una visión consistente y unificada del mismo fenómeno expresado en la segunda ley de la termodinámica, que ha encontrado aplicabilidad universal a los procesos físicos.

Variables de estado y funciones de estado.

Muchas propiedades termodinámicas están definidas por variables físicas que definen un estado de equilibrio termodinámico ; estas son variables de estado . Las variables de estado dependen sólo de la condición de equilibrio, no del camino de evolución hacia ese estado. Las variables de estado pueden ser funciones de estado , también llamadas funciones de estado , en el sentido de que una variable de estado es una función matemática de otras variables de estado. A menudo, si se determinan algunas propiedades de un sistema, son suficientes para determinar el estado del sistema y, por tanto, los valores de otras propiedades. Por ejemplo, la temperatura y la presión de una determinada cantidad de gas determinan su estado y, por tanto, también su volumen según la ley de los gases ideales . Se determina un sistema compuesto por una sustancia pura de una sola fase a una temperatura y presión uniformes particulares y, por lo tanto, se encuentra en un estado particular y no solo tiene un volumen particular sino también una entropía específica. [12] El hecho de que la entropía sea una función del estado la hace útil. En el ciclo de Carnot , el fluido de trabajo vuelve al mismo estado que tenía al inicio del ciclo, de ahí que el cambio o integral de línea de cualquier función de estado, como la entropía, durante este ciclo reversible sea cero.

Proceso reversible

La entropía total puede conservarse durante un proceso reversible . El cambio de entropía del sistema (sin incluir los alrededores) está bien definido como el calor transferido al sistema dividido por la temperatura del sistema . Un proceso reversible es cuasiestático que se desvía sólo infinitamente del equilibrio termodinámico y evita la fricción u otra disipación. Cualquier proceso que ocurra lo suficientemente rápido como para desviarse del equilibrio térmico no puede ser reversible, la entropía total aumenta y también se pierde el potencial de realizar el máximo trabajo en el proceso. [13] Por ejemplo, en el ciclo de Carnot , mientras que el flujo de calor desde el depósito caliente al depósito frío representa un aumento de entropía en el depósito frío, la producción de trabajo, si se almacena de manera reversible y perfecta en algún mecanismo de almacenamiento de energía, representa un disminución de la entropía que podría utilizarse para hacer funcionar el motor térmico en reversa y volver al estado anterior; por tanto, el cambio total de entropía puede seguir siendo cero en todo momento si todo el proceso es reversible. Un proceso irreversible aumenta la entropía total del sistema y sus alrededores. [14]

ciclo de carnot

El concepto de entropía surgió del estudio de Rudolf Clausius del ciclo de Carnot , que es un ciclo termodinámico realizado por una máquina térmica de Carnot como una máquina térmica reversible. [15] En un ciclo de Carnot, el calor Q H se absorbe isotérmicamente a la temperatura T H de un depósito "caliente" (en la etapa de expansión isotérmica) y se cede isotérmicamente como calor Q C a un depósito "frío" en T C (en la etapa de compresión isotérmica). Según el principio o teorema de Carnot , el trabajo de una máquina térmica con dos depósitos térmicos se puede producir sólo cuando hay una diferencia de temperatura entre estos depósitos, y para motores reversibles que son mayoritariamente e igualmente eficientes entre todos los motores térmicos para un par de depósitos térmicos determinado. , el trabajo es una función de las temperaturas del depósito y el calor absorbido por el motor Q H (producción de trabajo del motor térmico = eficiencia del motor térmico × calor al motor, donde la eficiencia es una función de las temperaturas del depósito para motores térmicos reversibles). Carnot no distinguió entre Q H y Q C , ya que estaba usando la hipótesis incorrecta de que la teoría calórica era válida y, por tanto, el calor se conservaba (la suposición incorrecta de que Q H y Q C eran iguales en magnitud) cuando, de hecho, el la magnitud de Q H es mayor que la magnitud de Q C . [16] [17] Gracias a los esfuerzos de Clausius y Kelvin , ahora se sabe que el trabajo realizado por una máquina térmica reversible es el producto de la eficiencia de Carnot (es la eficiencia de todas las máquinas térmicas reversibles con los mismos pares de depósitos térmicos según el teorema de Carnot ) y el calor absorbido del depósito caliente:

Aquí se muestra el trabajo realizado por la máquina térmica de Carnot, el calor que llega al motor desde el depósito caliente y el calor que llega al depósito frío desde el motor. Para derivar la eficiencia de Carnot , que es 1 − T C / T H (un número menor que uno), Kelvin tuvo que evaluar la relación entre el trabajo producido y el calor absorbido durante la expansión isotérmica con la ayuda de la ecuación de Carnot-Clapeyron. , que contenía una función desconocida llamada función de Carnot. Joule sugirió la posibilidad de que la función de Carnot pudiera ser la temperatura medida desde un punto cero de temperatura en una carta a Kelvin. Esto le permitió a Kelvin establecer su escala de temperatura absoluta. [18] También se sabe que el trabajo neto W producido por el sistema en un ciclo es el calor neto absorbido, que es la suma (o diferencia de las magnitudes) del calor Q H > 0 absorbido del depósito caliente y el Calor residual Q C < 0 emitido al depósito de frío: [19]

Dado que este último es válido durante todo el ciclo, esto le dio a Clausius la pista de que en cada etapa del ciclo, el trabajo y el calor no serían iguales, sino que su diferencia sería el cambio de una función de estado que desaparecería al completarse el ciclo. ciclo. La función de estado se llamó energía interna , que es fundamental para la primera ley de la termodinámica . [20]

Ahora, al equiparar ( 1 ) y ( 2 ), se obtiene, para el motor por ciclo de Carnot, [21] [19]

Esto implica que existe una función de estado cuyo cambio es Q / T y esta función de estado se conserva durante un ciclo de Carnot completo, al igual que otras funciones de estado como la energía interna. Clausius llamó a esta función de estado entropía . Se puede ver que la entropía se descubrió a través de las matemáticas y no mediante resultados experimentales de laboratorio. [ cita necesaria ] Es una construcción matemática y no tiene una analogía física fácil. [ cita necesaria ] Esto hace que el concepto sea algo oscuro o abstracto, similar a cómo surgió el concepto de energía. Esta ecuación muestra que un cambio de entropía por ciclo de Carnot es cero. De hecho, un cambio de entropía en ambos reservorios térmicos por ciclo de Carnot también es cero ya que ese cambio se expresa simplemente invirtiendo el signo de cada término en la ecuación ( 3 ) de acuerdo con el hecho de que, por ejemplo, para la transferencia de calor desde el depósito caliente al motor, el motor recibe el calor mientras que el depósito caliente pierde la misma cantidad de calor;

donde denotamos un cambio de entropía para un depósito térmico por Δ S r,i = – Q i / T i , para i como H (depósito caliente) o C (depósito frío), considerando la convención de señal de calor mencionada anteriormente para el motor.

Clausius luego preguntó qué pasaría si el sistema produjera menos trabajo que el predicho por el principio de Carnot para el mismo par de depósitos térmicos y la misma transferencia de calor desde el depósito caliente al motor Q H. En este caso, el lado derecho de la ecuación ( 1 ) sería el límite superior del trabajo producido por el sistema, y ​​la ecuación ahora se convertiría en una desigualdad.

2
Q HQ C
Δ S r,i = – Q i / T ii

indicando que la magnitud de la entropía obtenida por el depósito frío es mayor que la entropía perdida por el depósito caliente. El cambio neto de entropía en el motor por su ciclo termodinámico es cero, por lo que el cambio neto de entropía en el motor y en ambos depósitos térmicos por ciclo aumenta si el trabajo producido por el motor es menor que el trabajo logrado por un motor de Carnot en la ecuación ( 1 ).

El ciclo de Carnot y la eficiencia de Carnot como se muestran en la ecuación ( 1 ) son útiles porque definen el límite superior de la posible producción de trabajo y la eficiencia de cualquier máquina térmica termodinámica clásica. Otros ciclos, como el ciclo Otto , el ciclo Diesel y el ciclo Brayton , pueden analizarse desde el punto de vista del ciclo de Carnot. Cualquier máquina o proceso cíclico que convierta calor en trabajo y que se afirme que produce una eficiencia mayor que la eficiencia de Carnot no es viable porque viola la segunda ley de la termodinámica .

Para cantidades muy pequeñas de partículas en el sistema, se debe utilizar la termodinámica estadística. La eficiencia de dispositivos como las células fotovoltaicas requiere un análisis desde el punto de vista de la mecánica cuántica.

Termodinámica clásica

La definición termodinámica de entropía fue desarrollada a principios de la década de 1850 por Rudolf Clausius y esencialmente describe cómo medir la entropía de un sistema aislado en equilibrio termodinámico con sus partes. Clausius creó el término entropía como una variable termodinámica extensa que demostró ser útil para caracterizar el ciclo de Carnot . Se descubrió que la transferencia de calor en los pasos isotérmicos (expansión isotérmica y compresión isotérmica) del ciclo de Carnot es proporcional a la temperatura de un sistema (conocida como temperatura absoluta ). Esta relación se expresó en un incremento de entropía que es igual a la transferencia de calor incremental dividida por la temperatura. Se descubrió que la entropía variaba en el ciclo termodinámico pero finalmente volvía al mismo valor al final de cada ciclo. Por tanto, se descubrió que era una función de estado , específicamente un estado termodinámico del sistema.

Si bien Clausius basó su definición en un proceso reversible, también existen procesos irreversibles que cambian la entropía. Siguiendo la segunda ley de la termodinámica , la entropía de un sistema aislado siempre aumenta para procesos irreversibles. La diferencia entre un sistema aislado y un sistema cerrado es que es posible que la energía no fluya hacia y desde un sistema aislado, pero el flujo de energía hacia y desde un sistema cerrado es posible. Sin embargo, tanto en sistemas cerrados como aislados, e incluso en sistemas abiertos, pueden ocurrir procesos termodinámicos irreversibles.

Según la igualdad de Clausius , para un proceso cíclico reversible: . Esto significa que la integral de línea es independiente de la ruta .

Entonces podemos definir una función de estado S llamada entropía, que satisface .

Para encontrar la diferencia de entropía entre dos estados cualesquiera de un sistema, se debe evaluar la integral para determinar algún camino reversible entre los estados inicial y final. [22] Dado que la entropía es una función de estado, el cambio de entropía del sistema para un camino irreversible es el mismo que para un camino reversible entre los mismos dos estados. [23] Sin embargo, el calor transferido hacia o desde el entorno y el cambio de entropía del mismo son diferentes.

Sólo podemos obtener el cambio de entropía integrando la fórmula anterior. Para obtener el valor absoluto de la entropía, necesitamos la tercera ley de la termodinámica , que establece que S = 0 en el cero absoluto para cristales perfectos.

Desde una perspectiva macroscópica, en la termodinámica clásica la entropía se interpreta como una función de estado de un sistema termodinámico : es decir, una propiedad que depende únicamente del estado actual del sistema, independientemente de cómo se alcanzó ese estado. En cualquier proceso en el que el sistema cede energía Δ E y su entropía cae en Δ S , una cantidad al menos T R Δ S de esa energía debe entregarse a los alrededores del sistema en forma de calor ( T R es la temperatura del sistema). entorno exterior). De lo contrario el proceso no puede seguir adelante. En termodinámica clásica, la entropía de un sistema se define sólo si se encuentra en equilibrio termodinámico físico . (Pero no se requiere equilibrio químico: la entropía de una mezcla de dos moles de hidrógeno y un mol de oxígeno a 1 bar de presión y 298 K está bien definida.)

Mecánica estadística

La definición estadística fue desarrollada por Ludwig Boltzmann en la década de 1870 analizando el comportamiento estadístico de los componentes microscópicos del sistema. Boltzmann demostró que esta definición de entropía era equivalente a la entropía termodinámica dentro de un factor constante, conocido como constante de Boltzmann . En resumen, la definición termodinámica de entropía proporciona la verificación experimental de la entropía, mientras que la definición estadística de entropía amplía el concepto, proporcionando una explicación y una comprensión más profunda de su naturaleza.

La interpretación de la entropía en mecánica estadística es la medida de incertidumbre, desorden o confusión en la frase de Gibbs , que queda sobre un sistema después de que se han tenido en cuenta sus propiedades macroscópicas observables, como la temperatura, la presión y el volumen. Para un conjunto dado de variables macroscópicas, la entropía mide el grado en que la probabilidad del sistema se distribuye en diferentes microestados posibles . A diferencia del macroestado, que caracteriza cantidades promedio claramente observables, un microestado especifica todos los detalles moleculares sobre el sistema, incluida la posición y la velocidad de cada molécula. Cuantos más estados de este tipo estén disponibles para el sistema con una probabilidad apreciable, mayor será la entropía. En mecánica estadística, la entropía es una medida del número de formas en que se puede organizar un sistema, a menudo considerada como una medida de "desorden" (cuanto mayor es la entropía, mayor es el desorden). [24] [25] [26] Esta definición describe la entropía como proporcional al logaritmo natural del número de posibles configuraciones microscópicas de los átomos y moléculas individuales del sistema ( microestados ) que podrían causar el estado macroscópico observado ( macroestado ). del sistema. La constante de proporcionalidad es la constante de Boltzmann .

La constante de Boltzmann, y por tanto la entropía, tienen dimensiones de energía dividida por la temperatura, que tiene una unidad de julios por kelvin (J⋅K −1 ) en el Sistema Internacional de Unidades (o kg⋅m 2 ⋅s −2 ⋅K − 1 en términos de unidades base). La entropía de una sustancia generalmente se da como una propiedad intensiva  : ya sea entropía por unidad de masa (unidad SI: J⋅K −1 ⋅kg −1 ) o entropía por unidad de cantidad de sustancia (unidad SI: J⋅K −1 ⋅mol −1 ).

Específicamente, la entropía es una medida logarítmica del número de estados del sistema con una probabilidad significativa de estar ocupado:

( es la probabilidad de que el sistema esté en el estado, generalmente dada por la distribución de Boltzmann ; si los estados se definen de manera continua, la suma se reemplaza por una integral sobre todos los estados posibles) o, de manera equivalente, el valor esperado del logaritmo de la probabilidad de que un microestado esté ocupado

donde k B es la constante de Boltzmann , igual a1,380 65 × 10 −23  J/K . La suma es sobre todos los microestados posibles del sistema, y ​​p i es la probabilidad de que el sistema esté en el i -ésimo microestado. [27] Esta definición supone que el conjunto básico de estados se ha elegido de modo que no hay información sobre sus fases relativas. En un conjunto de bases diferente, la expresión más general es

donde es la matriz de densidad , es la traza y es el logaritmo de la matriz . Esta formulación de matriz de densidad no es necesaria en casos de equilibrio térmico siempre que los estados básicos se elijan como estados propios de energía. Para la mayoría de los propósitos prácticos, esto puede tomarse como la definición fundamental de entropía, ya que todas las demás fórmulas para S pueden derivarse matemáticamente de ella, pero no al revés.

En lo que se ha llamado el supuesto fundamental de la termodinámica estadística o el postulado fundamental de la mecánica estadística , entre los microestados de sistemas de la misma energía ( microestados degenerados ) se supone que cada microestado está poblado con igual probabilidad; Esta suposición suele justificarse para un sistema aislado en equilibrio. [28] Entonces para un sistema aislado p i = 1/Ω, donde Ω es el número de microestados cuya energía es igual a la energía del sistema, y ​​la ecuación anterior se reduce a

En termodinámica, un sistema de este tipo es aquel en el que el volumen, el número de moléculas y la energía interna son fijos (el conjunto microcanónico ).

La interpretación más general de la entropía es como una medida del grado de incertidumbre acerca de un sistema. El estado de equilibrio de un sistema maximiza la entropía porque no refleja toda la información sobre las condiciones iniciales, excepto las variables conservadas. Esta incertidumbre no es del tipo subjetivo cotidiano, sino más bien de la incertidumbre inherente al método experimental y al modelo interpretativo. [29]

El modelo interpretativo tiene un papel central en la determinación de la entropía. El calificativo "para un conjunto dado de variables macroscópicas" anterior tiene profundas implicaciones: si dos observadores utilizan diferentes conjuntos de variables macroscópicas, ven diferentes entropías. Por ejemplo, si el observador A usa las variables U , V y W , y el observador B usa U , V , W , X , entonces, al cambiar X , el observador B puede causar un efecto que parece una violación de la segunda ley de la termodinámica. al observador A. En otras palabras: el conjunto de variables macroscópicas que uno elige debe incluir todo lo que pueda cambiar en el experimento, de lo contrario uno podría ver una entropía decreciente. [30]

La entropía se puede definir para cualquier proceso de Markov con dinámica reversible y la propiedad de equilibrio detallada .

En las Conferencias sobre teoría de los gases de 1896 , Boltzmann demostró que esta expresión da una medida de entropía para sistemas de átomos y moléculas en fase gaseosa, proporcionando así una medida para la entropía de la termodinámica clásica.

Entropía de un sistema

Un sistema termodinámico
Un diagrama de temperatura-entropía para el vapor. El eje vertical representa la temperatura uniforme y el eje horizontal representa la entropía específica. Cada línea oscura en el gráfico representa presión constante y estas forman una malla con líneas gris claro de volumen constante. (El azul oscuro es agua líquida, el azul claro es una mezcla de líquido y vapor y el azul tenue es vapor. El azul grisáceo representa agua líquida supercrítica).

La entropía surge directamente del ciclo de Carnot . También se puede describir como el calor reversible dividido por la temperatura. La entropía es una función fundamental del estado.

En un sistema termodinámico , la presión y la temperatura tienden a uniformarse con el tiempo porque el estado de equilibrio tiene mayor probabilidad (más combinaciones posibles de microestados ) que cualquier otro estado.

Por ejemplo, para un vaso de agua helada en el aire a temperatura ambiente , la diferencia de temperatura entre la habitación cálida (el entorno) y el vaso frío de hielo y agua (el sistema y no parte de la habitación) disminuye a medida que las porciones de la energía térmica del entorno cálido se propaga al sistema más frío de hielo y agua. Con el tiempo, la temperatura del vaso y su contenido y la temperatura de la habitación se igualan. En otras palabras, la entropía de la habitación ha disminuido a medida que parte de su energía se ha dispersado en el hielo y el agua, cuya entropía ha aumentado.

Sin embargo, como se calcula en el ejemplo, la entropía del sistema de hielo y agua ha aumentado más de lo que ha disminuido la entropía de la habitación circundante. En un sistema aislado como el de la habitación y el agua helada juntos, la dispersión de energía de lo más cálido a lo más frío siempre resulta en un aumento neto de entropía. Por lo tanto, cuando el "universo" de la habitación y el sistema de agua helada ha alcanzado un equilibrio de temperatura, el cambio de entropía desde el estado inicial es máximo. La entropía del sistema termodinámico es una medida de hasta qué punto ha progresado la ecualización.

La entropía termodinámica es una función de estado no conservada que tiene gran importancia en las ciencias de la física y la química . [24] [31] Históricamente, el concepto de entropía evolucionó para explicar por qué algunos procesos (permitidos por las leyes de conservación) ocurren espontáneamente mientras que sus inversiones en el tiempo (también permitidas por las leyes de conservación) no; Los sistemas tienden a progresar en la dirección de una entropía creciente. [32] [33] Para sistemas aislados , la entropía nunca disminuye. [31] Este hecho tiene varias consecuencias importantes en la ciencia: en primer lugar, prohíbe las máquinas de " movimiento perpetuo "; y segundo, implica que la flecha de la entropía tiene la misma dirección que la flecha del tiempo . Los aumentos en la entropía total del sistema y sus alrededores corresponden a cambios irreversibles, porque parte de la energía se gasta como calor residual, lo que limita la cantidad de trabajo que puede realizar un sistema. [24] [25] [34] [35]

A diferencia de muchas otras funciones de estado, la entropía no puede observarse directamente sino que debe calcularse. La entropía molar estándar absoluta de una sustancia se puede calcular a partir de la dependencia medida de la temperatura de su capacidad calorífica . La entropía molar de los iones se obtiene como la diferencia de entropía con respecto a un estado de referencia definido como entropía cero. La segunda ley de la termodinámica establece que la entropía de un sistema aislado debe aumentar o permanecer constante. Por lo tanto, la entropía no es una cantidad conservada: por ejemplo, en un sistema aislado con temperatura no uniforme, el calor podría fluir irreversiblemente y la temperatura volverse más uniforme de modo que la entropía aumente. [36] Las reacciones químicas provocan cambios en la entropía y la entropía del sistema, junto con la entalpía , juega un papel importante a la hora de determinar en qué dirección procede espontáneamente una reacción química.

Una definición de entropía en el diccionario es que es "una medida de energía térmica por unidad de temperatura que no está disponible para un trabajo útil" en un proceso cíclico. Por ejemplo, una sustancia a temperatura uniforme tiene entropía máxima y no puede impulsar un motor térmico. Una sustancia a una temperatura no uniforme tiene una entropía más baja (que si se permite que la distribución del calor se iguale) y parte de la energía térmica puede impulsar un motor térmico.

Un caso especial de aumento de entropía, la entropía de mezcla , ocurre cuando se mezclan dos o más sustancias diferentes. Si las sustancias están a la misma temperatura y presión, no hay intercambio neto de calor o trabajo; el cambio de entropía se debe enteramente a la mezcla de diferentes sustancias. A nivel mecánico estadístico, esto se debe al cambio en el volumen disponible por partícula con la mezcla. [37]

Equivalencia de definiciones

Se conocen pruebas de equivalencia entre la definición de entropía en mecánica estadística (la fórmula de entropía de Gibbs ) y en termodinámica clásica ( junto con la relación termodinámica fundamental ) para el conjunto microcanónico , el conjunto canónico , el gran conjunto canónico y el isotérmico-isobárico. conjunto . Estas pruebas se basan en la densidad de probabilidad de los microestados de la distribución generalizada de Boltzmann y en la identificación de la energía interna termodinámica como promedio del conjunto . [38] Luego se emplean relaciones termodinámicas para derivar la conocida fórmula de entropía de Gibbs . Sin embargo, la equivalencia entre la fórmula de entropía de Gibbs y la definición termodinámica de entropía no es una relación termodinámica fundamental sino más bien una consecuencia de la forma de la distribución generalizada de Boltzmann . [39]

Además, se ha demostrado que las definiciones de entropía en mecánica estadística es la única entropía equivalente a la entropía de la termodinámica clásica según los siguientes postulados: [40]

  1. La función de densidad de probabilidad es proporcional a alguna función de los parámetros del conjunto y las variables aleatorias.
  2. Las funciones de estado termodinámicas se describen mediante promedios conjuntos de variables aleatorias.
  3. A temperatura infinita, todos los microestados tienen la misma probabilidad.

Segunda ley de la termodinámica

La segunda ley de la termodinámica requiere que, en general, la entropía total de cualquier sistema no disminuya salvo aumentando la entropía de algún otro sistema. Por tanto, en un sistema aislado de su entorno, la entropía de ese sistema tiende a no disminuir. De ello se deduce que el calor no puede fluir de un cuerpo más frío a un cuerpo más caliente sin la aplicación de trabajo al cuerpo más frío. En segundo lugar, es imposible que cualquier dispositivo que funcione en un ciclo produzca trabajo neto a partir de un único depósito de temperatura; La producción de trabajo neto requiere un flujo de calor desde un depósito más caliente a un depósito más frío, o un único depósito en expansión sometido a enfriamiento adiabático , que realiza trabajo adiabático . Como resultado, no existe la posibilidad de una máquina de movimiento perpetuo . De ello se deduce que una reducción en el aumento de entropía en un proceso específico, como una reacción química , significa que es energéticamente más eficiente.

De la segunda ley de la termodinámica se deduce que la entropía de un sistema que no está aislado puede disminuir. Un acondicionador de aire , por ejemplo, puede enfriar el aire de una habitación, reduciendo así la entropía del aire de ese sistema. El calor expulsado de la habitación (el sistema), que el aire acondicionado transporta y descarga al aire exterior, siempre contribuye más a la entropía del ambiente que la disminución de la entropía del aire de ese sistema. Así, la entropía total de la habitación más la entropía del entorno aumenta, de acuerdo con la segunda ley de la termodinámica.

En mecánica, la segunda ley junto con la relación termodinámica fundamental impone límites a la capacidad de un sistema para realizar un trabajo útil . [41] El cambio de entropía de un sistema a temperatura que absorbe una cantidad infinitesimal de calor de forma reversible, viene dado por . Más explícitamente, una energía no está disponible para realizar un trabajo útil, donde está la temperatura del depósito accesible más frío o del disipador de calor externo al sistema. Para más información, consulte Exergía .

La mecánica estadística demuestra que la entropía está regida por la probabilidad, lo que permite una disminución del desorden incluso en un sistema aislado. Aunque esto es posible, tal evento tiene una pequeña probabilidad de ocurrir, lo que lo hace poco probable. [42]

La aplicabilidad de una segunda ley de la termodinámica se limita a sistemas en un estado de equilibrio o lo suficientemente cerca de él, de modo que tengan una entropía definida. [43] Algunos sistemas no homogéneos fuera del equilibrio termodinámico aún satisfacen la hipótesis del equilibrio termodinámico local , de modo que la densidad de entropía se define localmente como una cantidad intensiva. Para tales sistemas, puede aplicarse un principio de tasa temporal máxima de producción de entropía. [44] [45] Afirma que dicho sistema puede evolucionar a un estado estacionario que maximice su tasa temporal de producción de entropía. Esto no significa que tal sistema esté necesariamente siempre en una condición de máxima tasa temporal de producción de entropía; significa que puede evolucionar a ese estado estable. [46] [47]

Aplicaciones

La relación termodinámica fundamental.

La entropía de un sistema depende de su energía interna y de sus parámetros externos, como su volumen. En el límite termodinámico, este hecho conduce a una ecuación que relaciona el cambio en la energía interna con los cambios en la entropía y los parámetros externos. Esta relación se conoce como relación termodinámica fundamental . Si la presión externa influye sobre el volumen como único parámetro externo, esta relación es:

Dado que tanto la energía interna como la entropía son funciones monótonas de la temperatura , lo que implica que la energía interna se fija cuando se especifica la entropía y el volumen, esta relación es válida incluso si el cambio de un estado de equilibrio térmico a otro con entropía y volumen infinitamente mayores ocurre de una manera no cuasiestática (por lo que durante este cambio el sistema puede estar muy lejos del equilibrio térmico y entonces la entropía, la presión y la temperatura de todo el sistema pueden no existir).

La relación termodinámica fundamental implica muchas identidades termodinámicas que son válidas en general, independientemente de los detalles microscópicos del sistema. Ejemplos importantes son las relaciones de Maxwell y las relaciones entre capacidades caloríficas .

Entropía en termodinámica química.

La entropía termodinámica es fundamental en la termodinámica química , ya que permite cuantificar los cambios y predecir el resultado de las reacciones. La segunda ley de la termodinámica establece que la entropía en un sistema aislado (la combinación de un subsistema en estudio y su entorno) aumenta durante todos los procesos químicos y físicos espontáneos. La ecuación de Clausius introduce la medida del cambio de entropía . El cambio de entropía describe la dirección y cuantifica la magnitud de cambios simples, como la transferencia de calor entre sistemas, siempre de forma espontánea, de más caliente a más frío.

La entropía termodinámica tiene, por tanto, la dimensión de energía dividida por la temperatura, y la unidad julio por kelvin (J/K) en el Sistema Internacional de Unidades (SI).

La entropía termodinámica es una propiedad extensiva , lo que significa que aumenta con el tamaño o la extensión de un sistema. En muchos procesos es útil especificar la entropía como una propiedad intensiva independiente del tamaño, como una entropía específica del tipo de sistema estudiado. La entropía específica se puede expresar en relación con una unidad de masa, normalmente el kilogramo (unidad: J⋅kg −1 ⋅K −1 ). Alternativamente, en química, también se hace referencia a un mol de sustancia, en cuyo caso se llama entropía molar con una unidad de J⋅mol −1 ⋅K −1 .

Así, cuando un mol de sustancia a aproximadamente0 K es calentado por su entorno a298 K , la suma de los valores incrementales de constituye la entropía molar estándar de cada elemento o compuesto, un indicador de la cantidad de energía almacenada por una sustancia en298 mil . [48] ​​[49] El cambio de entropía también mide la mezcla de sustancias como una suma de sus cantidades relativas en la mezcla final. [50]

La entropía es igualmente esencial para predecir el alcance y la dirección de reacciones químicas complejas. Para este tipo de aplicaciones, se debe incorporar una expresión que incluya tanto el sistema como su entorno . Esta expresión se convierte, mediante algunos pasos, en la ecuación de energía libre de Gibbs para los reactivos y productos del sistema: [el cambio de energía libre de Gibbs del sistema] [el cambio de entalpía] [el cambio de entropía]. [48]

La capacidad tecnológica mundial para almacenar y comunicar información entrópica

Un estudio de 2011 en Science (revista) estimó la capacidad tecnológica mundial para almacenar y comunicar información óptimamente comprimida normalizada sobre los algoritmos de compresión más efectivos disponibles en el año 2007, estimando así la entropía de las fuentes tecnológicamente disponibles. [51] La estimación del autor de que la capacidad tecnológica de la humanidad para almacenar información creció de 2,6 exabytes (comprimidos entrópicamente) en 1986 a 295 exabytes (comprimidos entrópicamente) en 2007. La capacidad tecnológica mundial para recibir información a través de redes de transmisión unidireccionales era de 432 exabytes. de información (comprimida entrópicamente) en 1986, a 1,9 zettabytes en 2007. La capacidad efectiva del mundo para intercambiar información a través de redes de telecomunicaciones bidireccionales fue de 281 petabytes de información (comprimida entrópicamente) en 1986, a 65 exabytes (comprimidos entrópicamente) en 2007. [51]

Ecuación de equilibrio de entropía para sistemas abiertos.

Durante la operación continua en estado estacionario , un balance de entropía aplicado a un sistema abierto toma en cuenta los cambios de entropía del sistema relacionados con el flujo de calor y el flujo de masa a través de los límites del sistema.

En ingeniería química , los principios de la termodinámica se aplican comúnmente a " sistemas abiertos ", es decir, aquellos en los que el calor, el trabajo y la masa fluyen a través de los límites del sistema. Los flujos de calor ( ) y trabajo, es decir ( trabajo del eje ) y (trabajo presión-volumen), a través de los límites del sistema, en general causan cambios en la entropía del sistema. La transferencia como calor implica transferencia de entropía , donde es la temperatura termodinámica absoluta del sistema en el punto del flujo de calor. Si hay flujos de masa a través de los límites del sistema, también influyen en la entropía total del sistema. Esta cuenta, en términos de calor y trabajo, es válida sólo para los casos en los que las transferencias de trabajo y calor se realizan por caminos físicamente distintos de los caminos de entrada y salida de materia del sistema. [52] [53]

Para derivar una ecuación de equilibrio de entropía generalizada, comenzamos con la ecuación de equilibrio general para el cambio en cualquier cantidad extensiva en un sistema termodinámico , una cantidad que puede estar conservada, como la energía, o no conservada, como la entropía. La expresión de equilibrio genérica básica establece que , es decir, la tasa de cambio de en el sistema, es igual a la tasa a la que ingresa al sistema en los límites, menos la tasa a la que sale del sistema a través de los límites del sistema, más la tasa a la que se genera dentro del sistema. Para un sistema termodinámico abierto en el que el calor y el trabajo se transfieren por caminos separados de los caminos de transferencia de materia, usando esta ecuación de equilibrio genérica, con respecto a la tasa de cambio con el tiempo de la cantidad extensiva entropía , la ecuación de balance de entropía es: [54] [55] [nota 1]

dónde

Si hay múltiples flujos de calor, el término se reemplaza por dónde está el flujo de calor y es la temperatura en el puerto de flujo de calor hacia el sistema.

La nomenclatura "equilibrio de entropía" es engañosa y a menudo se considera inapropiada porque la entropía no es una cantidad conservada. En otras palabras, el término nunca es una cantidad conocida sino siempre una cantidad derivada basada en la expresión anterior. Por lo tanto, la versión de sistema abierto de la segunda ley se describe más apropiadamente como la "ecuación de generación de entropía", ya que especifica que , con cero para procesos reversibles o mayor que cero para los irreversibles.

Fórmulas de cambio de entropía para procesos simples.

Para ciertas transformaciones simples en sistemas de composición constante, los cambios de entropía vienen dados por fórmulas simples. [56]

Expansión o compresión isotérmica de un gas ideal.

Para la expansión (o compresión) de un gas ideal desde un volumen y presión iniciales hasta un volumen y presión finales a cualquier temperatura constante, el cambio de entropía viene dado por:

Aquí está la cantidad de gas (en moles ) y es la constante de los gases ideales . Estas ecuaciones también se aplican a la expansión en un vacío finito o a un proceso de estrangulamiento , donde la temperatura, la energía interna y la entalpía de un gas ideal permanecen constantes.

Refrigeración y calefacción

Para calentamiento o enfriamiento puro de cualquier sistema (gas, líquido o sólido) a presión constante desde una temperatura inicial hasta una temperatura final , el cambio de entropía es

siempre que la capacidad calorífica molar (o calor específico) C P a presión constante sea constante y que no se produzca ninguna transición de fase en este intervalo de temperatura.

De manera similar, a volumen constante, el cambio de entropía es

donde la capacidad calorífica molar de volumen constante C v es constante y no hay cambio de fase.

A bajas temperaturas cercanas al cero absoluto, la capacidad calorífica de los sólidos cae rápidamente hasta cerca de cero , por lo que no se aplica el supuesto de capacidad calorífica constante. [57]

Dado que la entropía es una función de estado , el cambio de entropía de cualquier proceso en el que varían la temperatura y el volumen es el mismo que para un camino dividido en dos pasos: calentamiento a volumen constante y expansión a temperatura constante. Para un gas ideal, el cambio de entropía total es [58]

De manera similar, si la temperatura y la presión de un gas ideal varían,

Transiciones de fase

Las transiciones de fase reversibles ocurren a temperatura y presión constantes. El calor reversible es el cambio de entalpía de la transición y el cambio de entropía es el cambio de entalpía dividido por la temperatura termodinámica. [59] Para la fusión ( fusión ) de un sólido a un líquido en el punto de fusión T m , la entropía de fusión es

De manera similar, para la vaporización de un líquido a gas en el punto de ebullición T b , la entropía de vaporización es

Enfoques para comprender la entropía

Como aspecto fundamental de la termodinámica y la física, son válidos varios enfoques diferentes de la entropía más allá del de Clausius y Boltzmann.

Definiciones estándar de libros de texto

La siguiente es una lista de definiciones adicionales de entropía de una colección de libros de texto:

En el análisis de Boltzmann en términos de partículas constituyentes, la entropía es una medida del número de posibles estados microscópicos (o microestados) de un sistema en equilibrio termodinámico.

Orden y desorden

La entropía a menudo se asocia vagamente con la cantidad de orden o desorden , o de caos , en un sistema termodinámico . La descripción cualitativa tradicional de la entropía es que se refiere a cambios en el estado del sistema y es una medida del "desorden molecular" y la cantidad de energía desperdiciada en una transformación dinámica de energía de un estado o forma a otro. En esta dirección, varios autores recientes han derivado fórmulas de entropía exacta para explicar y medir el desorden y el orden en conjuntos atómicos y moleculares. [62] [63] [64] Una de las fórmulas de orden/desorden de entropía más simples es la derivada en 1984 por el físico termodinámico Peter Landsberg, basada en una combinación de argumentos de termodinámica y teoría de la información . Sostiene que cuando operan restricciones en un sistema, de modo que se le impide entrar en uno o más de sus estados posibles o permitidos, en contraste con sus estados prohibidos, la medida de la cantidad total de "desorden" en el sistema está dada por : [63] [64]

De manera similar, la cantidad total de "orden" en el sistema viene dada por:

En la que C D es la capacidad de "desorden" del sistema, que es la entropía de las partes contenidas en el conjunto permitido, C I es la capacidad de "información" del sistema, expresión similar a la capacidad del canal de Shannon , y C O es la capacidad de "orden" del sistema. [62]

Dispersión de energía

Video en cámara lenta de un vaso de vidrio rompiéndose contra un piso de concreto. En el muy corto período de tiempo que dura el proceso de rotura, la entropía de la masa que constituye la copa de vidrio aumenta bruscamente, a medida que la materia y la energía del vidrio se dispersan.

El concepto de entropía puede describirse cualitativamente como una medida de dispersión de energía a una temperatura específica. [65] Se han utilizado términos similares desde principios de la historia de la termodinámica clásica , y con el desarrollo de la termodinámica estadística y la teoría cuántica , los cambios de entropía se han descrito en términos de la mezcla o "dispersión" de la energía total de cada constituyente. de un sistema sobre sus niveles de energía cuantificados particulares.

Las ambigüedades en los términos desorden y caos , que normalmente tienen significados directamente opuestos a equilibrio, contribuyen a una confusión generalizada y dificultan la comprensión de la entropía para la mayoría de los estudiantes. [66] Como muestra la segunda ley de la termodinámica , en un sistema aislado las porciones internas a diferentes temperaturas tienden a ajustarse a una única temperatura uniforme y, por lo tanto, producen equilibrio. Un enfoque educativo desarrollado recientemente evita términos ambiguos y describe esa dispersión de energía como dispersión, lo que conduce a la pérdida de los diferenciales necesarios para el trabajo, incluso aunque la energía total permanezca constante de acuerdo con la primera ley de la termodinámica [67] (compárese la discusión en Siguiente sección). El químico físico Peter Atkins , en su libro de texto Química Física , introduce la entropía con la afirmación de que "los cambios espontáneos siempre van acompañados de una dispersión de energía o materia y, a menudo, de ambas cosas". [68]

Relacionar la entropía con la utilidad energética

Es posible (en un contexto térmico) considerar una entropía más baja como una medida de la efectividad o utilidad de una cantidad particular de energía. [69] La energía suministrada a una temperatura más alta (es decir, con baja entropía) tiende a ser más útil que la misma cantidad de energía disponible a una temperatura más baja. Mezclar una porción caliente de un fluido con otra fría produce una porción de temperatura intermedia, en la que el aumento general de entropía representa una "pérdida" que nunca podrá ser reemplazada.

A medida que la entropía del universo aumenta constantemente, su energía total se vuelve menos útil. Con el tiempo, se teoriza que esto conducirá a la muerte térmica del universo . [70]

Entropía y accesibilidad adiabática.

E. H. Lieb y J. Yngvason dieron una definición de entropía basada enteramente en la relación de accesibilidad adiabática entre estados de equilibrio en 1999. [71] Este enfoque tiene varios predecesores, incluido el trabajo pionero de Constantin Carathéodory de 1909 [72] y el monografía de R. Giles. [73] En el marco de Lieb e Yngvason, se comienza seleccionando, para una cantidad unitaria de la sustancia bajo consideración, dos estados de referencia y tales que el último sea adiabáticamente accesible desde el primero, pero no a la inversa. Al definir las entropías de los estados de referencia como 0 y 1 respectivamente, la entropía de un estado se define como el mayor número tal que es adiabáticamente accesible desde un estado compuesto que consta de una cantidad en el estado y una cantidad complementaria, en el estado. . Un resultado simple pero importante dentro de este contexto es que la entropía está determinada únicamente, además de la elección de una unidad y una constante aditiva para cada elemento químico, por las siguientes propiedades: Es monótona con respecto a la relación de accesibilidad adiabática, aditiva sobre compuesto sistemas y un amplio subescalado.

Entropía en mecánica cuántica

En mecánica estadística cuántica , el concepto de entropía fue desarrollado por John von Neumann y generalmente se lo conoce como " entropía de von Neumann ".

donde ρ es la matriz de densidad y Tr es el operador de traza .

Esto mantiene el principio de correspondencia , porque en el límite clásico , cuando las fases entre los estados básicos utilizados para las probabilidades clásicas son puramente aleatorias, esta expresión es equivalente a la familiar definición clásica de entropía,

es decir, en tal base la matriz de densidad es diagonal.

Von Neumann estableció un marco matemático riguroso para la mecánica cuántica con su trabajo Mathematische Grundlagen der Quantenmechanik . En este trabajo proporcionó una teoría de la medición, en la que la noción habitual de colapso de la función de onda se describe como un proceso irreversible (la llamada medición de von Neumann o proyectiva ). Utilizando este concepto, junto con la matriz de densidad, extendió el concepto clásico de entropía al dominio cuántico.

Teoría de la información

Pensé en llamarlo "información", pero la palabra se usaba demasiado, así que decidí llamarla "incertidumbre". [...] Von Neumann me dijo: "Deberías llamarlo entropía, por dos razones. En primer lugar, tu función de incertidumbre se ha utilizado en mecánica estadística con ese nombre, por lo que ya tiene un nombre. En segundo lugar, y lo que es más importante, nadie sabe qué es realmente la entropía, por lo que en un debate siempre tendrás la ventaja.

Conversación entre Claude Shannon y John von Neumann sobre qué nombre darle a la atenuación en las señales de las líneas telefónicas [74]

Cuando se ve en términos de teoría de la información , la función del estado de entropía es la cantidad de información en el sistema que se necesita para especificar completamente el microestado del sistema. La entropía es la medida de la cantidad de información que falta antes de la recepción. [75] A menudo llamada entropía de Shannon , fue ideada originalmente por Claude Shannon en 1948 para estudiar el tamaño de la información de un mensaje transmitido. La definición de entropía de la información se expresa en términos de un conjunto discreto de probabilidades de modo que

donde la base del logaritmo determina las unidades (por ejemplo, el logaritmo binario corresponde a bits ).

En el caso de los mensajes transmitidos, estas probabilidades eran las probabilidades de que un mensaje en particular se transmitiera realmente, y la entropía del sistema de mensajes era una medida del tamaño promedio de la información de un mensaje. Para el caso de probabilidades iguales (es decir, cada mensaje es igualmente probable), la entropía de Shannon (en bits) es simplemente el número de preguntas binarias necesarias para determinar el contenido del mensaje. [27]

La mayoría de los investigadores consideran que la entropía de la información y la entropía termodinámica están directamente relacionadas con el mismo concepto, [76] [77] [78] [79] [80], mientras que otros argumentan que son distintas. [81] Ambas expresiones son matemáticamente similares. Si es el número de microestados que pueden producir un macroestado dado, y cada microestado tiene la misma probabilidad a priori , entonces esa probabilidad es . La entropía de Shannon (en nats ) es

y si la entropía se mide en unidades de per nat, entonces la entropía viene dada por

que es la fórmula de la entropía de Boltzmann , donde es la constante de Boltzmann, que puede interpretarse como la entropía termodinámica por nat. Algunos autores abogan por eliminar la palabra entropía para la función de la teoría de la información y utilizar en su lugar el otro término de Shannon, "incertidumbre". [82]

Medición

La entropía de una sustancia se puede medir, aunque de forma indirecta. La medición, conocida como entropimetría, [83] se realiza en un sistema cerrado (con el número de partículas N y el volumen V constantes) y utiliza la definición de temperatura [84] en términos de entropía, al tiempo que limita el intercambio de energía al calor ( ).

La relación resultante describe cómo cambia la entropía cuando se introduce  una pequeña cantidad de energía en el sistema a una determinada temperatura .

El proceso de medición es el siguiente. Primero, se enfría una muestra de la sustancia lo más cerca posible del cero absoluto. A tales temperaturas, la entropía se acerca a cero, debido a la definición de temperatura. Luego, se introducen pequeñas cantidades de calor en la muestra y se registra el cambio de temperatura, hasta que la temperatura alcanza el valor deseado (normalmente 25 °C). Los datos obtenidos permiten al usuario integrar la ecuación anterior, produciendo el valor absoluto de entropía de la sustancia a la temperatura final. Este valor de entropía se llama entropía calorimétrica. [85]

Aplicaciones interdisciplinarias

Aunque el concepto de entropía era originalmente un concepto termodinámico, se ha adaptado a otros campos de estudio, [54] incluida la teoría de la información , la psicodinámica , la termoeconomía / economía ecológica y la evolución . [62] [86] [87] [88] [89]

Filosofía y física teórica.

La entropía es la única cantidad en las ciencias físicas que parece implicar una dirección particular de progreso, a veces llamada flecha del tiempo . A medida que pasa el tiempo, la segunda ley de la termodinámica establece que la entropía de un sistema aislado nunca disminuye en sistemas grandes durante períodos de tiempo significativos. De ahí que, desde esta perspectiva, la medición de la entropía se considere como un reloj en estas condiciones. [ cita necesaria ]

Biología

Chiavazzo et al. propuso que el lugar donde las arañas de las cavernas eligen poner sus huevos puede explicarse mediante la minimización de la entropía. [90]

Se ha demostrado que la entropía es útil en el análisis de secuencias de pares de bases en el ADN. Se ha demostrado que muchas medidas basadas en la entropía distinguen entre diferentes regiones estructurales del genoma, diferencian entre regiones codificantes y no codificantes del ADN y también pueden aplicarse para la recreación de árboles evolutivos determinando la distancia evolutiva entre diferentes especies. [91]

Cosmología

Suponiendo que un universo finito es un sistema aislado, la segunda ley de la termodinámica establece que su entropía total aumenta continuamente. Se ha especulado, desde el siglo XIX, que el universo está destinado a una muerte térmica en la que toda la energía termina siendo una distribución homogénea de energía térmica, de modo que no se puede extraer más trabajo de ninguna fuente.

Si se puede considerar que el universo tiene una entropía generalmente creciente, entonces, como ha señalado Roger Penrose , la gravedad juega un papel importante en el aumento porque la gravedad hace que la materia dispersa se acumule en estrellas, que eventualmente colapsan en agujeros negros . La entropía de un agujero negro es proporcional al área de superficie del horizonte de sucesos del agujero negro . [92] [93] [94] Jacob Bekenstein y Stephen Hawking han demostrado que los agujeros negros tienen la entropía máxima posible de cualquier objeto de igual tamaño. Esto los convierte en probables puntos finales de todos los procesos de aumento de entropía, si son trampas de materia y energía totalmente efectivas. [95] Sin embargo, el escape de energía de los agujeros negros podría ser posible debido a la actividad cuántica (ver Radiación de Hawking ).

El papel de la entropía en cosmología sigue siendo un tema controvertido desde la época de Ludwig Boltzmann . Trabajos recientes han arrojado algunas dudas sobre la hipótesis de la muerte por calor y la aplicabilidad de cualquier modelo termodinámico simple al universo en general. Aunque la entropía aumenta en el modelo de un universo en expansión, la entropía máxima posible aumenta mucho más rápidamente, alejando con el tiempo al universo de la muerte por calor, no acercándolo. [96] [97] [98] Esto da como resultado una "brecha de entropía" que empuja al sistema más lejos del equilibrio de muerte por calor propuesto. [99] Otros factores que complican la situación, como la densidad de energía del vacío y los efectos cuánticos macroscópicos , son difíciles de conciliar con los modelos termodinámicos, lo que hace que cualquier predicción de la termodinámica a gran escala sea extremadamente difícil. [100]

Las teorías actuales sugieren que la brecha de entropía se abrió originalmente por la rápida expansión exponencial del universo. [101]

Ciencias económicas

El economista rumano-estadounidense Nicholas Georgescu-Roegen , progenitor de la economía y fundador del paradigma de la economía ecológica , hizo un uso extensivo del concepto de entropía en su obra maestra sobre La ley de la entropía y el proceso económico . [77] Debido al trabajo de Georgescu-Roegen, las leyes de la termodinámica forman una parte integral de la escuela de economía ecológica . [102] : 204 y siguientes  [103] : 29–35  Aunque su trabajo estuvo algo manchado por errores , se ha incluido con aprobación un capítulo completo sobre la economía de Georgescu-Roegen en un libro de texto de física elemental sobre el desarrollo histórico de la termodinámica. [104] : 95-112 

En economía, el trabajo de Georgescu-Roegen ha generado el término "pesimismo entropía" . [105] : 116  Desde la década de 1990, el destacado economista ecológico y teórico del estado estacionario Herman Daly –estudiante de Georgescu-Roegen– ha sido el defensor más influyente dentro de la profesión económica de la posición del pesimismo entropía. [106] : 545f  [107]

Ver también

Notas

  1. ^ Los puntos superiores representan derivadas de las cantidades con respecto al tiempo.

Referencias

  1. ^ Wehrl, Alfred (1 de abril de 1978). "Propiedades generales de la entropía". Reseñas de Física Moderna . 50 (2): 221–260. Código Bib : 1978RvMP...50..221W. doi :10.1103/RevModPhys.50.221.
  2. ^ Truesdell, C. (1980). La tragicómica historia de la termodinámica, 1822-1854 . Nueva York: Springer-Verlag. pag. 215.ISBN 0387904034– vía Archivo de Internet .
  3. ^ Pincel, SG (1976). El tipo de movimiento que llamamos calor: una historia de la teoría cinética de los gases en el siglo XIX, Libro 2, Física estadística y procesos irreversibles , Elsevier, Amsterdam, ISBN 0-444-87009-1 , págs. 
  4. ^ "Carnot, Sadi (1796-1832)". Investigación Wolfram. 2007 . Consultado el 24 de febrero de 2010 .
  5. ^ McCulloch, Richard, S. (1876). Tratado sobre la teoría mecánica del calor y sus aplicaciones a la máquina de vapor, etc. D. Van Nostrand.{{cite book}}: CS1 maint: multiple names: authors list (link)
  6. ^ ab Clausius, Rudolf (1850). "Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen". Annalen der Physik (en alemán). 155 (3): 368–397. Código bibliográfico : 1850AnP...155..368C. doi : 10.1002/andp.18501550306. hdl : 2027/uc1.$b242250 .[Sobre la fuerza motriz del calor y sobre las leyes que pueden deducirse de él para la teoría del calor]: Annalen der Physik und Chemie de Poggendorff .
  7. ^ Liddell, HG, Scott, R. (1843/1978). Un léxico griego-inglés, edición revisada y aumentada, Oxford University Press, Oxford Reino Unido, ISBN 0198642148 , págs. 
  8. ^ ab Clausius, Rudolf (1865). "Ueber verschiedene für die Anwendung bequeme Formen der Hauptgleichungen der mechanischen Wärmetheorie (Vorgetragen in der naturforsch. Gesellschaft zu Zürich den 24 de abril de 1865)". Annalen der Physik und Chemie (en alemán). 125 (7): 353–400. Código bibliográfico : 1865AnP...201..353C. doi : 10.1002/andp.18652010702. pag. 390: Sucht man für Seinen bezeichnenden Namen, so könnte man, ähnlich wie von der Gröſse U gesagt ist, sie sey der Wärme- und Werkinhalt des Körpers, von der Gröſse S sagen, sie sey der Verwandlungsinhalt des Körpers. Da ich es aber für besser halte, die Namen derartiger für die Wissenschaft wichtiger Gröſsen aus den alten Sprachen zu entnehmen, damit sie unverändert in allen neuen Sprachen angewandt werden können, so schlage ich vor, die Gröſse S nach dem griechischen Worte ἡ τροπή, morir Verwandlung, die Entropie des Körpers zu nennen. Das Wort Entropie habei ich absichtlich dem Worte Energie möglichst ähnlich gebildet, denn die beiden Gröſsen, welche durch diese Worte benannt werden sollen, sind ihren physikalischen Bedeutungen nach einander so nahe verwandt, daſs eine gewisse Gleichartigkeit in der Benennung mir z weckmäſsig zu seyn scheint.
  9. ^ ab Gillispie, Charles Coulston (1960). El borde de la objetividad: un ensayo sobre la historia de las ideas científicas . Prensa de la Universidad de Princeton. pag. 399.ISBN 0-691-02350-6. Clausius acuñó la palabra entropía para decir : "Prefiero ir a las lenguas antiguas para los nombres de cantidades científicas importantes, para que puedan significar lo mismo en todas las lenguas vivientes. Propongo, en consecuencia, llamar a la entropía de un cuerpo, después de "He acuñado deliberadamente la palabra griega 'transformación' para que sea similar a 'energía', porque estas dos cantidades son tan análogas en su significado físico, que una analogía de denominación me pareció útil".
  10. ^ ab Cooper, León N. (1968). Una introducción al significado y la estructura de la física . Harper. pag. 331.
  11. ^ Los artículos científicos de J. Willard Gibbs en dos volúmenes. vol. 1. Longmans, Green y Co. 1906. p. 11 . Consultado el 26 de febrero de 2011 .
  12. ^ JA McGovern, "Entropía 2,5". Archivado desde el original el 23 de septiembre de 2012 . Consultado el 5 de febrero de 2013 .
  13. ^ "6.5 Irreversibilidad, cambios de entropía y trabajo perdido". web.mit.edu . Consultado el 21 de mayo de 2016 .
  14. ^ Más abajo, Stephen. "¿Qué es la entropía?". chem1.com . Consultado el 21 de mayo de 2016 .
  15. ^ Lavanda, Bernard H. (2010). "2.3.4". Una nueva perspectiva sobre la termodinámica (Online-Ausg. ed.). Nueva York: Springer. ISBN 978-1-4419-1430-9.
  16. ^ Carnot, Sadi Carnot (1986). Fox, Robert (ed.). Reflexiones sobre la fuerza motriz del fuego . Nueva York: Lilian Barber Press. págs.26. ISBN 978-0-936508-16-0.
  17. ^ Truesdell, C. (1980). La tragicómica historia de la termodinámica 1822-1854 . Nueva York: Springer. págs. 78–85. ISBN 978-0-387-90403-0.
  18. ^ Secretario Maxwell, James (2001). Pesic, Pedro (ed.). Teoría del calor . Mineola: Publicaciones de Dover. págs. 115-158. ISBN 978-0-486-41735-6.
  19. ^ ab Planck, M. (1945). Tratado de Termodinámica . Publicaciones de Dover. pag. §90 y §137. ecuaciones (39), (40) y (65).
  20. ^ Rudolf Clausius (1867). La teoría mecánica del calor: con sus aplicaciones a la máquina de vapor y a las propiedades físicas de los cuerpos. J. Van Voorst. pag. 28.ISBN 978-1-4981-6733-8.
  21. ^ Fermi, E. (1956). Termodinámica . Publicaciones de Dover (aún en impresión). pag. 48. ecuación (64).
  22. ^ Atkins, Pedro; Julio De Paula (2006). Química Física, 8ª ed . Prensa de la Universidad de Oxford. pag. 79.ISBN 978-0-19-870072-2.
  23. ^ Engel, Tomás; Philip Reid (2006). Química Física . Pearson Benjamín Cummings. pag. 86.ISBN 978-0-8053-3842-3.
  24. ^ abc Licker, Mark D. (2004). Enciclopedia concisa de química de McGraw-Hill . Nueva York: McGraw-Hill Professional. ISBN 978-0-07-143953-4.
  25. ^ ab Sethna, James P. (2006). Mecánica estadística: entropía, parámetros de orden y complejidad ([Online-Ausg.] ed.). Oxford: Prensa de la Universidad de Oxford. pag. 78.ISBN 978-0-19-856677-9.
  26. ^ Clark, John OE (2004). El diccionario esencial de la ciencia . Nueva York: Barnes & Noble. ISBN 978-0-7607-4616-5.
  27. ^ ab Frigg, R. y Werndl, C. "Entropía: una guía para los perplejos" Archivado el 13 de agosto de 2011 en Wayback Machine . En Probabilidades en Física ; Beisbart C. y Hartmann, S. (eds.); Prensa de la Universidad de Oxford, Oxford, 2010.
  28. ^ Schroeder, Daniel V. (2000). Una introducción a la física térmica . San Francisco, California: Addison Wesley. pag. 57.ISBN 978-0-201-38027-9.
  29. ^ Jaynes, ET (1 de mayo de 1965). "Entropías de Gibbs vs Boltzmann". Revista Estadounidense de Física . 33 (5): 391–398. Código bibliográfico : 1965AmJPh..33..391J. doi :10.1119/1.1971557. ISSN  0002-9505.
  30. ^ Jaynes, et (1992). "La paradoja de Gibbs". En Smith, CR; Erickson, GJ; Neudorfer, PO (eds.). Máxima Entropía y Métodos Bayesianos (PDF) . Académico de Kluwer: Dordrecht. págs. 1–22 . Consultado el 17 de agosto de 2012 .
  31. ^ ab Sandler, Stanley I. (2006). Termodinámica química, bioquímica y de ingeniería (4ª ed.). Nueva York: John Wiley & Sons. pag. 91.ISBN 978-0-471-66174-0.
  32. ^ Simón, John D.; McQuarrie, Donald A. (1997). Química física: un enfoque molecular (Rev. ed.). Sausalito, California: Univ. Libros de ciencia. pag. 817.ISBN 978-0-935702-99-6.
  33. ^ Haynie, Donald T. (2001). Termodinámica biológica . Prensa de la Universidad de Cambridge . ISBN 978-0-521-79165-6.
  34. ^ Daintith, John (2005). Un diccionario de ciencia (5ª ed.). Oxford: Prensa de la Universidad de Oxford. ISBN 978-0-19-280641-3.
  35. ^ de Rosnay, Joel (1979). El macroscopio: una nueva visión del mundo (escrito por un bioquímico formado en el MIT) . Harper & Row, editores. ISBN 978-0-06-011029-1.
  36. ^ McGovern, JA "Capacidades térmicas". Archivado desde el original el 19 de agosto de 2012 . Consultado el 27 de enero de 2013 .
  37. ^ Ben-Naim, Arieh (21 de septiembre de 2007). "Sobre la llamada paradoja de Gibbs y sobre la verdadera paradoja" (PDF) . Entropía . 9 (3): 132-136. Código Bib : 2007Entrp...9..132B. doi : 10.3390/e9030133 .
  38. ^ Callen, Herbert (2001). Termodinámica e introducción a la termoestadística (2ª ed.) . John Wiley e hijos. ISBN 978-0-471-86256-7.
  39. ^ Gao, Xiang; Gallicchio, Emilio; Roitberg, Adrián (2019). "La distribución generalizada de Boltzmann es la única distribución en la que la entropía de Gibbs-Shannon es igual a la entropía termodinámica". La Revista de Física Química . 151 (3): 034113. arXiv : 1903.02121 . Código Bib :2019JChPh.151c4113G. doi : 10.1063/1.5111333. PMID  31325924. S2CID  118981017.
  40. ^ Gao, Xiang (marzo de 2022). "Las Matemáticas de la Teoría de Conjuntos". Resultados en Física . 34 : 105230. arXiv : 2006.00485 . Código Bib : 2022ResPh..3405230G. doi : 10.1016/j.rinp.2022.105230 . S2CID  221978379.
  41. ^ Daintith, John (2005). Diccionario Oxford de Física . Prensa de la Universidad de Oxford. ISBN 978-0-19-280628-4.
  42. ^ Saha, Arnab; Lahiri, Surabh; Jayannavar, AM (2009). "Teoremas de producción de entropía y algunas consecuencias". Revisión física E. 80 (1): 1–10. arXiv : 0903.4147 . Código bibliográfico : 2009PhRvE..80a1117S. doi : 10.1103/PhysRevE.80.011117. PMID  19658663. S2CID  22204063.
  43. ^ Martyushev, LM; Seleznev, VD (2014). "Las restricciones del principio de producción de máxima entropía". Physica A: Mecánica estadística y sus aplicaciones . 410 : 17-21. arXiv : 1311.2068 . Código Bib : 2014PhyA..410...17M. doi :10.1016/j.physa.2014.05.014. S2CID  119224112.
  44. ^ Ziegler, H. (1983). Introducción a la termomecánica . Holanda del Norte, Ámsterdam.{{cite book}}: CS1 maint: location missing publisher (link)
  45. ^ Onsager, Lars (1931). "Relaciones recíprocas en procesos irreversibles". Física. Rdo . 37 (4): 405. Código bibliográfico : 1931PhRv...37..405O. doi : 10.1103/PhysRev.37.405 .
  46. ^ Kleidon, A.; et., al. (2005). Termodinámica del desequilibrio y producción de entropía . Heidelberg: Springer.
  47. ^ Belkin, Andrey; et., al. (2015). "Nanoestructuras ondulantes autoensambladas y el principio de máxima producción de entropía". Informes científicos . 5 : 8323. Código Bib : 2015NatSR...5E8323B. doi : 10.1038/srep08323. PMC 4321171 . PMID  25662746. 
  48. ^ ab Moore, JW; CL Stanistski; Jurados de PC (2005). Química, La Ciencia Molecular . Brooks Cole. ISBN 978-0-534-42201-1.
  49. ^ Jüngermann, AH (2006). "La entropía y el modelo de plataforma: un enfoque físico cuántico de una propiedad física". Revista de Educación Química . 83 (11): 1686-1694. Código Bib : 2006JChEd..83.1686J. doi :10.1021/ed083p1686. S2CID  18081336.
  50. ^ Levine, IN (2002). Química Física, 5ª ed . McGraw-Hill. ISBN 978-0-07-231808-1.
  51. ^ ab Hilbert, Martín; López, Priscila (11 de febrero de 2011). "La capacidad tecnológica del mundo para almacenar, comunicar y calcular información". Ciencia . 332 (6025): 60–65. Código Bib : 2011 Ciencia... 332... 60H. doi : 10.1126/ciencia.1200970 . ISSN  0036-8075. PMID  21310967. S2CID  206531385.
  52. ^ El difunto premio Nobel Max Born (8 de agosto de 2015). Filosofía natural de la causa y el azar. BiblioVida. págs. 44, 146-147. ISBN 978-1-298-49740-6.
  53. ^ Haase, R. (1971). Termodinámica . Nueva York: Academic Press. págs. 1–97. ISBN 978-0-12-245601-5.
  54. ^ ab Pokrovskii, Vladimir (2020). Termodinámica de Sistemas Complejos: Principios y aplicaciones . IOP Publishing, Bristol, Reino Unido. Código Bib : 2020tcsp.book.....P.
  55. ^ Sandler, Stanley, I. (1989). Termodinámica Química y de Ingeniería . John Wiley e hijos. ISBN 978-0-471-83050-4.{{cite book}}: CS1 maint: multiple names: authors list (link)
  56. ^ "GRC.nasa.gov". GRC.nasa.gov. 27 de marzo de 2000. Archivado desde el original el 21 de agosto de 2011 . Consultado el 17 de agosto de 2012 .
  57. ^ Franzen, Stefan. «Tercera Ley» (PDF) . ncsu.edu. Archivado desde el original (PDF) el 9 de julio de 2017.
  58. ^ "GRC.nasa.gov". GRC.nasa.gov. 11 de julio de 2008 . Consultado el 17 de agosto de 2012 .
  59. ^ Starzak, Michael E. (2010). "Equilibrios de fases y propiedades coligativas". Energía y entropía: equilibrio en estados estacionarios . Springer Ciencia + Medios comerciales. págs. 138-140. ISBN 978-1489983671. Consultado el 5 de septiembre de 2019 .
  60. ^ Gribbin, John (1999). Gribbin, María (ed.). Q es para cuántica: una enciclopedia de física de partículas. Nueva York: Prensa libre. ISBN 978-0-684-85578-3.
  61. ^ "Entropía: definición y ecuación". Enciclopedia Británica . Consultado el 22 de mayo de 2016 .
  62. ^ abc Brooks, Daniel R.; Wiley, EO (1988). La evolución como entropía: hacia una teoría unificada de la biología (2ª ed.). Chicago [etc.]: Prensa de la Universidad de Chicago. ISBN 978-0-226-07574-7.
  63. ^ ab Landsberg, PT (1984). "¿El equilibrio es siempre un máximo de entropía?". J. estadística. Física . 35 (1–2): 159–169. Código Bib : 1984JSP....35..159L. doi :10.1007/bf01017372. S2CID  122424225.
  64. ^ ab Landsberg, PT (1984). "¿Pueden la entropía y el" orden "aumentar juntos?". Letras de Física . 102A (4): 171–173. Código bibliográfico : 1984PhLA..102..171L. doi :10.1016/0375-9601(84)90934-4.
  65. ^ Lambert, Frank L. "Un enfoque estudiantil de la segunda ley y la entropía".
  66. ^ Watson, JR; Carson, EM (mayo de 2002). "Comprensión de los estudiantes universitarios sobre la entropía y la energía libre de Gibbs" (PDF) . Enseñanza Universitaria de Química . 6 (1): 4. ISSN  1369-5614.
  67. ^ Lambert, Frank L. (febrero de 2002). "Desorden: una muleta rota para apoyar las discusiones sobre entropía". Revista de Educación Química . 79 (2): 187. Código bibliográfico : 2002JChEd..79..187L. doi :10.1021/ed079p187. S2CID  97102995.
  68. ^ Peter Atkins; Julio de Paula; James Keeler (2019). Química física de Atkins 11e: Volumen 3: Termodinámica y cinética molecular. Prensa de la Universidad de Oxford. pag. 89.ISBN 978-0-19-882336-0.
  69. ^ Sandra Saary (23 de febrero de 1993). "Reseña del libro 'Una miscelánea científica'". Tiempos de Khaleej . Emiratos Árabes Unidos: Galadari Press: xi.
  70. ^ Herrero, Crosbie; Sabio, M. Norton (1989). Energía e imperio: un estudio biográfico de Lord Kelvin . Prensa de la Universidad de Cambridge. págs. 500–501. ISBN 978-0-521-26173-9.
  71. ^ Lieb, Elliott H.; Yngvason, Jakob (marzo de 1999). "La física y las matemáticas de la segunda ley de la termodinámica". Informes de Física . 310 (1): 1–96. arXiv : cond-mat/9708200 . Código Bib : 1999PhR...310....1L. doi :10.1016/S0370-1573(98)00082-9. S2CID  119620408.
  72. ^ Carathéodory, C. (septiembre de 1909). "Untersuchungen über die Grundlagen der Thermodynamik". Mathematische Annalen (en alemán). 67 (3): 355–386. doi :10.1007/BF01450409. S2CID  118230148.
  73. ^ R. Giles (2016). Fundamentos matemáticos de la termodinámica: serie internacional de monografías sobre matemáticas puras y aplicadas. Ciencia Elsevier. ISBN 978-1-4831-8491-3.
  74. ^ Tribus, M.; McIrvine, CE (1971). "Energía e información". Científico americano . 224 (3): 178–184. JSTOR  24923125.
  75. ^ Balian, Roger (2004). "Entropía, un concepto proteico". En Dalibard, Jean (ed.). Seminario Poincaré 2003: Condensación de Bose-Einstein – entropía . Basilea: Birkhäuser. págs. 119-144. ISBN 978-3-7643-7116-6.
  76. ^ Brillouin, León (1956). Teoría de la ciencia y la información . Publicaciones de Dover. ISBN 978-0-486-43918-1.
  77. ^ ab Georgescu-Roegen, Nicolás (1971). La ley de la entropía y el proceso económico. Prensa de la Universidad de Harvard. ISBN 978-0-674-25781-8.
  78. ^ Chen, Jing (2005). La base física de la economía: una teoría termodinámica analítica . Científico mundial. ISBN 978-981-256-323-1.
  79. ^ Kalinin, Michigan; Kononogov, SA (2005). "La constante de Boltzmann". Técnicas de Medición . 48 (7): 632–636. doi :10.1007/s11018-005-0195-9. S2CID  118726162.
  80. ^ Ben-Naim, Arieh (2008). La entropía desmitificó la segunda ley reduciéndola al simple sentido común (edición ampliada). Singapur: World Scientific. ISBN 9789812832269.
  81. ^ Vallino, José J.; Algar, Christopher K.; González, Nuria Fernández; Huber, Julie A. (2013). "Uso del control óptimo del horizonte en retroceso para resolver problemas de biogeoquímica basados ​​en MaxEP (producción máxima de entropía)". En Dewar, Roderick C.; Tejedor de líneas, Charles H.; Niven, Robert K.; Regenauer-Lieb, Klaus (eds.). Más allá de la segunda ley: producción de entropía y sistemas de desequilibrio . Los sistemas vivos como catalizadores. Saltador. pag. 340.ISBN 978-3642401534. Consultado el 31 de agosto de 2019 . La página entintada forma un patrón con información → entropía de página < página diferencial con letras aleatorias. La entropía reducida es trivial en comparación con la entropía del papel entintado. Si el papel se quema, en un contexto termodinámico poco importa si el texto contiene el significado de la vida o sólo jerigonza [ sic ].
  82. ^ Schneider, Tom, sistema DELILA (lenguaje de biblioteca de ácido desoxirribonucleico), (análisis de la teoría de la información de los sitios de unión), Laboratorio de Biología Matemática, Instituto Nacional del Cáncer, Frederick, MD.
  83. ^ Kim, Hye Jin; Parque, Youngkyu; Kwon, Yoonjin; Shin, Jaeho; Kim, Young-Han; Ahn, Hyun-Seok; Yazami, Rachid; Choi, Jang Wook (2020). "Entropimetría para análisis estructural no destructivo de cátodos de LiCoO 2". Energía y ciencias ambientales . 13 (1): 286–296. doi :10.1039/C9EE02964H. ISSN  1754-5692. S2CID  212779004.
  84. ^ Schroeder, Daniel V. (2000). Una introducción a la física térmica ([Nachdr.] ed.). San Francisco, CA [ua]: Addison Wesley. pag. 88.ISBN 978-0-201-38027-9.
  85. ^ "Medición de la entropía". chem.wisc.edu .
  86. ^ Avery, John (2003). Teoría y evolución de la información . Científico mundial. ISBN 978-981-238-399-0.
  87. ^ Yockey, Hubert, P. (2005). Teoría de la información, evolución y origen de la vida . Prensa de la Universidad de Cambridge. ISBN 978-0-521-80293-2.{{cite book}}: CS1 maint: multiple names: authors list (link)
  88. ^ Chiavazzo, Eliodoro; Fasano, Mateo; Asinari, Pietro (2013). "Inferencia de modelos termodinámicos analíticos para redes biológicas" (PDF) . Physica A: Mecánica estadística y sus aplicaciones . 392 (5): 1122-1132. Código Bib : 2013PhyA..392.1122C. doi :10.1016/j.physa.2012.11.030. S2CID  12418973.
  89. ^ Chen, Jing (2015). La unidad de la ciencia y la economía: una nueva base de la teoría económica. Saltador. doi :10.1007/978-1-4939-3466-9. ISBN 978-1-4939-3464-5.
  90. ^ Chiavazzo, Eliodoro; Isaía, Marco; Mammola, Stefano; Leporé, Emiliano; Ventola, Luigi; Asinari, Pietro; Pugno, Nicola María (2015). "Las arañas de las cavernas eligen factores ambientales óptimos con respecto a la entropía generada al depositar su capullo". Informes científicos . 5 : 7611. Código Bib : 2015NatSR...5E7611C. doi :10.1038/srep07611. PMC 5154591 . PMID  25556697. 
  91. ^ Thanos, Dimitrios; Li, Wentian; Provata, Astero (1 de marzo de 2018). "Fluctuaciones entrópicas en secuencias de ADN". Physica A: Mecánica estadística y sus aplicaciones . 493 : 444–457. Código Bib : 2018PhyA..493..444T. doi :10.1016/j.physa.2017.11.119. ISSN  0378-4371.
  92. ^ von Baeyer, Christian, H. (2003). Información: el nuevo lenguaje de la ciencia. Prensa de la Universidad de Harvard. ISBN 978-0-674-01387-2.{{cite book}}: CS1 maint: multiple names: authors list (link)
  93. ^ Srednicki M (agosto de 1993). "Entropía y área". Física. Rev. Lett . 71 (5): 666–669. arXiv : hep-th/9303048 . Código bibliográfico : 1993PhRvL..71..666S. doi : 10.1103/PhysRevLett.71.666. PMID  10055336. S2CID  9329564.
  94. ^ Callaway DJE (abril de 1996). "Tensión superficial, hidrofobicidad y agujeros negros: la conexión entrópica". Física. Rev. E. 53 (4): 3738–3744. arXiv : cond-mat/9601111 . Código bibliográfico : 1996PhRvE..53.3738C. doi :10.1103/PhysRevE.53.3738. PMID  9964684. S2CID  7115890.
  95. ^ Sarkar, conocimientos tradicionales; Salazar-Palma, M.; Mokole, Eric L. (2008). "Una mirada al concepto de capacidad del canal desde un punto de vista maxwelliano". Física de sistemas multiantena y procesamiento de banda ancha . Wiley. pag. 162.ISBN 978-0470190401. Consultado el 31 de agosto de 2019 .
  96. ^ Layzer, David (1990). Cosmogénesis: el crecimiento del orden en el universo . Prensa de la Universidad de Oxford.
  97. ^ Chaisson, Eric J. (2001). Evolución cósmica: el aumento de la complejidad en la naturaleza. Prensa de la Universidad de Harvard. ISBN 978-0-674-00342-2.
  98. ^ Tejedor de líneas, Charles H.; Davies, Paul CW; Ruse, Michael, eds. (2013). Complejidad y la flecha del tiempo . Prensa de la Universidad de Cambridge. ISBN 978-1-107-02725-1.
  99. ^ Stenger, Víctor J. (2007). Dios: la hipótesis fallida . Libros de Prometeo. ISBN 978-1-59102-481-1.
  100. ^ Benjamín Gal-Or (1987). Cosmología, Física y Filosofía . Springer Verlag. ISBN 978-0-387-96526-0.
  101. ^ Albrecht, Andreas (2004). "La inflación cósmica y la flecha del tiempo" (PDF) . En Barrow, John D .; Davies, Paul CW ; Harper, Charles L. (eds.). Ciencia y realidad última: de lo cuántico al cosmos . Cambridge, Reino Unido: Cambridge University Press. arXiv : astro-ph/0210527 . Código bibliográfico : 2002astro.ph.10527A . Consultado el 28 de junio de 2017.. En honor al 90 cumpleaños de John Wheeler.
  102. ^ Cleveland, Cutler J .; Rut, Matías (1997). "¿Cuándo, dónde y en qué medida los límites biofísicos limitan el proceso económico? Un estudio de la contribución de Nicholas Georgescu-Roegen a la economía ecológica". Economía Ecológica . 22 (3). Ámsterdam: Elsevier : 203–223. doi : 10.1016/s0921-8009(97)00079-7 .
  103. ^ Daly, Herman E .; Farley, Josué (2011). Economía Ecológica. Principios y aplicaciones (el PDF contiene el libro completo) (2ª ed.). Washington: Prensa de la isla. ISBN 978-1-59726-681-9.
  104. ^ Schmitz, John EJ (2007). La segunda ley de la vida: energía, tecnología y el futuro de la Tierra tal como la conocemos (Enlace al blog científico del autor, basado en su libro de texto) . Norwich: Publicación de William Andrew. ISBN 978-0-8155-1537-1.
  105. ^ Ayres, Robert U. (2007). "Sobre los límites prácticos de la sustitución" (PDF) . Economía Ecológica . 61 . Ámsterdam: Elsevier : 115-128. doi :10.1016/j.ecolecon.2006.02.011. S2CID  154728333.
  106. ^ Kerschner, cristiano (2010). "Decrecimiento económico versus economía de estado estacionario" (PDF) . Revista de Producción Más Limpia . 18 (6). Ámsterdam: Elsevier : 544–551. doi :10.1016/j.jclepro.2009.10.019.
  107. ^ Daly, Herman E. (2015). "Economía para un mundo pleno". Científico americano . 293 (3): 100–7. doi : 10.1038/scientificamerican0905-100. PMID  16121860. S2CID  13441670 . Consultado el 23 de noviembre de 2016 .

Otras lecturas

enlaces externos