En la mecánica estadística clásica , el teorema H , introducido por Ludwig Boltzmann en 1872, describe la tendencia a la disminución de la cantidad H (definida a continuación) en un gas casi ideal de moléculas. [1] Como esta cantidad H estaba destinada a representar la entropía de la termodinámica, el teorema H fue una demostración temprana del poder de la mecánica estadística , ya que pretendía derivar la segunda ley de la termodinámica (una declaración sobre procesos fundamentalmente irreversibles ) a partir de la mecánica microscópica reversible. Se cree que prueba la segunda ley de la termodinámica , [2] [3] [4] aunque bajo el supuesto de condiciones iniciales de baja entropía. [5]
El teorema H es una consecuencia natural de la ecuación cinética derivada por Boltzmann, que se conoce como ecuación de Boltzmann . El teorema H ha dado lugar a un debate considerable sobre sus implicaciones reales, [6] siendo los temas principales:
Boltzmann en su publicación original escribe el símbolo E (como en entropía ) para su función estadística . [1] Años más tarde, Samuel Hawksley Burbury , uno de los críticos del teorema, [7] escribió la función con el símbolo H, [8] una notación que fue adoptada posteriormente por Boltzmann al referirse a su "teorema H ". [9] La notación ha llevado a cierta confusión con respecto al nombre del teorema. Aunque el enunciado suele denominarse " teorema de Aitch " , a veces se le llama en cambio " teorema de Eta ", ya que la letra griega mayúscula Eta ( Η ) es indistinguible de la versión mayúscula de la letra latina h ( H ) . [10] Se han planteado debates sobre cómo debe entenderse el símbolo, pero sigue sin estar claro debido a la falta de fuentes escritas de la época del teorema. [10] [11] Los estudios de la tipografía y la obra de JW Gibbs [12] parecen favorecer la interpretación de H como Eta . [13]
El valor de H se determina a partir de la función f ( E , t ) dE , que es la función de distribución de energía de las moléculas en el tiempo t . El valor f ( E , t ) dE es el número de moléculas que tienen una energía cinética entre E y E + dE . H se define como
Para un gas ideal aislado (con energía total fija y número total fijo de partículas), la función H es mínima cuando las partículas tienen una distribución de Maxwell-Boltzmann ; si las moléculas del gas ideal están distribuidas de alguna otra manera (por ejemplo, todas con la misma energía cinética), entonces el valor de H será mayor. El teorema H de Boltzmann , descrito en la siguiente sección, muestra que cuando se permiten colisiones entre moléculas, dichas distribuciones son inestables y tienden a tender irreversiblemente hacia el valor mínimo de H (hacia la distribución de Maxwell-Boltzmann).
(Nota sobre la notación: Boltzmann utilizó originalmente la letra E para la cantidad H ; la mayor parte de la literatura posterior a Boltzmann utiliza la letra H como aquí. Boltzmann también utilizó el símbolo x para referirse a la energía cinética de una partícula).
Boltzmann estudió lo que ocurre durante la colisión entre dos partículas. Es un hecho básico de la mecánica que en la colisión elástica entre dos partículas (como esferas duras), la energía transferida entre las partículas varía en función de las condiciones iniciales (ángulo de colisión, etc.).
Boltzmann formuló una suposición clave conocida como Stosszahlansatz ( suposición del caos molecular ), según la cual, durante cualquier colisión en el gas, las dos partículas que participan en la colisión tienen 1) energías cinéticas elegidas independientemente de la distribución, 2) direcciones de velocidad independientes, 3) puntos de partida independientes. Con arreglo a estas suposiciones, y dada la mecánica de la transferencia de energía, las energías de las partículas después de la colisión obedecerán a una nueva distribución aleatoria que puede calcularse.
Considerando colisiones repetidas no correlacionadas, entre cualquiera y todas las moléculas del gas, Boltzmann construyó su ecuación cinética ( ecuación de Boltzmann ). A partir de esta ecuación cinética, un resultado natural es que el proceso continuo de colisión hace que la cantidad H disminuya hasta alcanzar un mínimo.
Aunque el teorema H de Boltzmann resultó no ser la prueba absoluta de la segunda ley de la termodinámica como se afirmó originalmente (ver Críticas más abajo), el teorema H llevó a Boltzmann en los últimos años del siglo XIX a argumentos cada vez más probabilísticos sobre la naturaleza de la termodinámica. La visión probabilística de la termodinámica culminó en 1902 con la mecánica estadística de Josiah Willard Gibbs para sistemas completamente generales (no solo gases) y la introducción de conjuntos estadísticos generalizados .
La ecuación cinética y, en particular, el supuesto del caos molecular de Boltzmann inspiraron toda una familia de ecuaciones de Boltzmann que todavía se utilizan hoy en día para modelar los movimientos de partículas, como los electrones en un semiconductor. En muchos casos, el supuesto del caos molecular es muy preciso y la capacidad de descartar correlaciones complejas entre partículas hace que los cálculos sean mucho más sencillos.
El proceso de termalización se puede describir utilizando el teorema H o el teorema de relajación. [14]
A continuación se describen varias razones importantes por las que el teorema H , al menos en su forma original de 1871, no es completamente riguroso. Como Boltzmann acabaría admitiendo, la flecha del tiempo en el teorema H no es, de hecho, puramente mecánica, sino en realidad una consecuencia de suposiciones sobre las condiciones iniciales. [15]
Poco después de que Boltzmann publicara su teorema H , Johann Josef Loschmidt objetó que no debería ser posible deducir un proceso irreversible a partir de una dinámica simétrica en el tiempo y un formalismo simétrico en el tiempo. Si la H disminuye con el tiempo en un estado, entonces debe haber un estado inverso correspondiente donde H aumenta con el tiempo ( paradoja de Loschmidt ). La explicación es que la ecuación de Boltzmann se basa en el supuesto de " caos molecular ", es decir, que se sigue del modelo cinético subyacente, o al menos es consistente con él, que las partículas se consideren independientes y no correlacionadas. Resulta que este supuesto rompe la simetría de inversión temporal en un sentido sutil y, por lo tanto, plantea la cuestión . Una vez que se permite que las partículas colisionen, sus direcciones de velocidad y posiciones de hecho se correlacionan (sin embargo, estas correlaciones están codificadas de una manera extremadamente compleja). Esto muestra que un supuesto (en curso) de independencia no es consistente con el modelo de partículas subyacente.
La respuesta de Boltzmann a Loschmidt fue admitir la posibilidad de estos estados, pero señalar que estos tipos de estados eran tan raros e inusuales que resultaban imposibles en la práctica. Boltzmann agudizaría más adelante esta noción de la "rareza" de los estados, lo que dio lugar a su fórmula de entropía de 1877.
Como demostración de la paradoja de Loschmidt, un contraejemplo moderno (no del teorema H original de Boltzmann relacionado con los gases , sino de un análogo estrechamente relacionado) es el fenómeno del eco de espín . [16] En el efecto del eco de espín, es físicamente posible inducir una inversión del tiempo en un sistema de espines en interacción.
Un análogo de la H de Boltzmann para el sistema de espín puede definirse en términos de la distribución de estados de espín en el sistema. En el experimento, el sistema de espín se perturba inicialmente hasta un estado de no equilibrio (alta H ) y, como predice el teorema de la H, la cantidad H pronto disminuye hasta el valor de equilibrio. En algún momento, se aplica un pulso electromagnético cuidadosamente construido que invierte los movimientos de todos los espines. Los espines luego deshacen la evolución temporal desde antes del pulso y después de algún tiempo la H realmente aumenta alejándose del equilibrio (una vez que la evolución se ha desenrollado completamente, la H disminuye una vez más hasta el valor mínimo). En cierto sentido, los estados de inversión temporal observados por Loschmidt resultaron no ser completamente imprácticos.
En 1896, Ernst Zermelo observó otro problema con el teorema H , que era que si el H del sistema en cualquier momento no es un mínimo, entonces por recurrencia de Poincaré , el H no mínimo debe recurrir (aunque después de un tiempo extremadamente largo). Boltzmann admitió que estos aumentos recurrentes en H ocurrirían técnicamente, pero señaló que, a lo largo de tiempos largos, el sistema pasa solo una pequeña fracción de su tiempo en uno de estos estados recurrentes.
La segunda ley de la termodinámica establece que la entropía de un sistema aislado siempre aumenta hasta un valor máximo de equilibrio. Esto es estrictamente cierto sólo en el límite termodinámico de un número infinito de partículas. Para un número finito de partículas, siempre habrá fluctuaciones de entropía. Por ejemplo, en el volumen fijo del sistema aislado, la entropía máxima se obtiene cuando la mitad de las partículas están en una mitad del volumen, la otra mitad en la otra, pero a veces habrá temporalmente unas cuantas partículas más en un lado que en el otro, y esto constituirá una reducción muy pequeña de la entropía. Estas fluctuaciones de entropía son tales que cuanto más se espere, mayor será probablemente la fluctuación de entropía que se verá durante ese tiempo, y el tiempo que se debe esperar para una determinada fluctuación de entropía es siempre finito, incluso para una fluctuación hasta su valor mínimo posible. Por ejemplo, uno podría tener una condición de entropía extremadamente baja en la que todas las partículas están en una mitad del recipiente. El gas alcanzará rápidamente su valor de equilibrio de entropía, pero dado el tiempo suficiente, esta misma situación se repetirá. Para sistemas prácticos, por ejemplo un gas en un recipiente de 1 litro a temperatura ambiente y presión atmosférica, este tiempo es verdaderamente enorme, muchos múltiplos de la edad del universo y, prácticamente hablando, uno puede ignorar la posibilidad.
Como H es una variable definida mecánicamente que no se conserva, entonces, como cualquier otra variable de este tipo (presión, etc.), mostrará fluctuaciones térmicas . Esto significa que H muestra regularmente aumentos espontáneos a partir del valor mínimo. Técnicamente, esto no es una excepción al teorema H , ya que el teorema H solo se pretendía aplicar a un gas con un número muy grande de partículas. Estas fluctuaciones solo son perceptibles cuando el sistema es pequeño y el intervalo de tiempo durante el cual se observa no es enormemente grande.
Si H se interpreta como entropía, como pretendía Boltzmann, entonces esto puede verse como una manifestación del teorema de fluctuación .
H es un precursor de la entropía de información de Shannon . Claude Shannon denotó su medida de entropía de información H después del teorema H. [17] El artículo sobre la entropía de información de Shannon contiene una explicación de la contraparte discreta de la cantidad H , conocida como entropía de información o incertidumbre de información (con un signo menos). Al extender la entropía de información discreta a la entropía de información continua , también llamada entropía diferencial , se obtiene la expresión en la ecuación de la sección anterior, Definición y significado de la H de Boltzmann, y por lo tanto una mejor idea del significado de H.
La conexión del teorema H entre la información y la entropía juega un papel central en una controversia reciente llamada la paradoja de la información del agujero negro .
El libro de Richard C. Tolman , Principios de la mecánica estadística , de 1938 , dedica un capítulo entero al estudio del teorema H de Boltzmann y su extensión en la mecánica estadística clásica generalizada de Gibbs . Otro capítulo está dedicado a la versión mecánica cuántica del teorema H.
Sea q i y p i nuestras coordenadas canónicas generalizadas para un conjunto de partículas. Luego, consideramos una función que devuelve la densidad de probabilidad de partículas, sobre los estados en el espacio de fases . Observe cómo esto se puede multiplicar por una pequeña región en el espacio de fases, denotada por , para obtener el número esperado (promedio) de partículas en esa región.
Tolman ofrece las siguientes ecuaciones para la definición de la cantidad H en el teorema H original de Boltzmann .
Aquí sumamos las regiones en las que se divide el espacio de fases, indexadas por . Y en el límite para un volumen infinitesimal del espacio de fases , podemos escribir la suma como una integral.
H también se puede escribir en términos del número de moléculas presentes en cada una de las células.
Una forma adicional de calcular la cantidad H es:
donde P es la probabilidad de encontrar un sistema elegido al azar del conjunto microcanónico especificado . Finalmente, se puede escribir como:
donde G es el número de estados clásicos. [ aclaración necesaria ]
La cantidad H también puede definirse como la integral sobre el espacio de velocidades [ cita requerida ] :
donde P ( v ) es la distribución de probabilidad.
Utilizando la ecuación de Boltzmann se puede demostrar que H sólo puede disminuir.
Para un sistema de N partículas estadísticamente independientes, H está relacionada con la entropía termodinámica S a través de: [23]
Entonces, según el teorema H , S sólo puede aumentar.
En la mecánica estadística cuántica (que es la versión cuántica de la mecánica estadística clásica), la función H es la función: [24]
donde la suma se ejecuta sobre todos los posibles estados distintos del sistema, y p i es la probabilidad de que el sistema pueda encontrarse en el i -ésimo estado.
Esto está estrechamente relacionado con la fórmula de entropía de Gibbs ,
y procederemos (siguiendo, por ejemplo, a Waldram (1985), pág. 39) utilizando S en lugar de H.
En primer lugar, diferenciando con respecto al tiempo se obtiene
(usando el hecho de que Σ dp i / dt = 0, ya que Σ p i = 1, por lo que el segundo término se desvanece. Veremos más adelante que será útil dividir esto en dos sumas).
Ahora bien, la regla de oro de Fermi proporciona una ecuación maestra para la tasa promedio de saltos cuánticos del estado α al β; y del estado β al α. (Por supuesto, la regla de oro de Fermi en sí misma hace ciertas aproximaciones, y la introducción de esta regla es lo que introduce la irreversibilidad. Es esencialmente la versión cuántica del Stosszahlansatz de Boltzmann ). Para un sistema aislado, los saltos harán contribuciones
donde la reversibilidad de la dinámica asegura que la misma constante de transición ν αβ aparezca en ambas expresiones.
Entonces
Los dos términos de diferencia en la sumatoria siempre tienen el mismo signo. Por ejemplo:
entonces
Así que en general los dos signos negativos se cancelarán.
Por lo tanto,
para un sistema aislado.
Las mismas matemáticas se utilizan a veces para demostrar que la entropía relativa es una función de Lyapunov de un proceso de Markov en un balance detallado y otros contextos de química.
Josiah Willard Gibbs describió otra forma en la que la entropía de un sistema microscópico tendería a aumentar con el tiempo. [25] Escritores posteriores han llamado a esto " teorema H de Gibbs ", ya que su conclusión se asemeja a la de Boltzmann. [26] El propio Gibbs nunca lo llamó teorema H y, de hecho, su definición de entropía (y mecanismo de aumento) son muy diferentes de las de Boltzmann. Esta sección se incluye para completar la información histórica.
El teorema de producción de entropía de Gibbs se establece en la mecánica estadística de conjuntos , y la cantidad de entropía es la entropía de Gibbs (entropía de información) definida en términos de la distribución de probabilidad para todo el estado del sistema. Esto contrasta con la H de Boltzmann , definida en términos de la distribución de estados de moléculas individuales, dentro de un estado específico del sistema.
Gibbs consideró el movimiento de un conjunto que inicialmente comienza confinado a una pequeña región del espacio de fases, lo que significa que el estado del sistema se conoce con bastante precisión aunque no con total exactitud (baja entropía de Gibbs). La evolución de este conjunto a lo largo del tiempo se produce de acuerdo con la ecuación de Liouville . Para casi cualquier tipo de sistema realista, la evolución de Liouville tiende a "agitar" el conjunto en el espacio de fases, un proceso análogo a la mezcla de un tinte en un fluido incompresible. [25] Después de algún tiempo, el conjunto parece estar esparcido en el espacio de fases, aunque en realidad es un patrón de rayas finas, con el volumen total del conjunto (y su entropía de Gibbs) conservado. Se garantiza que la ecuación de Liouville conserva la entropía de Gibbs ya que no hay un proceso aleatorio que actúe sobre el sistema; en principio, el conjunto original se puede recuperar en cualquier momento invirtiendo el movimiento.
El punto crítico del teorema es, por tanto, el siguiente: si la estructura fina del conjunto agitado se difumina muy ligeramente, por cualquier razón, la entropía de Gibbs aumenta y el conjunto se convierte en un conjunto de equilibrio. En cuanto a por qué debería producirse esta difuminación en la realidad, se han sugerido diversos mecanismos. Por ejemplo, uno de ellos es que el espacio de fases tiene un grano grueso por alguna razón (análogo a la pixelización en la simulación del espacio de fases que se muestra en la figura). Para cualquier grado finito de finura requerido, el conjunto se vuelve "sensiblemente uniforme" después de un tiempo finito. O bien, si el sistema experimenta una pequeña interacción incontrolada con su entorno, se perderá la coherencia nítida del conjunto. Edwin Thompson Jaynes argumentó que la difuminación es de naturaleza subjetiva y corresponde simplemente a una pérdida de conocimiento sobre el estado del sistema. [27] En cualquier caso, independientemente de cómo se produzca, el aumento de la entropía de Gibbs es irreversible siempre que la difuminación no pueda revertirse.
La entropía que evoluciona con exactitud, que no aumenta, se conoce como entropía de grano fino . La entropía borrosa se conoce como entropía de grano grueso . Leonard Susskind establece una analogía entre esta distinción y la noción del volumen de una bola fibrosa de algodón: [28] Por un lado, el volumen de las propias fibras es constante, pero en otro sentido hay un volumen de grano grueso mayor, que corresponde al contorno de la bola.
El mecanismo de aumento de entropía de Gibbs resuelve algunas de las dificultades técnicas encontradas en el teorema H de Boltzmann : la entropía de Gibbs no fluctúa ni exhibe recurrencia de Poincaré, y por lo tanto el aumento de la entropía de Gibbs, cuando ocurre, es irreversible como se espera de la termodinámica. El mecanismo de Gibbs también se aplica igualmente bien a sistemas con muy pocos grados de libertad, como el sistema de una sola partícula que se muestra en la figura. En la medida en que uno acepta que el conjunto se vuelve borroso, entonces, el enfoque de Gibbs es una prueba más clara de la segunda ley de la termodinámica . [27]
Desafortunadamente, como señalaron John von Neumann y otros al comienzo del desarrollo de la mecánica estadística cuántica , este tipo de argumento no se puede aplicar a la mecánica cuántica. [29] En la mecánica cuántica, el conjunto no puede soportar un proceso de mezcla cada vez más fino, debido a la dimensionalidad finita de la porción relevante del espacio de Hilbert. En lugar de converger cada vez más cerca del conjunto de equilibrio (conjunto promediado en el tiempo) como en el caso clásico, la matriz de densidad del sistema cuántico mostrará una evolución constante, incluso mostrando recurrencias. Desarrollar una versión cuántica del teorema H sin recurrir al Stosszahlansatz es, por lo tanto, significativamente más complicado. [29]