stringtranslate.com

Función de partición (matemáticas)

La función de partición o integral de configuración , tal como se utiliza en teoría de la probabilidad , teoría de la información y sistemas dinámicos , es una generalización de la definición de función de partición en mecánica estadística . Es un caso especial de constante normalizadora en teoría de probabilidad, para la distribución de Boltzmann . La función de partición ocurre en muchos problemas de la teoría de la probabilidad porque, en situaciones donde existe una simetría natural, su medida de probabilidad asociada , la medida de Gibbs , tiene la propiedad de Markov . Esto significa que la función de partición ocurre no sólo en sistemas físicos con simetría de traducción, sino también en entornos tan variados como las redes neuronales (la red Hopfield ) y aplicaciones como la genómica , la lingüística de corpus y la inteligencia artificial , que emplean redes de Markov y redes de Markov. redes lógicas . La medida de Gibbs es también la única medida que tiene la propiedad de maximizar la entropía para un valor esperado fijo de la energía; esto subyace a la aparición de la función de partición en los métodos de máxima entropía y los algoritmos derivados de ellos.

La función de partición reúne muchos conceptos diferentes y, por lo tanto, ofrece un marco general en el que se pueden calcular muchos tipos diferentes de cantidades. En particular, muestra cómo calcular los valores esperados y las funciones de Green , formando un puente hacia la teoría de Fredholm . También proporciona un entorno natural para el enfoque de la geometría de la información en la teoría de la información, donde la métrica de información de Fisher puede entenderse como una función de correlación derivada de la función de partición; sucede que define una variedad de Riemann .

Cuando el escenario de las variables aleatorias es el espacio proyectivo complejo o el espacio proyectivo de Hilbert , geometrizado con la métrica de Fubini-Study , surge la teoría de la mecánica cuántica y, más generalmente, la teoría cuántica de campos . En estas teorías, la función de partición se explota mucho en la formulación integral de trayectoria , con gran éxito, lo que lleva a muchas fórmulas casi idénticas a las revisadas aquí. Sin embargo, debido a que el espacio de medidas subyacente tiene valores complejos, a diferencia del simplex de valores reales de la teoría de la probabilidad, en muchas fórmulas aparece un factor adicional de i . El seguimiento de este factor es problemático y no se realiza aquí. Este artículo se centra principalmente en la teoría de probabilidad clásica, donde la suma de probabilidades suman uno.

Definición

Dado un conjunto de variables aleatorias que toman valores y algún tipo de función potencial o hamiltoniana , la función de partición se define como

La función H se entiende como una función de valor real en el espacio de estados , mientras que es un parámetro libre de valor real (convencionalmente, la temperatura inversa ). Se entiende por suma de todos los valores posibles que puede tomar cada una de las variables aleatorias . Por lo tanto, la suma debe reemplazarse por una integral cuando sean continuas, en lugar de discretas. Así, se escribe

para el caso de variación continua .

Cuando H es un observable , como una matriz de dimensión finita o un operador espacial de Hilbert de dimensión infinita o un elemento de un álgebra de estrella C , es común expresar la suma como una traza , de modo que

Cuando H es de dimensión infinita, entonces, para que la notación anterior sea válida, el argumento debe ser de clase traza , es decir, de una forma tal que la sumatoria exista y esté acotada.

No es necesario que el número de variables sea contable , en cuyo caso las sumas deben reemplazarse por integrales funcionales . Aunque existen muchas notaciones para integrales funcionales, una común sería

Tal es el caso de la función de partición en la teoría cuántica de campos .

Una modificación común y útil de la función de partición es introducir funciones auxiliares. Esto permite, por ejemplo, utilizar la función de partición como función generadora de funciones de correlación . Esto se analiza con mayor detalle a continuación.

El parámetro β

El papel o significado del parámetro se puede entender de diversas maneras. En termodinámica clásica, es una temperatura inversa . De manera más general, se diría que es la variable que se conjuga con alguna función (arbitraria) de las variables aleatorias . La palabra conjugada aquí se usa en el sentido de coordenadas generalizadas conjugadas en la mecánica lagrangiana , por lo tanto, propiamente es un multiplicador de Lagrange . No es raro que se le llame fuerza generalizada . Todos estos conceptos tienen en común la idea de que un valor debe mantenerse fijo, mientras que otros, interconectados de alguna manera complicada, pueden variar. En el caso actual, el valor que se debe mantener fijo es el valor esperado de , aun cuando muchas distribuciones de probabilidad diferentes pueden dar lugar a exactamente este mismo valor (fijo).

Para el caso general, se considera un conjunto de funciones , cada una de las cuales depende de las variables aleatorias . Estas funciones se eligen porque uno quiere mantener constantes sus valores esperados, por una razón u otra. Para restringir los valores esperados de esta manera, se aplica el método de los multiplicadores de Lagrange . En el caso general, los métodos de máxima entropía ilustran la manera en que se hace esto.

Algunos ejemplos específicos están en orden. En problemas básicos de termodinámica, cuando se utiliza el conjunto canónico , el uso de un solo parámetro refleja el hecho de que solo hay un valor esperado que debe mantenerse constante: la energía libre (debido a la conservación de la energía ). Para problemas de química que involucran reacciones químicas, el gran conjunto canónico proporciona la base adecuada y hay dos multiplicadores de Lagrange. Una es mantener constante la energía y otra, la fugacidad , es mantener constante el recuento de partículas (ya que las reacciones químicas implican la recombinación de un número fijo de átomos).

Para el caso general, se tiene

con un punto en un espacio.

Para una colección de observables , se escribiría

Como antes, se supone que el argumento de tr es la clase de seguimiento .

La medida de Gibbs correspondiente proporciona entonces una distribución de probabilidad tal que el valor esperado de cada una es un valor fijo. Más precisamente, se tiene

siendo los corchetes angulares el valor esperado de y siendo una notación alternativa común. A continuación se proporciona una definición precisa de este valor esperado.

Aunque comúnmente se considera que el valor de es real, en general no tiene por qué serlo; esto se analiza en la sección Normalización a continuación. Los valores de pueden entenderse como las coordenadas de puntos en un espacio; este espacio es de hecho una variedad , como se muestra a continuación. El estudio de estos espacios como variedades constituye el campo de la geometría de la información .

Simetría

La función potencial en sí misma comúnmente toma la forma de una suma:

donde la suma sobre s es una suma sobre algún subconjunto del conjunto de potencias P ( X ) del conjunto . Por ejemplo, en mecánica estadística , como el modelo de Ising , la suma se realiza sobre pares de vecinos más cercanos. En la teoría de la probabilidad, como en las redes de Markov , la suma podría estar entre los grupos de un gráfico; entonces, para el modelo de Ising y otros modelos de celosía , las camarillas máximas son aristas.

El hecho de que la función potencial pueda escribirse como una suma generalmente refleja el hecho de que es invariante bajo la acción de una simetría de grupo , como la invariancia traslacional . Estas simetrías pueden ser discretas o continuas; se materializan en las funciones de correlación para las variables aleatorias (que se analizan más adelante). Así, una simetría en el hamiltoniano se convierte en una simetría de la función de correlación (y viceversa).

Esta simetría tiene una interpretación de importancia crítica en la teoría de la probabilidad: implica que la medida de Gibbs tiene la propiedad de Markov ; es decir, es independiente de las variables aleatorias en cierto modo o, equivalentemente, la medida es idéntica en las clases de equivalencia de la simetría. Esto lleva a la aparición generalizada de la función de partición en problemas con la propiedad de Markov, como las redes de Hopfield .

como medida

El valor de la expresión.

puede interpretarse como una probabilidad de que ocurra una configuración específica de valores en el sistema. Por lo tanto, dada una configuración específica ,

es la probabilidad de que la configuración ocurra en el sistema, que ahora está correctamente normalizada de modo que y tal que la suma de todas las configuraciones sume uno. Como tal, se puede entender que la función de partición proporciona una medida (una medida de probabilidad ) en el espacio de probabilidad ; formalmente, se llama medida de Gibbs . Generaliza los conceptos más restringidos de gran conjunto canónico y conjunto canónico en mecánica estadística.

Existe al menos una configuración para la cual se maximiza la probabilidad; esta configuración se denomina convencionalmente estado fundamental . Si la configuración es única, se dice que el estado fundamental no es degenerado y que el sistema es ergódico ; de lo contrario, el estado fundamental se degenera . El estado fundamental puede o no conmutar con los generadores de la simetría; si conmuta, se dice que es una medida invariante . Cuando no conmuta, se dice que la simetría se rompe espontáneamente .

Las condiciones bajo las cuales existe un estado fundamental y son únicos están dadas por las condiciones de Karush-Kuhn-Tucker ; estas condiciones se utilizan comúnmente para justificar el uso de la medida de Gibbs en problemas de máxima entropía. [ cita necesaria ]

Normalización

Los valores tomados por dependen del espacio matemático sobre el cual varía el campo aleatorio. Por lo tanto, los campos aleatorios con valores reales toman valores en un simplex : esta es la forma geométrica de decir que la suma de probabilidades debe sumar uno. Para la mecánica cuántica, las variables aleatorias abarcan un espacio proyectivo complejo (o espacio proyectivo de Hilbert de valores complejos ), donde las variables aleatorias se interpretan como amplitudes de probabilidad . El énfasis aquí está en la palabra proyectiva , ya que las amplitudes todavía están normalizadas a uno. La normalización de la función potencial es el jacobiano para el espacio matemático apropiado: es 1 para probabilidades ordinarias e i para el espacio de Hilbert; por lo tanto, en la teoría cuántica de campos , se ve en forma exponencial, en lugar de . La función de partición se explota mucho en la formulación integral de trayectoria de la teoría cuántica de campos, con gran efecto. La teoría allí es casi idéntica a la presentada aquí, aparte de esta diferencia y del hecho de que generalmente se formula en un espacio-tiempo de cuatro dimensiones, en lugar de de manera general.

Valores esperados

La función de partición se usa comúnmente como función generadora de probabilidad para valores esperados de varias funciones de variables aleatorias. Así, por ejemplo, tomando como parámetro ajustable, entonces la derivada de con respecto a

da el promedio (valor esperado) de H . En física, esto se llamaría energía promedio del sistema.

Dada la definición de la medida de probabilidad anterior, el valor esperado de cualquier función f de las variables aleatorias X ahora se puede escribir como se esperaba: entonces, para X de valor discreto , se escribe

La notación anterior es estrictamente correcta para un número finito de variables aleatorias discretas, pero debe considerarse algo "informal" para variables continuas; correctamente, las sumas anteriores deben reemplazarse con las notaciones del álgebra sigma subyacente utilizada para definir un espacio de probabilidad . Dicho esto, las identidades continúan manteniéndose cuando se formulan adecuadamente en un espacio de medida .

Así, por ejemplo, la entropía viene dada por

La medida de Gibbs es la distribución estadística única que maximiza la entropía para un valor esperado fijo de la energía; esto es la base de su uso en métodos de máxima entropía .

Geometría de la información

Se puede entender que los puntos forman un espacio y, específicamente, una variedad . Por tanto, es razonable preguntarse sobre la estructura de esta variedad; ésta es la tarea de la geometría de la información .

Derivadas múltiples con respecto a los multiplicadores de Lagrange dan lugar a una matriz de covarianza semidefinida positiva

Esta matriz es semidefinida positiva y puede interpretarse como un tensor métrico , específicamente, una métrica de Riemann . Equipar el espacio de multiplicadores de Lagrange con una métrica de esta manera lo convierte en una variedad de Riemann . [1] El estudio de tales variedades se conoce como geometría de la información ; La métrica anterior es la métrica de información de Fisher . Aquí, sirve como coordenada en el colector. Es interesante comparar la definición anterior con la información más simple de Fisher , en la que se inspira.

Que lo anterior define la métrica de información de Fisher se puede ver fácilmente sustituyendo explícitamente el valor esperado:

donde hemos escrito y se entiende que la suma abarca todos los valores de todas las variables aleatorias . Para variables aleatorias de valores continuos, las sumatorias se reemplazan por integrales, por supuesto.

Curiosamente, la métrica de información de Fisher también puede entenderse como la métrica euclidiana de espacio plano , después del cambio apropiado de variables, como se describe en el artículo principal sobre la misma. Cuando tienen valores complejos, la métrica resultante es la métrica de Fubini-Study . Cuando se escribe en términos de estados mixtos , en lugar de estados puros , se conoce como métrica de Bures .

Funciones de correlación

Al introducir funciones auxiliares artificiales en la función de partición, se puede utilizar para obtener el valor esperado de las variables aleatorias. Así, por ejemplo, escribiendo

uno entonces tiene

como el valor esperado de . En la formulación de la integral de trayectoria de la teoría cuántica de campos , estas funciones auxiliares se denominan comúnmente campos fuente .

Múltiples diferenciaciones conducen a funciones de correlación conectadas de las variables aleatorias. Así, la función de correlación entre variables y viene dada por:

Integrales gaussianas

Para el caso en el que H se puede escribir como una forma cuadrática que involucra un operador diferencial , es decir, como

entonces se puede entender que la función de partición es una suma o integral sobre gaussianas. Se puede entender que la función de correlación es la función de Green para el operador diferencial (y que, en general, da lugar a la teoría de Fredholm ). En el contexto de la teoría cuántica de campos, estas funciones se denominan propagadores ; los correlacionadores de orden superior se denominan funciones de n puntos; trabajar con ellos define la acción efectiva de una teoría.

Cuando las variables aleatorias son números de Grassmann anti-conmutación , entonces la función de partición se puede expresar como un determinante del operador D. Esto se hace escribiéndola como una integral de Berezin (también llamada integral de Grassmann).

Propiedades generales

Las funciones de partición se utilizan para analizar el escalamiento crítico , la universalidad y están sujetas al grupo de renormalización .

Ver también

Referencias

  1. ^ Ladrones, Gavin E. (2007). "Medición de la longitud termodinámica". Física. Rev. Lett. 99 (10): 100602. arXiv : 0706.0559 . Código bibliográfico : 2007PhRvL..99j0602C. doi :10.1103/PhysRevLett.99.100602. PMID  17930381. S2CID  7527491.