stringtranslate.com

Modelo de Ising

El modelo de Ising (o modelo de Lenz-Ising ), llamado así por los físicos Ernst Ising y Wilhelm Lenz , es un modelo matemático del ferromagnetismo en mecánica estadística . El modelo consiste en variables discretas que representan momentos dipolares magnéticos de "espines" atómicos que pueden estar en uno de dos estados (+1 o −1). Los espines están dispuestos en un gráfico, generalmente una red (donde la estructura local se repite periódicamente en todas las direcciones), lo que permite que cada espín interactúe con sus vecinos. Los espines vecinos que concuerdan tienen una energía menor que los que no concuerdan; el sistema tiende a la energía más baja pero el calor perturba esta tendencia, creando así la posibilidad de diferentes fases estructurales. El modelo permite la identificación de transiciones de fase como un modelo simplificado de la realidad. El modelo de Ising de red cuadrada bidimensional es uno de los modelos estadísticos más simples para mostrar una transición de fase . [1]

El modelo de Ising fue inventado por el físico Wilhelm Lenz  (1920), quien lo propuso como problema a su alumno Ernst Ising. El modelo unidimensional de Ising fue resuelto por Ising (1925) en su tesis de 1924; [2] no tiene transición de fase. El modelo de Ising bidimensional de red cuadrada es mucho más difícil y solo recibió una descripción analítica mucho más tarde, por Lars Onsager  (1944). Generalmente se resuelve mediante un método de matriz de transferencia , aunque existen diferentes enfoques, más relacionados con la teoría cuántica de campos .

En dimensiones mayores de cuatro, la transición de fase del modelo de Ising se describe mediante la teoría del campo medio . El modelo de Ising para dimensiones mayores también se exploró con respecto a varias topologías de árboles a fines de la década de 1970, culminando en una solución exacta del modelo de Barth (1981) independiente del tiempo y de campo cero para árboles de Cayley cerrados con una relación de ramificación arbitraria y, por lo tanto, una dimensionalidad arbitrariamente grande dentro de las ramas del árbol. La solución a este modelo exhibió un comportamiento de transición de fase nuevo e inusual, junto con correlaciones de espín-espín de largo alcance y vecino más cercano que no se desvanecen, consideradas relevantes para redes neuronales grandes como una de sus posibles aplicaciones.

El problema de Ising sin un campo externo se puede formular de manera equivalente como un problema de corte máximo de grafo (Max-Cut) que se puede resolver mediante optimización combinatoria .

Definición

Considere un conjunto de sitios de red, cada uno con un conjunto de sitios adyacentes (por ejemplo, un grafo ) que forman una red de dimensiones . Para cada sitio de red hay una variable discreta tal que , que representa el espín del sitio. Una configuración de espín , es una asignación de valor de espín a cada sitio de red.

Para dos sitios adyacentes cualesquiera existe una interacción . Además, un sitio tiene un campo magnético externo que interactúa con él. La energía de una configuración está dada por la función hamiltoniana

donde la primera suma es sobre pares de espines adyacentes (cada par se cuenta una vez). La notación indica que los sitios y son vecinos más cercanos. El momento magnético está dado por . Nótese que el signo en el segundo término del hamiltoniano anterior debería ser en realidad positivo porque el momento magnético del electrón es antiparalelo a su espín, pero el término negativo se usa convencionalmente. [3] La probabilidad de configuración está dada por la distribución de Boltzmann con temperatura inversa :

donde , y la constante de normalización

es la función de partición . Para una función de los espines ("observable"), se denota por

el valor esperado (medio) de .

Las probabilidades de configuración representan la probabilidad de que (en equilibrio) el sistema esté en un estado con configuración .

Discusión

El signo menos en cada término de la función hamiltoniana es convencional. Utilizando esta convención de signos, los modelos de Ising pueden clasificarse según el signo de la interacción: si, para un par ij

El sistema se denomina ferromagnético o antiferromagnético si todas las interacciones son ferromagnéticas o todas son antiferromagnéticas. Los modelos originales de Ising eran ferromagnéticos y todavía se suele suponer que "modelo de Ising" significa un modelo de Ising ferromagnético.

En un modelo ferromagnético de Ising, los espines tienden a estar alineados: las configuraciones en las que los espines adyacentes son del mismo signo tienen mayor probabilidad. En un modelo antiferromagnético, los espines adyacentes tienden a tener signos opuestos.

La convención de signos de H (σ) también explica cómo un sitio de espín j interactúa con el campo externo. Es decir, el sitio de espín quiere alinearse con el campo externo. Si:

Simplificaciones

Los modelos de Ising se examinan a menudo sin un campo externo que interactúe con la red, es decir, h  = 0 para todos los j en la red Λ. Utilizando esta simplificación, el hamiltoniano se convierte en

Cuando el campo externo es cero en todas partes, h  = 0, el modelo de Ising es simétrico al cambiar el valor del espín en todos los sitios de la red; un campo distinto de cero rompe esta simetría.

Otra simplificación común es suponer que todos los vecinos más cercanos ⟨ ij ⟩ tienen la misma fuerza de interacción. Entonces podemos establecer J ij = J para todos los pares ij en Λ. En este caso, el hamiltoniano se simplifica aún más a

Conexión agráfico corte máximo

Un subconjunto S del conjunto de vértices V(G) de un grafo no dirigido ponderado G determina un corte del grafo G en S y su subconjunto complementario G\S. El tamaño del corte es la suma de los pesos de las aristas entre S y G\S. Un tamaño máximo de corte es al menos el tamaño de cualquier otro corte, que varíe S.

Para el modelo de Ising sin un campo externo en un grafo G, el hamiltoniano se convierte en la siguiente suma sobre los bordes del grafo E(G)

.

Aquí cada vértice i del grafo es un sitio de espín que toma un valor de espín . Una configuración de espín dada divide el conjunto de vértices en dos subconjuntos dependientes de , aquellos con espín hacia arriba y aquellos con espín hacia abajo . Denotamos por el conjunto de aristas dependiente de que conecta los dos subconjuntos de vértices complementarios y . El tamaño del corte para biparticionar el grafo no dirigido ponderado G se puede definir como

donde denota un peso del borde y se introduce la escala 1/2 para compensar el conteo doble de los mismos pesos .

Las identidades

donde la suma total en el primer término no depende de , implica que minimizar en es equivalente a minimizar . Definir el peso del borde convierte así el problema de Ising sin un campo externo en un problema de corte máximo de grafo [4] que maximiza el tamaño del corte , que está relacionado con el hamiltoniano de Ising de la siguiente manera,

Preguntas

Una cantidad significativa de preguntas estadísticas que se pueden plantear sobre este modelo se encuentran en el límite de un gran número de giros:

Propiedades básicas e historia

Visualización de la medida de probabilidad invariante a la traducción del modelo unidimensional de Ising

El caso más estudiado del modelo de Ising es el modelo de campo cero ferromagnético invariante en la traslación en una red de dimensión  d , es decir, Λ = Z d , J ij  = 1, h  = 0.

No hay transición de fase en una dimensión

En su tesis doctoral de 1924, Ising resolvió el modelo para el caso d  = 1, que puede considerarse como una red horizontal lineal donde cada sitio solo interactúa con su vecino izquierdo y derecho. En una dimensión, la solución no admite transición de fase . [5] Es decir, para cualquier β positivo, las correlaciones ⟨σ i σ j ⟩ decaen exponencialmente en | i  −  j |:

y el sistema está desordenado. Sobre la base de este resultado, concluyó incorrectamente [ cita requerida ] que este modelo no exhibe comportamiento de fase en ninguna dimensión.

Transición de fase y solución exacta en dos dimensiones

El modelo de Ising experimenta una transición de fase entre una fase ordenada y una desordenada en dos dimensiones o más. Es decir, el sistema está desordenado para valores β pequeños, mientras que para valores β grandes el sistema exhibe un orden ferromagnético:

Esto fue demostrado por primera vez por Rudolf Peierls en 1936, [6] utilizando lo que ahora se llama un argumento de Peierls .

El modelo de Ising en una red cuadrada bidimensional sin campo magnético fue resuelto analíticamente por Lars Onsager  (1944). Onsager demostró que las funciones de correlación y la energía libre del modelo de Ising están determinadas por un fermión de red no interactuante. Onsager anunció la fórmula para la magnetización espontánea para el modelo bidimensional en 1949, pero no proporcionó una derivación. Yang (1952) dio la primera prueba publicada de esta fórmula, utilizando una fórmula límite para los determinantes de Fredholm , demostrada en 1951 por Szegő en respuesta directa al trabajo de Onsager. [7]

Desigualdades de correlación

Se han derivado rigurosamente varias desigualdades de correlación para las correlaciones de espín de Ising (para estructuras reticulares generales), lo que ha permitido a los matemáticos estudiar el modelo de Ising tanto dentro como fuera de criticidad.

Desigualdad de Griffiths

Dado cualquier subconjunto de espines y en la red, se cumple la siguiente desigualdad,

dónde .

Con , resulta el caso especial .

Esto significa que los espines están correlacionados positivamente en el ferroimán de Ising. Una aplicación inmediata de esto es que la magnetización de cualquier conjunto de espines aumenta con respecto a cualquier conjunto de constantes de acoplamiento .

Desigualdad de Simon-Lieb

La desigualdad de Simon-Lieb [8] establece que para cualquier conjunto que se desconecte de (por ejemplo, el límite de una caja con estar dentro de la caja y estar fuera),

Esta desigualdad se puede utilizar para establecer la nitidez de la transición de fase para el modelo de Ising. [9]

Desigualdad de FKG

Esta desigualdad se demuestra primero para un tipo de modelo de percolación correlacionado positivamente , que incluye una representación del modelo de Ising. Se utiliza para determinar las temperaturas críticas del modelo de Potts planar utilizando argumentos de percolación (que incluye el modelo de Ising como un caso especial). [10]

Importancia histórica

Uno de los argumentos de Demócrito en apoyo del atomismo era que los átomos explican naturalmente los límites de fase nítidos observados en los materiales [ cita requerida ] , como cuando el hielo se derrite en agua o el agua se convierte en vapor. Su idea era que pequeños cambios en las propiedades a escala atómica conducirían a grandes cambios en el comportamiento agregado. Otros creían que la materia es inherentemente continua, no atómica, y que las propiedades a gran escala de la materia no son reducibles a propiedades atómicas básicas.

Aunque las leyes de los enlaces químicos dejaron claro a los químicos del siglo XIX que los átomos eran reales, entre los físicos el debate continuó hasta bien entrado el siglo XX. Los atomistas, en particular James Clerk Maxwell y Ludwig Boltzmann , aplicaron la formulación de Hamilton de las leyes de Newton a sistemas grandes y descubrieron que el comportamiento estadístico de los átomos describe correctamente los gases a temperatura ambiente. Pero la mecánica estadística clásica no explicaba todas las propiedades de los líquidos y los sólidos, ni de los gases a baja temperatura.

Una vez formulada la mecánica cuántica moderna , el atomismo ya no estaba en conflicto con la experimentación, pero esto no condujo a una aceptación universal de la mecánica estadística, que iba más allá del atomismo. Josiah Willard Gibbs había dado un formalismo completo para reproducir las leyes de la termodinámica a partir de las leyes de la mecánica. Pero muchos argumentos erróneos sobrevivieron desde el siglo XIX, cuando la mecánica estadística se consideraba dudosa. Los lapsos de intuición se derivaban principalmente del hecho de que el límite de un sistema estadístico infinito tiene muchas leyes cero-uno que están ausentes en los sistemas finitos: un cambio infinitesimal en un parámetro puede conducir a grandes diferencias en el comportamiento general, agregado, como esperaba Demócrito.

No hay transiciones de fase en un volumen finito

A principios del siglo XX, algunos creían que la función de partición nunca podría describir una transición de fase, basándose en el siguiente argumento:

  1. La función de partición es una suma de e −β E sobre todas las configuraciones.
  2. La función exponencial es en todas partes analítica como función de β.
  3. La suma de funciones analíticas es una función analítica.

Este argumento funciona para una suma finita de exponentes y establece correctamente que no hay singularidades en la energía libre de un sistema de tamaño finito. Para sistemas que están en el límite termodinámico (es decir, para sistemas infinitos), la suma infinita puede conducir a singularidades. La convergencia al límite termodinámico es rápida, de modo que el comportamiento de fase es evidente ya en una red relativamente pequeña, aunque las singularidades se suavizan por el tamaño finito del sistema.

Esto fue establecido por primera vez por Rudolf Peierls en el modelo de Ising.

Gotas de Peierls

Poco después de que Lenz e Ising construyeran el modelo de Ising, Peierls pudo demostrar explícitamente que una transición de fase ocurre en dos dimensiones.

Para ello, comparó los límites de alta y baja temperatura. A temperatura infinita (β = 0) todas las configuraciones tienen la misma probabilidad. Cada giro es completamente independiente de cualquier otro, y si se representan gráficamente las configuraciones típicas a temperatura infinita de modo que más/menos se representen en blanco y negro, parecen nieve de televisión . Para temperatura alta, pero no infinita, hay pequeñas correlaciones entre posiciones vecinas, la nieve tiende a agruparse un poco, pero la pantalla sigue viéndose aleatoriamente y no hay un exceso neto de negro o blanco.

Una medida cuantitativa del exceso es la magnetización , que es el valor medio del espín:

Un argumento falso análogo al argumento de la sección anterior establece ahora que la magnetización en el modelo de Ising es siempre cero.

  1. Cada configuración de espines tiene la misma energía que la configuración con todos los espines invertidos.
  2. Así que para cada configuración con magnetización M hay una configuración con magnetización − M con igual probabilidad.
  3. Por lo tanto , el sistema debería pasar la misma cantidad de tiempo en la configuración con magnetización M que con magnetización − M.
  4. Por lo tanto, la magnetización promedio (a lo largo del tiempo) es cero.

Como antes, esto solo demuestra que la magnetización promedio es cero en cualquier volumen finito. Para un sistema infinito, las fluctuaciones podrían no ser capaces de empujar el sistema desde un estado mayormente positivo a uno mayormente negativo con una probabilidad distinta de cero.

Para temperaturas muy altas, la magnetización es cero, como lo es a temperatura infinita. Para ver esto, note que si el espín A tiene solo una pequeña correlación ε con el espín B, y B solo está débilmente correlacionado con C, pero C es independiente de A, la cantidad de correlación de A y C es como ε 2 . Para dos espines separados por una distancia L , la cantidad de correlación es como ε L , pero si hay más de un camino por el cual las correlaciones pueden viajar, esta cantidad aumenta por el número de caminos.

El número de caminos de longitud L en una red cuadrada en d dimensiones es ya que hay 2 d opciones para saber a dónde ir en cada paso.

Un límite en la correlación total está dado por la contribución a la correlación al sumar todos los caminos que unen dos puntos, que está limitada arriba por la suma de todos los caminos de longitud L dividida por que tiende a cero cuando ε es pequeño.

A bajas temperaturas (β ≫ 1) las configuraciones están cerca de la configuración de energía más baja, aquella en la que todos los espines son positivos o negativos. Peierls se preguntó si es estadísticamente posible a baja temperatura, comenzando con todos los espines negativos, fluctuar hasta un estado en el que la mayoría de los espines sean positivos. Para que esto suceda, las gotitas de espín positivo deben poder solidificarse para formar el estado positivo.

La energía de una gota de espines positivos en un fondo negativo es proporcional al perímetro de la gota L, donde los espines positivos y negativos son vecinos entre sí. Para una gota con perímetro L , el área está en algún lugar entre ( L  − 2)/2 (la línea recta) y ( L /4) 2 (la caja cuadrada). El costo de probabilidad para introducir una gota tiene el factor e −β L , pero esto contribuye a la función de partición multiplicada por el número total de gotas con perímetro L , que es menor que el número total de caminos de longitud L : De modo que la contribución total de espines de las gotas, incluso contando en exceso al permitir que cada sitio tenga una gota separada, está limitada por encima de

que tiende a cero en valores grandes de β. Para valores de β suficientemente grandes, esto suprime exponencialmente los bucles largos, de modo que no pueden ocurrir y la magnetización nunca fluctúa demasiado lejos de −1.

Así, Peierls estableció que la magnetización en el modelo de Ising finalmente define sectores de superselección , dominios separados no vinculados por fluctuaciones finitas.

La dualidad Kramers-Wannier

Kramers y Wannier demostraron que la expansión a alta temperatura y la expansión a baja temperatura del modelo son iguales hasta que se produce un reajuste general de la energía libre. Esto permitió determinar con exactitud el punto de transición de fase en el modelo bidimensional (suponiendo que existe un único punto crítico).

Ceros de Yang-Lee

Después de la solución de Onsager, Yang y Lee investigaron la forma en que la función de partición se vuelve singular a medida que la temperatura se acerca a la temperatura crítica.

Métodos de Monte Carlo para simulación numérica

Extinción de un sistema de Ising en una red cuadrada bidimensional (500 × 500) con temperatura inversa β  = 10, a partir de una configuración aleatoria

Definiciones

El modelo de Ising puede resultar a menudo difícil de evaluar numéricamente si hay muchos estados en el sistema. Consideremos un modelo de Ising con

L = |Λ|: el número total de sitios en la red,
σ j ∈ {−1, +1}: un sitio de espín individual en la red, j  = 1, ..., L ,
S ∈ {−1, +1} L : estado del sistema.

Dado que cada sitio de espín tiene ±1 espín, hay 2 L estados diferentes que son posibles. [11] Esto motiva la razón por la que el modelo de Ising se simula utilizando métodos de Monte Carlo . [11]

El hamiltoniano que se utiliza habitualmente para representar la energía del modelo cuando se utilizan métodos de Monte Carlo es Además, el hamiltoniano se simplifica aún más al suponer un campo externo h nulo , ya que muchas de las cuestiones que se plantean para ser resueltas utilizando el modelo se pueden responder en ausencia de un campo externo. Esto nos lleva a la siguiente ecuación de energía para el estado σ: Dado este hamiltoniano, se pueden calcular cantidades de interés como el calor específico o la magnetización del imán a una temperatura dada. [11]

Algoritmo de Metropolis

Descripción general

El algoritmo Metropolis-Hastings es el algoritmo de Monte Carlo más utilizado para calcular las estimaciones del modelo de Ising. [11] El algoritmo elige primero las probabilidades de selección g (μ, ν), que representan la probabilidad de que el algoritmo seleccione el estado ν de entre todos los estados, dado que uno está en el estado μ. Luego utiliza las probabilidades de aceptación A (μ, ν) de modo que se satisfaga el equilibrio detallado . Si se acepta el nuevo estado ν, entonces nos movemos a ese estado y repetimos con la selección de un nuevo estado y la decisión de aceptarlo. Si no se acepta ν, entonces nos quedamos en μ. Este proceso se repite hasta que se cumple algún criterio de detención, que para el modelo de Ising suele ser cuando la red se vuelve ferromagnética , lo que significa que todos los sitios apuntan en la misma dirección. [11]

Al implementar el algoritmo, uno debe asegurarse de que g (μ, ν) se seleccione de manera que se cumpla la ergodicidad . En equilibrio térmico, la energía de un sistema solo fluctúa dentro de un rango pequeño. [11] Esta es la motivación detrás del concepto de dinámica de inversión de espín único , [12] que establece que en cada transición, solo cambiaremos uno de los sitios de espín en la red. [11] Además, al usar la dinámica de inversión de espín único, uno puede pasar de cualquier estado a cualquier otro estado invirtiendo cada sitio que difiere entre los dos estados uno a la vez.

La cantidad máxima de cambio entre la energía del estado actual, H μ y la energía de cualquier nuevo estado posible H ν (usando la dinámica de inversión de espín único) es 2 J entre el espín que elegimos "invertir" para pasar al nuevo estado y el vecino de ese espín. [11] Por lo tanto, en un modelo de Ising 1D, donde cada sitio tiene dos vecinos (izquierdo y derecho), la diferencia máxima en energía sería 4 J.

Sea c el número de coordinación de red ; el número de vecinos más cercanos que tiene cualquier sitio de red. Suponemos que todos los sitios tienen el mismo número de vecinos debido a las condiciones de contorno periódicas . [11] Es importante señalar que el algoritmo Metropolis-Hastings no funciona bien alrededor del punto crítico debido a la desaceleración crítica. Se requieren otras técnicas como los métodos multigrid, el algoritmo de Niedermayer, el algoritmo de Swendsen-Wang o el algoritmo de Wolff para resolver el modelo cerca del punto crítico; un requisito para determinar los exponentes críticos del sistema.

Hay paquetes de código abierto disponibles que implementan estos algoritmos. [13]

Especificación

Específicamente para el modelo de Ising y utilizando la dinámica de giro único, se puede establecer lo siguiente.

Dado que hay L sitios en total en la red, utilizando un solo giro como la única forma de realizar la transición a otro estado, podemos ver que hay un total de L estados nuevos ν a partir de nuestro estado actual μ. El algoritmo supone que las probabilidades de selección son iguales a los L estados: g (μ, ν) = 1/ L . El balance detallado nos dice que la siguiente ecuación debe cumplirse:

Por lo tanto, queremos seleccionar la probabilidad de aceptación para que nuestro algoritmo satisfaga

Si H ν > H μ , entonces A (ν, μ) > A (μ, ν). Metropolis establece que el mayor de A (μ, ν) o A (ν, μ) sea 1. Por este razonamiento, el algoritmo de aceptación es: [11]

La forma básica del algoritmo es la siguiente:

  1. Elija un sitio de espín utilizando la probabilidad de selección g (μ, ν) y calcule la contribución a la energía que involucra este espín.
  2. Invierte el valor del giro y calcula la nueva contribución.
  3. Si la nueva energía es menor, mantenga el valor invertido.
  4. Si la nueva energía es mayor, solo quédate con probabilidad
  5. Repetir.

El cambio de energía H ν  −  H μ depende únicamente del valor del espín y de sus vecinos gráficos más cercanos. Por lo tanto, si el gráfico no está demasiado conectado, el algoritmo es rápido. Este proceso producirá eventualmente una selección de la distribución.

Considerando el modelo de Ising como una cadena de Markov

Es posible ver el modelo de Ising como una cadena de Markov , ya que la probabilidad inmediata P β (ν) de transición a un estado futuro ν solo depende del estado presente μ. El algoritmo de Metropolis es en realidad una versión de una simulación de Monte Carlo de cadena de Markov , y dado que utilizamos dinámicas de cambio de espín único en el algoritmo de Metropolis, cada estado puede verse como si tuviera enlaces a exactamente L otros estados, donde cada transición corresponde a cambiar un solo sitio de espín al valor opuesto. [14] Además, dado que el cambio de la ecuación de energía H σ solo depende de la fuerza de interacción del vecino más cercano J , el modelo de Ising y sus variantes, como el modelo de Sznajd, pueden verse como una forma de modelo de votante para la dinámica de la opinión.

Una dimensión

El límite termodinámico existe mientras la desintegración de la interacción sea con α > 1. [15]

Solución exacta de Ising

En el caso del vecino más próximo (con condiciones de contorno periódicas o libres) se dispone de una solución exacta. El hamiltoniano del modelo de Ising unidimensional en una red de sitios L con condiciones de contorno periódicas es donde J y h pueden ser cualquier número, ya que en este caso simplificado J es una constante que representa la fuerza de interacción entre los vecinos más próximos y h es el campo magnético externo constante aplicado a los sitios de la red. Entonces la energía libre es y la correlación espín-espín (es decir, la covarianza) es donde C (β) y c (β) son funciones positivas para T > 0. Sin embargo, para T → 0, la longitud de correlación inversa c (β) se desvanece.

Prueba

La prueba de este resultado es un cálculo simple.

Si h = 0, es muy fácil obtener la energía libre en el caso de condición de contorno libre, es decir cuando Entonces el modelo se factoriza bajo el cambio de variables.

Esto da

Por lo tanto, la energía libre es

Con el mismo cambio de variables

Por lo tanto, decae exponencialmente tan pronto como T ≠ 0; pero para T = 0, es decir, en el límite β → ∞ no hay decaimiento.

Si h ≠ 0 necesitamos el método de la matriz de transferencia. Para las condiciones de contorno periódicas el caso es el siguiente. La función de partición es Los coeficientes pueden verse como las entradas de una matriz. Hay diferentes opciones posibles: una conveniente (porque la matriz es simétrica) es o En el formalismo matricial donde λ 1 es el valor propio más alto de V , mientras que λ 2 es el otro valor propio: y |λ 2 | < λ 1 . Esto da la fórmula de la energía libre.

Comentarios

La energía del estado más bajo es − JL , cuando todos los espines son iguales. Para cualquier otra configuración, la energía adicional es igual a 2 J multiplicada por el número de cambios de signo que se producen al recorrer la configuración de izquierda a derecha.

Si designamos el número de cambios de signo en una configuración como k , la diferencia de energía con respecto al estado de energía más bajo es 2 k . Dado que la energía es aditiva en el número de cambios de espín, la probabilidad p de tener un cambio de espín en cada posición es independiente. La relación entre la probabilidad de encontrar un cambio de espín y la probabilidad de no encontrarlo es el factor de Boltzmann:

El problema se reduce a lanzamientos de moneda independientes y sesgados . Esto básicamente completa la descripción matemática.

A partir de la descripción en términos de lanzamientos independientes, se pueden entender las estadísticas del modelo para líneas largas. La línea se divide en dominios. Cada dominio tiene una longitud promedio exp(2β). La longitud de un dominio se distribuye exponencialmente, ya que existe una probabilidad constante en cualquier paso de encontrar un lanzamiento. Los dominios nunca se vuelven infinitos, por lo que un sistema largo nunca está magnetizado. Cada paso reduce la correlación entre un giro y su vecino en una cantidad proporcional a p , por lo que las correlaciones caen exponencialmente.

La función de partición es el volumen de configuraciones, cada una ponderada por su peso de Boltzmann. Como cada configuración se describe mediante los cambios de signo, la función de partición factoriza:

El logaritmo dividido por L es la densidad de energía libre:

que es analíticamente alejada de β = ∞. Un signo de una transición de fase es una energía libre no analítica, por lo que el modelo unidimensional no tiene una transición de fase.

Solución unidimensional con campo transversal

Para expresar el hamiltoniano de Ising utilizando una descripción mecánico cuántica de los espines, reemplazamos las variables de espín con sus respectivas matrices de Pauli . Sin embargo, dependiendo de la dirección del campo magnético, podemos crear un hamiltoniano de campo transversal o de campo longitudinal. El hamiltoniano de campo transversal viene dado por

El modelo de campo transversal experimenta una transición de fase entre un régimen ordenado y desordenado en J  ~  h . Esto se puede demostrar mediante una aplicación de matrices de Pauli

Al reescribir el hamiltoniano en términos de estas matrices de cambio de base, obtenemos

Dado que los roles de h y J se intercambian, el hamiltoniano experimenta una transición en J = h . [19]

Renormalización

Cuando no hay un campo externo, podemos derivar una ecuación funcional que satisfaga usando renormalización. [20] Específicamente, sea la función de partición con sitios. Ahora tenemos: donde . Sumamos sobre cada uno de , para obtener Ahora, como la función cosh es par, podemos resolver como . Ahora tenemos una relación de autosimilitud: Tomando el límite, obtenemos donde .

Cuando es pequeño, tenemos , por lo que podemos evaluar numéricamente iterando la ecuación funcional hasta que sea pequeño.

Dos dimensiones

La solución exacta de Onsager

Onsager (1944) obtuvo la siguiente expresión analítica para la energía libre del modelo de Ising en la red cuadrada anisotrópica cuando el campo magnético en el límite termodinámico en función de la temperatura y las energías de interacción horizontal y vertical y , respectivamente

A partir de esta expresión para la energía libre, se pueden calcular todas las funciones termodinámicas del modelo utilizando una derivada apropiada. El modelo de Ising 2D fue el primer modelo que exhibió una transición de fase continua a una temperatura positiva. Ocurre a la temperatura que resuelve la ecuación

En el caso isótropo cuando las energías de interacción horizontal y vertical son iguales , la temperatura crítica ocurre en el siguiente punto

Cuando las energías de interacción , son ambas negativas, el modelo de Ising se convierte en un antiferromagnético. Dado que la red cuadrada es bipartita, es invariante bajo este cambio cuando el campo magnético , por lo que la energía libre y la temperatura crítica son las mismas para el caso antiferromagnético. Para la red triangular, que no es bipartita, el modelo de Ising ferromagnético y antiferromagnético se comportan de manera notablemente diferente. Específicamente, alrededor de un triángulo, es imposible hacer que los 3 pares de espines sean antiparalelos, por lo que el modelo de Ising antiferromagnético no puede alcanzar el estado de energía mínima. Este es un ejemplo de frustración geométrica .

Matriz de transferencia

Empecemos con una analogía con la mecánica cuántica. El modelo de Ising en una red periódica larga tiene una función de partición

Piense en la dirección i como el espacio y en la dirección j como el tiempo . Esta es una suma independiente de todos los valores que pueden tomar los espines en cada intervalo de tiempo. Este es un tipo de integral de trayectoria , es la suma de todos los historiales de espines.

Una integral de trayectoria se puede reescribir como una evolución hamiltoniana. El hamiltoniano recorre el tiempo realizando una rotación unitaria entre el tiempo t y el tiempo t + Δ t :

El producto de las matrices U, una tras otra, es el operador de evolución temporal total, que es la integral de trayectoria con la que comenzamos.

donde N es el número de porciones de tiempo. La suma de todas las rutas se obtiene mediante un producto de matrices, cada elemento de la matriz es la probabilidad de transición de una porción a la siguiente.

De manera similar, se puede dividir la suma de todas las configuraciones de la función de partición en porciones, donde cada porción es la configuración unidimensional en el momento 1. Esto define la matriz de transferencia :

La configuración en cada porción es una colección unidimensional de espines. En cada porción temporal, T tiene elementos de matriz entre dos configuraciones de espines, una en el futuro inmediato y otra en el pasado inmediato. Estas dos configuraciones son C 1 y C 2 , y todas son configuraciones de espines unidimensionales. Podemos pensar en el espacio vectorial sobre el que actúa T como todas las combinaciones lineales complejas de estas. Utilizando la notación de la mecánica cuántica:

donde cada vector base es una configuración de espín de un modelo de Ising unidimensional.

Al igual que el hamiltoniano, la matriz de transferencia actúa sobre todas las combinaciones lineales de estados. La función de partición es una función matricial de T, que se define por la suma de todas las historias que vuelven a la configuración original después de N pasos:

Como se trata de una ecuación matricial, se puede evaluar en cualquier base. Por lo tanto, si podemos diagonalizar la matriz T , podemos hallar Z.

yoen términos de matrices de Pauli

La contribución a la función de partición para cada par de configuraciones pasadas/futuras en una porción es la suma de dos términos. Existe la cantidad de cambios de espín en la porción pasada y existe la cantidad de cambios de espín entre la porción pasada y la futura. Defina un operador en las configuraciones que cambie el espín en el sitio i:

En la base de Ising habitual, al actuar sobre cualquier combinación lineal de configuraciones pasadas, produce la misma combinación lineal pero con el espín en la posición i de cada vector base invertido.

Defina un segundo operador que multiplique el vector base por +1 y −1 según el espín en la posición i :

T se puede escribir en términos de estos:

donde A y B son constantes que se deben determinar para reproducir la función de partición. La interpretación es que la configuración estadística en esta porción contribuye de acuerdo con el número de cambios de espín en la porción y si el espín en la posición i se ha invertido o no.

Operadores de creación y aniquilación de giros

Al igual que en el caso unidimensional, trasladaremos nuestra atención de los espines a los cambios de espín. El término σ z en T cuenta el número de cambios de espín, que podemos escribir en términos de operadores de creación y aniquilación de cambios de espín:

El primer término cambia de dirección, por lo que, dependiendo del estado base, puede decirse:

  1. Mueve un giro una unidad hacia la derecha
  2. Mueve un giro una unidad hacia la izquierda
  3. produce dos giros en sitios vecinos
  4. Destruye dos spin-flips en sitios vecinos.

Escribiendo esto en términos de operadores de creación y aniquilación:

Ignore los coeficientes constantes y concentre su atención en la forma. Todos son cuadráticos. Como los coeficientes son constantes, esto significa que la matriz T se puede diagonalizar mediante transformadas de Fourier.

Al realizar la diagonalización se produce la energía libre de Onsager.

Fórmula de Onsager para la magnetización espontánea

Onsager anunció la famosa siguiente expresión para la magnetización espontánea M de un ferroimán de Ising bidimensional en la red cuadrada en dos conferencias diferentes en 1948, aunque sin pruebas [7] donde y son las energías de interacción horizontal y vertical.

En 1951, Yang (1952) realizó una derivación completa utilizando un proceso de limitación de valores propios de la matriz de transferencia. La prueba fue simplificada en gran medida en 1963 por Montroll, Potts y Ward [7] utilizando la fórmula límite de Szegő para los determinantes de Toeplitz al tratar la magnetización como el límite de las funciones de correlación.

Modelo minimalista

En el punto crítico, el modelo de Ising bidimensional es una teoría de campos conforme bidimensional . Las funciones de correlación de espín y energía se describen mediante un modelo mínimo , que se ha resuelto con exactitud.

Tres dimensiones

Tanto en tres como en dos dimensiones, el caso más estudiado del modelo de Ising es el modelo invariante en la traslación sobre una red cúbica con acoplamiento de vecinos más próximos en el campo magnético cero. Muchos teóricos buscaron durante muchas décadas una solución analítica tridimensional, que fuera análoga a la solución de Onsager en el caso bidimensional. [21] [22] Tal solución no se ha encontrado hasta ahora, aunque no hay pruebas de que no exista.

En tres dimensiones, Alexander Polyakov y Vladimir Dotsenko demostraron que el modelo de Ising tiene una representación en términos de cuerdas fermiónicas que no interactúan . Esta construcción se ha llevado a cabo en la red y se desconoce el límite del continuo , que describe conjeturalmente el punto crítico.

Transición de fase

En tres como en dos dimensiones, el argumento de Peierls muestra que hay una transición de fase. Esta transición de fase se sabe rigurosamente que es continua (en el sentido de que la longitud de correlación diverge y la magnetización tiende a cero), y se llama punto crítico . Se cree que el punto crítico puede describirse mediante un punto fijo del grupo de renormalización de la transformación del grupo de renormalización de Wilson-Kadanoff. También se cree que la transición de fase puede describirse mediante una teoría de campo conforme unitaria tridimensional, como lo evidencian las simulaciones de Monte Carlo , [23] [24] los resultados de diagonalización exactos en modelos cuánticos, [25] y los argumentos teóricos de campo cuántico. [26] Aunque es un problema abierto establecer rigurosamente la imagen del grupo de renormalización o la imagen de la teoría de campo conforme, los físicos teóricos han utilizado estos dos métodos para calcular los exponentes críticos de la transición de fase, que concuerdan con los experimentos y con las simulaciones de Monte Carlo.

Esta teoría de campo conforme que describe el punto crítico de Ising tridimensional está bajo investigación activa utilizando el método del bootstrap conforme . [27] [28] [29] [30] Este método actualmente produce la información más precisa sobre la estructura de la teoría crítica (ver exponentes críticos de Ising ).

Resultado de NP-completitud de Istrail para el modelo general de vidrio de espín

En 2000, Sorin Istrail de Sandia National Laboratories demostró que el modelo de Ising del vidrio de espín en una red no plana es NP-completo . Es decir, suponiendo que PNP, el modelo general de Ising del vidrio de espín es exactamente solucionable solo en casos planos , por lo que las soluciones para dimensiones superiores a dos también son intratables. [31] El resultado de Istrail solo concierne al modelo de vidrio de espín con acoplamientos que varían espacialmente, y no dice nada sobre el modelo ferromagnético original de Ising con acoplamientos iguales.

Cuatro dimensiones y más

En cualquier dimensión, el modelo de Ising se puede describir productivamente mediante un campo medio que varía localmente. El campo se define como el valor de espín promedio en una región grande, pero no tan grande como para incluir todo el sistema. El campo aún tiene variaciones lentas de un punto a otro, a medida que se mueve el volumen promedio. Estas fluctuaciones en el campo se describen mediante una teoría de campo continuo en el límite del sistema infinito.

Campo local

El campo H se define como los componentes de Fourier de longitud de onda larga de la variable de espín, en el límite en que las longitudes de onda son largas. Hay muchas formas de tomar el promedio de longitud de onda larga, dependiendo de los detalles de cómo se cortan las longitudes de onda altas. Los detalles no son demasiado importantes, ya que el objetivo es encontrar las estadísticas de H y no los espines. Una vez que se conocen las correlaciones en H , las correlaciones de larga distancia entre los espines serán proporcionales a las correlaciones de larga distancia en H.

Para cualquier valor del campo de variación lenta H , la energía libre (log-probabilidad) es una función analítica local de H y sus gradientes. La energía libre F ( H ) se define como la suma de todas las configuraciones de Ising que son consistentes con el campo de longitud de onda larga. Dado que H es una descripción burda, hay muchas configuraciones de Ising consistentes con cada valor de H , siempre que no se requiera demasiada exactitud para la coincidencia.

Dado que el rango permitido de valores del espín en cualquier región depende únicamente de los valores de H dentro de un volumen promedio de esa región, la contribución de energía libre de cada región depende únicamente del valor de H allí y en las regiones vecinas. Por lo tanto, F es una suma sobre todas las regiones de una contribución local, que depende únicamente de H y sus derivadas.

Por simetría en H , solo contribuyen las potencias pares. Por simetría de reflexión en una red cuadrada, solo contribuyen las potencias pares de gradientes. Escribiendo los primeros términos de la energía libre:

En una red cuadrada, las simetrías garantizan que los coeficientes Z i de los términos derivados sean todos iguales. Pero incluso para un modelo de Ising anisotrópico, donde los Z i en diferentes direcciones son diferentes, las fluctuaciones en H son isotrópicas en un sistema de coordenadas donde las diferentes direcciones del espacio se reescalan.

En cualquier red, el término derivado es una forma cuadrática definida positiva y se puede utilizar para definir la métrica del espacio. Por lo tanto, cualquier modelo de Ising invariante en la traslación es invariante en la rotación a grandes distancias, en coordenadas que hacen que Z ij = δ ij . La simetría rotacional surge espontáneamente a grandes distancias simplemente porque no hay muchos términos de orden bajo. En puntos multicríticos de orden superior, esta simetría accidental se pierde.

Dado que β F es una función de un campo que varía lentamente en el espacio, la probabilidad de cualquier configuración de campo es (omitiendo los términos de orden superior):

El promedio estadístico de cualquier producto de H términos es igual a:

El denominador en esta expresión se llama función de partición : y la integral sobre todos los valores posibles de H es una integral de trayectoria estadística. Integra exp(β F ) sobre todos los valores de H , sobre todos los componentes de Fourier de longitud de onda larga de los espines. F es un lagrangiano "euclidiano" para el campo H . Es similar al lagrangiano en de un campo escalar en la teoría cuántica de campos , la diferencia es que todos los términos derivados entran con un signo positivo, y no hay un factor global de i (por lo tanto "euclidiano").

Análisis dimensional

La forma de F se puede utilizar para predecir qué términos son los más importantes mediante el análisis dimensional. El análisis dimensional no es completamente sencillo, porque es necesario determinar la escala de H.

En el caso genérico, elegir la ley de escala para H es fácil, ya que el único término que contribuye es el primero,

Este término es el más significativo, pero da lugar a un comportamiento trivial. Esta forma de energía libre es ultralocal, lo que significa que es una suma de una contribución independiente de cada punto. Esto es como los cambios de espín en el modelo unidimensional de Ising. Cada valor de H en cualquier punto fluctúa de forma completamente independiente del valor en cualquier otro punto.

La escala del campo puede redefinirse para absorber el coeficiente A , y entonces queda claro que A solo determina la escala general de fluctuaciones. El modelo ultralocal describe el comportamiento de alta temperatura de longitud de onda larga del modelo de Ising, ya que en este límite los promedios de fluctuación son independientes de un punto a otro.

Para encontrar el punto crítico, baje la temperatura. A medida que la temperatura baja, las fluctuaciones en H aumentan porque las fluctuaciones están más correlacionadas. Esto significa que el promedio de un gran número de espines no se vuelve pequeño tan rápidamente como si no estuvieran correlacionados, porque tienden a ser iguales. Esto corresponde a la disminución de A en el sistema de unidades donde H no absorbe A . La transición de fase solo puede ocurrir cuando los términos secundarios en F pueden contribuir, pero como el primer término domina a largas distancias, el coeficiente A debe ajustarse a cero. Esta es la ubicación del punto crítico:

donde t es un parámetro que pasa por cero en la transición.

Como t se desvanece, fijar la escala del campo utilizando este término hace que los otros términos se disparen. Una vez que t es pequeño, la escala del campo se puede configurar para fijar el coeficiente del término H 4 o el término (∇ H ) 2 en 1.

Magnetización

Para hallar la magnetización, fijamos la escala de H de modo que λ sea uno. Ahora el campo H tiene dimensión − d /4, de modo que H 4 d d x es adimensional y Z tiene dimensión 2 −  d /2. En esta escala, el término de gradiente solo es importante a grandes distancias para d ≤ 4. Por encima de cuatro dimensiones, en longitudes de onda largas, la magnetización general solo se ve afectada por los términos ultralocales.

Hay un detalle sutil: el campo H fluctúa estadísticamente y las fluctuaciones pueden desplazar el punto cero de t . Para ver cómo, considere la división de H 4 de la siguiente manera:

El primer término es una contribución constante a la energía libre y se puede ignorar. El segundo término es un desplazamiento finito en t . El tercer término es una cantidad que escala hasta cero en distancias largas. Esto significa que al analizar el escalamiento de t mediante análisis dimensional, lo importante es el desplazamiento de t . Esto era históricamente muy confuso, porque el desplazamiento de t en cualquier λ finito es finito, pero cerca de la transición t es muy pequeño. El cambio fraccionario en t es muy grande y en unidades donde t es fijo el desplazamiento parece infinito.

La magnetización se encuentra en el mínimo de la energía libre, y ésta es una ecuación analítica. En términos del desplazamiento t ,

Para t < 0, los mínimos están en H proporcionales a la raíz cuadrada de t . Por lo tanto, el argumento de la catástrofe de Landau es correcto en dimensiones mayores que 5. El exponente de magnetización en dimensiones mayores que 5 es igual al valor del campo medio.

Cuando t es negativo, las fluctuaciones en torno al nuevo mínimo se describen mediante un nuevo coeficiente cuadrático positivo. Como este término siempre predomina, a temperaturas inferiores a la transición las fluctuaciones vuelven a ser ultralocales a grandes distancias.

Fluctuaciones

Para encontrar el comportamiento de las fluctuaciones, reescalar el campo para fijar el término de gradiente. Entonces la dimensión de escala de longitud del campo es 1 −  d /2. Ahora el campo tiene fluctuaciones espaciales cuadráticas constantes a todas las temperaturas. La dimensión de escala del término H 2 es 2, mientras que la dimensión de escala del término H 4 es 4 −  d . Para d < 4, el término H 4 tiene una dimensión de escala positiva. En dimensiones mayores que 4 tiene dimensiones de escala negativas.

Esta es una diferencia esencial. En dimensiones superiores a 4, fijar la escala del término de gradiente significa que el coeficiente del término H4 es cada vez menos importante a medida que las longitudes de onda son cada vez más largas. La dimensión en la que las contribuciones no cuadráticas comienzan a contribuir se conoce como dimensión crítica. En el modelo de Ising, la dimensión crítica es 4.

En dimensiones superiores a 4, las fluctuaciones críticas se describen mediante una energía libre puramente cuadrática en longitudes de onda largas. Esto significa que todas las funciones de correlación se pueden calcular a partir de promedios gaussianos :

válido cuando x  −  y es grande. La función G ( x  −  y ) es la continuación analítica al tiempo imaginario del propagador de Feynman , ya que la energía libre es la continuación analítica de la acción del campo cuántico para un campo escalar libre. Para dimensiones 5 y superiores, todas las demás funciones de correlación a largas distancias se determinan entonces por el teorema de Wick . Todos los momentos impares son cero, por simetría ±. Los momentos pares son la suma sobre toda la partición en pares del producto de G ( x  −  y ) para cada par.

donde C es la constante de proporcionalidad. Por lo tanto, basta con conocer G. Determina todas las correlaciones multipunto del campo.

La función crítica de dos puntos

Para determinar la forma de G , considere que los campos en una integral de trayectoria obedecen las ecuaciones clásicas de movimiento derivadas al variar la energía libre:

Esto es válido únicamente en puntos no coincidentes, ya que las correlaciones de H son singulares cuando los puntos chocan. H obedece a las ecuaciones clásicas de movimiento por la misma razón que los operadores mecánicos cuánticos las obedecen: sus fluctuaciones están definidas por una integral de trayectoria.

En el punto crítico t = 0, esta es la ecuación de Laplace , que se puede resolver mediante el método de Gauss de la electrostática. Defina un campo eléctrico análogo mediante

Lejos del origen:

ya que G es esféricamente simétrico en d dimensiones, y E es el gradiente radial de G . Integrando sobre una  esfera grande de dimensión d − 1,

Esto da como resultado:

y G se puede encontrar integrando con respecto a r .

La constante C fija la normalización general del campo.

GRAMO(a) lejos del punto crítico

Cuando t no es igual a cero, de modo que H fluctúa a una temperatura ligeramente alejada de la crítica, la función de dos puntos decae a grandes distancias. La ecuación a la que obedece se modifica:

Para r pequeño en comparación con , la solución diverge exactamente de la misma manera que en el caso crítico, pero se modifica el comportamiento a larga distancia.

Para ver cómo, es conveniente representar la función de dos puntos como una integral, introducida por Schwinger en el contexto de la teoría cuántica de campos:

Esto es G , ya que la transformada de Fourier de esta integral es fácil. Cada contribución fija de τ es una gaussiana en x , cuya transformada de Fourier es otra gaussiana de ancho recíproco en k .

Esta es la inversa del operador ∇ 2  −  t en el espacio k , que actúa sobre la función unidad en el espacio k , que es la transformada de Fourier de una fuente de función delta localizada en el origen. Por lo tanto, satisface la misma ecuación que G con las mismas condiciones de contorno que determinan la intensidad de la divergencia en 0.

La interpretación de la representación integral sobre el tiempo propio τ es que la función de dos puntos es la suma de todos los caminos de caminatas aleatorias que unen la posición 0 con la posición x a lo largo del tiempo τ. La densidad de estos caminos en el tiempo τ en la posición x es gaussiana, pero los caminantes aleatorios desaparecen a una tasa constante proporcional a t, de modo que la gaussiana en el tiempo τ disminuye en altura por un factor que disminuye constantemente de manera exponencial. En el contexto de la teoría cuántica de campos, estos son los caminos de los cuantos localizados relativísticamente en un formalismo que sigue los caminos de partículas individuales. En el contexto estadístico puro, estos caminos todavía aparecen por la correspondencia matemática con los campos cuánticos, pero su interpretación es menos directamente física.

La representación integral muestra inmediatamente que G ( r ) es positiva, ya que se representa como una suma ponderada de gaussianas positivas. También proporciona la tasa de decaimiento en valores grandes de r, ya que el tiempo adecuado para que un paseo aleatorio alcance la posición τ es r 2 y en este tiempo, la altura gaussiana ha decaído en . Por lo tanto, el factor de decaimiento apropiado para la posición r es .

Una aproximación heurística para G ( r ) es:

Esta no es una forma exacta, excepto en tres dimensiones, donde las interacciones entre trayectorias cobran importancia. Las formas exactas en dimensiones superiores son variantes de las funciones de Bessel .

Interpretación de polímeros de Symanzik

La interpretación de las correlaciones como cuantos de tamaño fijo que recorren caminos aleatorios permite entender por qué la dimensión crítica de la interacción H 4 es 4. El término H 4 puede considerarse como el cuadrado de la densidad de los caminantes aleatorios en cualquier punto. Para que un término de este tipo altere las funciones de correlación de orden finito, que solo introducen unos pocos nuevos caminos aleatorios en el entorno fluctuante, los nuevos caminos deben intersecarse. De lo contrario, el cuadrado de la densidad es simplemente proporcional a la densidad y solo desplaza el coeficiente H 2 en una constante. Pero la probabilidad de intersección de los caminos aleatorios depende de la dimensión, y los caminos aleatorios de dimensión superior a 4 no se intersecan.

La dimensión fractal de un paseo aleatorio ordinario es 2. El número de bolas de tamaño ε necesarias para cubrir el camino aumenta a medida que ε −2 . Dos objetos de dimensión fractal 2 se intersectarán con una probabilidad razonable solo en un espacio de dimensión 4 o menor, la misma condición que para un par genérico de planos. Kurt Symanzik argumentó que esto implica que las fluctuaciones críticas de Ising en dimensiones mayores que 4 deberían describirse mediante un campo libre. Este argumento finalmente se convirtió en una prueba matemática.

4 − miDimensiones – grupo de renormalización

El modelo de Ising en cuatro dimensiones se describe mediante un campo fluctuante, pero ahora las fluctuaciones interactúan. En la representación del polímero, las intersecciones de recorridos aleatorios son marginalmente posibles. En la continuación del campo cuántico, los cuantos interactúan.

El logaritmo negativo de la probabilidad de cualquier configuración de campo H es la función de energía libre

Los factores numéricos están ahí para simplificar las ecuaciones de movimiento. El objetivo es comprender las fluctuaciones estadísticas. Como cualquier otra integral de trayectoria no cuadrática, las funciones de correlación tienen una expansión de Feynman como partículas que viajan a lo largo de caminos aleatorios, dividiéndose y volviéndose a unir en los vértices. La fuerza de interacción está parametrizada por la cantidad clásicamente adimensional λ.

Aunque el análisis dimensional muestra que tanto λ como Z son adimensionales, esto es engañoso. Las fluctuaciones estadísticas de longitud de onda larga no son exactamente invariantes de escala y solo se vuelven invariantes de escala cuando la fuerza de interacción desaparece.

La razón es que se utiliza un valor de corte para definir H y este valor de corte define la longitud de onda más corta. Las fluctuaciones de H en longitudes de onda cercanas al valor de corte pueden afectar las fluctuaciones de longitud de onda más larga. Si el sistema se escala junto con el valor de corte, los parámetros se escalarán mediante análisis dimensional, pero luego la comparación de parámetros no compara el comportamiento porque el sistema reescalado tiene más modos. Si el sistema se reescala de tal manera que el valor de corte de longitud de onda corta permanece fijo, las fluctuaciones de longitud de onda larga se modifican.

Renormalización de Wilson

Una forma heurística rápida de estudiar el escalamiento es cortar los números de onda H en un punto λ. Los modos de Fourier de H con números de onda mayores que λ no pueden fluctuar. Un reescalamiento de la longitud que haga que todo el sistema sea más pequeño aumenta todos los números de onda y desplaza algunas fluctuaciones por encima del límite.

Para restablecer el antiguo límite, realice una integración parcial sobre todos los números de onda que solían estar prohibidos, pero que ahora fluctúan. En los diagramas de Feynman, la integración sobre un modo fluctuante en el número de onda k vincula las líneas que llevan el momento k en una función de correlación en pares, con un factor del propagador inverso.

En el reescalado, cuando el sistema se reduce por un factor de (1+ b ), el coeficiente t aumenta por un factor de (1+ b ) 2 según el análisis dimensional. El cambio en t para un valor infinitesimal b es 2 bt . Los otros dos coeficientes son adimensionales y no cambian en absoluto.

El efecto de orden más bajo de la integración se puede calcular a partir de las ecuaciones de movimiento:

Esta ecuación es una identidad dentro de cualquier función de correlación, alejada de otras inserciones. Después de integrar los modos con Λ < k < (1+ b )Λ, será una identidad ligeramente diferente.

Como la forma de la ecuación se conservará, para encontrar el cambio en los coeficientes es suficiente analizar el cambio en el término H 3 . En una expansión del diagrama de Feynman, el término H 3 en una función de correlación dentro de una correlación tiene tres líneas colgantes. Uniendo dos de ellas en un número de onda grande k se obtiene un cambio H 3 con una línea colgante, por lo que es proporcional a H :

El factor 3 proviene del hecho de que el bucle se puede cerrar de tres maneras diferentes.

La integral debe dividirse en dos partes:

La primera parte no es proporcional a t y, en la ecuación de movimiento, puede ser absorbida por un desplazamiento constante en t . Esto se debe a que el término H 3 tiene una parte lineal. Solo el segundo término, que varía de t a t , contribuye al escalamiento crítico.

Este nuevo término lineal se suma al primer término del lado izquierdo, lo que cambia t en una cantidad proporcional a t . El cambio total en t es la suma del término del análisis dimensional y este segundo término de los productos de operadores :

Entonces t se reescala, pero su dimensión es anómala , se modifica en una cantidad proporcional al valor de λ.

Pero λ también cambia. El cambio en λ requiere considerar que las líneas se dividen y luego se vuelven a unir rápidamente. El proceso de orden más bajo es aquel en el que una de las tres líneas de H 3 se divide en tres, que rápidamente se unen con una de las otras líneas del mismo vértice. La corrección del vértice es

El factor numérico es tres veces mayor porque hay un factor adicional de tres al elegir cuál de las tres nuevas líneas contratar. Por lo tanto

Estas dos ecuaciones juntas definen las ecuaciones del grupo de renormalización en cuatro dimensiones:

El coeficiente B se determina mediante la fórmula

y es proporcional al área de una esfera tridimensional de radio λ, multiplicada por el ancho de la región de integración b Λ dividido por Λ 4 :

En otras dimensiones, la constante B cambia, pero la misma constante aparece tanto en el flujo t como en el flujo de acoplamiento. La razón es que la derivada con respecto a t del bucle cerrado con un solo vértice es un bucle cerrado con dos vértices. Esto significa que la única diferencia entre el escalado del acoplamiento y el t son los factores combinatorios de unión y división.

Punto fijo de Wilson-Fisher

Debería ser posible investigar tres dimensiones partiendo de la teoría de cuatro dimensiones, porque las probabilidades de intersección de los recorridos aleatorios dependen continuamente de la dimensionalidad del espacio. En el lenguaje de los grafos de Feynman, el acoplamiento no cambia mucho cuando se cambia la dimensión.

El proceso de continuar alejándose de la dimensión 4 no está completamente bien definido sin una prescripción sobre cómo hacerlo. La prescripción solo está bien definida en los diagramas. Reemplaza la representación de Schwinger en la dimensión 4 con la representación de Schwinger en la dimensión 4 − ε definida por:

En la dimensión 4 − ε, el acoplamiento λ tiene una dimensión de escala positiva ε, y esta debe agregarse al flujo.

El coeficiente B depende de la dimensión, pero se cancelará. El punto fijo para λ ya no es cero, sino: donde las dimensiones de escala de t se modifican en una cantidad λ B = ε/3.

El exponente de magnetización se altera proporcionalmente a:

que es .333 en 3 dimensiones (ε = 1) y .166 en 2 dimensiones (ε = 2). Esto no está tan lejos del exponente medido .308 y el exponente bidimensional de Onsager .125.

Dimensiones infinitas – campo medio

El comportamiento de un modelo de Ising en un grafo completamente conectado puede entenderse completamente mediante la teoría del campo medio . Este tipo de descripción es apropiada para redes cuadradas de dimensiones muy altas, porque entonces cada sitio tiene una cantidad muy grande de vecinos.

La idea es que si cada espín está conectado a un gran número de espines, solo es importante la relación media de espines + a espines −, ya que las fluctuaciones sobre esta media serán pequeñas. El campo medio H es la fracción media de espines que son + menos la fracción media de espines que son −. El coste energético de invertir un único espín en el campo medio H es ±2 JNH . Es conveniente redefinir J para absorber el factor N , de modo que el límite N → ∞ sea suave. En términos del nuevo J , el coste energético de invertir un espín es ±2 JH .

Este coste de energía da la relación entre la probabilidad p de que el espín sea + y la probabilidad 1− p de que el espín sea −. Esta relación es el factor de Boltzmann:

de modo que

El valor medio del espín se da promediando 1 y −1 con los pesos p y 1 −  p , por lo que el valor medio es 2 p  − 1. Pero este promedio es el mismo para todos los espines y, por lo tanto, es igual a H .

Las soluciones de esta ecuación son los posibles campos de medias consistentes. Para β J < 1 solo hay una solución en H = 0. Para valores mayores de β hay tres soluciones y la solución en H = 0 es inestable.

La inestabilidad significa que aumentar un poco el campo medio por encima de cero produce una fracción estadística de espines que son + que es mayor que el valor del campo medio. Por lo tanto, un campo medio que fluctúa por encima de cero producirá un campo medio aún mayor y, finalmente, se asentará en la solución estable. Esto significa que, para temperaturas por debajo del valor crítico β J = 1, el modelo de Ising de campo medio experimenta una transición de fase en el límite de N grande .

Por encima de la temperatura crítica, las fluctuaciones de H se amortiguan porque el campo medio restablece la fluctuación al campo cero. Por debajo de la temperatura crítica, el campo medio se lleva a un nuevo valor de equilibrio, que es la solución H positiva o H negativa de la ecuación.

Para β J = 1 + ε, justo por debajo de la temperatura crítica, el valor de H se puede calcular a partir de la expansión de Taylor de la tangente hiperbólica:

Dividiendo por H para descartar la solución inestable en H = 0, las soluciones estables son:

La magnetización espontánea H crece cerca del punto crítico como la raíz cuadrada del cambio de temperatura. Esto es cierto siempre que H pueda calcularse a partir de la solución de una ecuación analítica que sea simétrica entre valores positivos y negativos, lo que llevó a Landau a sospechar que todas las transiciones de fase de tipo Ising en todas las dimensiones deberían seguir esta ley.

El exponente del campo medio es universal porque los cambios en el carácter de las soluciones de ecuaciones analíticas siempre se describen mediante catástrofes en la serie de Taylor , que es una ecuación polinómica. Por simetría, la ecuación para H solo debe tener potencias impares de H en el lado derecho. Cambiar β solo debería cambiar suavemente los coeficientes. La transición ocurre cuando el coeficiente de H en el lado derecho es 1. Cerca de la transición:

Sean cuales sean A y B , siempre que ninguno de ellos esté ajustado a cero, la magnetización espontánea crecerá como la raíz cuadrada de ε. Este argumento sólo puede fallar si la energía libre β F no es analítica o no genérica en el β exacto donde ocurre la transición.

Sin embargo, la magnetización espontánea en sistemas magnéticos y la densidad en gases cerca del punto crítico se miden con mucha precisión. La densidad y la magnetización en tres dimensiones tienen la misma dependencia de ley de potencia con respecto a la temperatura cerca del punto crítico, pero el comportamiento de los experimentos es:

El exponente también es universal, ya que es el mismo en el modelo de Ising que en el imán y el gas experimentales, pero no es igual al valor del campo medio. Esto fue una gran sorpresa.

Esto también es cierto en dos dimensiones, donde

Pero allí no hubo ninguna sorpresa, porque fue predicho por Onsager .

Dimensiones reducidas: giros en bloque

En tres dimensiones, la serie perturbativa de la teoría de campos es una expansión en una constante de acoplamiento λ que no es particularmente pequeña. El tamaño efectivo del acoplamiento en el punto fijo es uno sobre el factor de ramificación de las trayectorias de las partículas, por lo que el parámetro de expansión es aproximadamente 1/3. En dos dimensiones, el parámetro de expansión perturbativa es 2/3.

Pero la renormalización también se puede aplicar de forma productiva a los espines directamente, sin pasar a un campo promedio. Históricamente, este enfoque se debe a Leo Kadanoff y es anterior a la expansión perturbativa ε.

La idea es integrar iterativamente los espines reticulares, generando un flujo en los acoplamientos. Pero ahora los acoplamientos son coeficientes de energía reticular. El hecho de que exista una descripción continua garantiza que esta iteración convergerá a un punto fijo cuando la temperatura se ajuste a la criticidad.

Renormalización de Migdal-Kadanoff

Escriba el modelo de Ising bidimensional con un número infinito de posibles interacciones de orden superior. Para mantener la simetría de reflexión de espín, solo contribuyen las potencias pares:

Por invariancia de traslación, J ij es solo una función de ij. Por la simetría rotacional accidental, en i y j grandes su tamaño solo depende de la magnitud del vector bidimensional i  −  j . Los coeficientes de orden superior también están restringidos de manera similar.

La iteración de renormalización divide la red en dos partes: espines pares y espines impares. Los espines impares se encuentran en las posiciones de la red del tablero de ajedrez impar, y los pares en las posiciones del tablero de ajedrez par. Cuando los espines se indexan por la posición ( i , j ), los sitios impares son aquellos con i  +  j impar y los sitios pares aquellos con i  +  j par, y los sitios pares solo están conectados a los sitios impares.

Los dos valores posibles de los espines impares se integrarán mediante la suma de ambos valores posibles. Esto producirá una nueva función de energía libre para los espines pares restantes, con nuevos acoplamientos ajustados. Los espines pares vuelven a estar en una red, con ejes inclinados 45 grados respecto a los antiguos. Al desrotar el sistema se restablece la configuración antigua, pero con nuevos parámetros. Estos parámetros describen la interacción entre espines a distancias mayores.

Partiendo del modelo de Ising y repitiendo esta iteración, eventualmente se modifican todos los acoplamientos. Cuando la temperatura es más alta que la temperatura crítica, los acoplamientos convergerán a cero, ya que los espines a grandes distancias no están correlacionados. Pero cuando la temperatura es crítica, habrá coeficientes distintos de cero que vincularán espines en todos los órdenes. El flujo se puede aproximar considerando solo los primeros términos. Este flujo truncado producirá aproximaciones cada vez mejores a los exponentes críticos cuando se incluyan más términos.

La aproximación más simple es mantener únicamente el término J habitual y descartar todo lo demás. Esto generará un flujo en J , análogo al flujo en t en el punto fijo de λ en la expansión ε.

Para hallar el cambio en J , considere los cuatro vecinos de un sitio impar. Estos son los únicos espines que interactúan con él. La contribución multiplicativa a la función de partición de la suma de los dos valores del espín en el sitio impar es:

donde N ± es el número de vecinos que son ±. Ignorando el factor 2, la contribución de energía libre de este sitio extraño es:

Esto incluye interacciones entre el vecino más cercano y el vecino más cercano siguiente, como se esperaba, pero también una interacción de cuatro espines que debe descartarse. Para truncar las interacciones entre el vecino más cercano, considere que la diferencia de energía entre todos los espines iguales y con números iguales de + y – es:

A partir de los acoplamientos de vecinos más próximos, la diferencia de energía entre todos los espines iguales y espines escalonados es 8 J . La diferencia de energía entre todos los espines iguales y no escalonados pero espines netos cero es 4 J . Ignorando las interacciones de cuatro espines, un truncamiento razonable es el promedio de estas dos energías o 6 J . Dado que cada enlace contribuirá a dos espines impares, el valor correcto para comparar con el anterior es la mitad:

Para J pequeñas , esto fluye rápidamente a un acoplamiento cero. Para J grandes , fluye a acoplamientos grandes. El exponente de magnetización se determina a partir de la pendiente de la ecuación en el punto fijo.

Las variantes de este método producen buenas aproximaciones numéricas para los exponentes críticos cuando se incluyen muchos términos, tanto en dos como en tres dimensiones.

Aplicaciones

Magnetismo

La motivación original del modelo fue el fenómeno del ferromagnetismo . El hierro es magnético; una vez magnetizado, permanece magnetizado durante mucho tiempo en comparación con cualquier tiempo atómico.

En el siglo XIX se pensaba que los campos magnéticos se debían a corrientes en la materia, y Ampère postuló que los imanes permanentes eran causados ​​por corrientes atómicas permanentes. Sin embargo, el movimiento de partículas cargadas clásicas no podía explicar las corrientes permanentes, como demostró Larmor . Para que haya ferromagnetismo, los átomos deben tener momentos magnéticos permanentes que no se deban al movimiento de cargas clásicas.

Una vez descubierto el espín del electrón, quedó claro que el magnetismo debía deberse a un gran número de espines de electrones, todos ellos orientados en la misma dirección. Era natural preguntarse cómo los espines de los electrones sabían en qué dirección apuntar, porque los electrones de un lado de un imán no interactúan directamente con los electrones del otro lado. Sólo pueden influir en sus vecinos. El modelo de Ising fue diseñado para investigar si una gran fracción de los espines de los electrones podían orientarse en la misma dirección utilizando sólo fuerzas locales.

Gas reticular

El modelo de Ising puede reinterpretarse como un modelo estadístico del movimiento de los átomos. Dado que la energía cinética depende únicamente del momento y no de la posición, mientras que la estadística de las posiciones depende únicamente de la energía potencial, la termodinámica del gas depende únicamente de la energía potencial para cada configuración de átomos.

Un modelo burdo consiste en hacer del espacio-tiempo una red e imaginar que cada posición contiene un átomo o no. El espacio de configuración es el de los bits independientes B i , donde cada bit es 0 o 1 dependiendo de si la posición está ocupada o no. Una interacción atractiva reduce la energía de dos átomos cercanos. Si la atracción es solo entre vecinos más cercanos, la energía se reduce en −4 JB i B j por cada par vecino ocupado.

La densidad de los átomos se puede controlar añadiendo un potencial químico , que es un coste de probabilidad multiplicativo por añadir un átomo más. Un factor multiplicativo en la probabilidad se puede reinterpretar como un término aditivo en el logaritmo: la energía. La energía extra de una configuración con N átomos se cambia por μN . El coste de probabilidad de un átomo más es un factor de exp(− βμ ).

Entonces la energía del gas reticular es:

Reescribiendo los bits en términos de espines,

Para redes donde cada sitio tiene un número igual de vecinos, este es el modelo de Ising con un campo magnético h = ( zJ  −  μ )/2, donde z es el número de vecinos.

En los sistemas biológicos, se han utilizado versiones modificadas del modelo de gas reticular para comprender una variedad de comportamientos de unión, entre los que se incluyen la unión de ligandos a receptores en la superficie celular [32] , la unión de proteínas de quimiotaxis al motor flagelar [33] y la condensación del ADN [34] .

Neurociencia

La actividad de las neuronas en el cerebro se puede modelar estadísticamente. Cada neurona en cualquier momento está activa + o inactiva −. Las neuronas activas son aquellas que envían un potencial de acción a través del axón en cualquier ventana de tiempo dada, y las inactivas son aquellas que no lo hacen. Debido a que la actividad neuronal en cualquier momento se modela mediante bits independientes, Hopfield sugirió en 1982 que un modelo dinámico de Ising proporcionaría una primera aproximación a una red neuronal capaz de aprender . [35] Esta red neuronal recurrente de aprendizaje fue publicada por Shun'ichi Amari en 1972. [36] [37]

Siguiendo el enfoque general de Jaynes, [38] [39] una interpretación posterior de Schneidman, Berry, Segev y Bialek, [40] es que el modelo de Ising es útil para cualquier modelo de función neuronal, porque un modelo estadístico para la actividad neuronal debe elegirse utilizando el principio de máxima entropía . Dada una colección de neuronas, un modelo estadístico que puede reproducir la tasa de disparo promedio para cada neurona introduce un multiplicador de Lagrange para cada neurona: Pero la actividad de cada neurona en este modelo es estadísticamente independiente. Para permitir correlaciones de pares, cuando una neurona tiende a disparar (o no disparar) junto con otra, introduzca multiplicadores de Lagrange por pares: donde no están restringidos a los vecinos. Tenga en cuenta que esta generalización del modelo de Ising a veces se denomina distribución binaria exponencial cuadrática en estadística. Esta función de energía solo introduce sesgos de probabilidad para un espín que tiene un valor y para un par de espines que tienen el mismo valor. Las correlaciones de orden superior no están restringidas por los multiplicadores. Un patrón de actividad obtenido a partir de esta distribución requiere la mayor cantidad de bits para almacenarse en una computadora, en el esquema de codificación más eficiente imaginable, en comparación con cualquier otra distribución con la misma actividad promedio y correlaciones por pares. Esto significa que los modelos de Ising son relevantes para cualquier sistema que se describa mediante bits que sean lo más aleatorios posible, con restricciones en las correlaciones por pares y el número promedio de 1, lo que ocurre con frecuencia tanto en las ciencias físicas como en las sociales.

Vasos giratorios

With the Ising model the so-called spin glasses can also be described, by the usual Hamiltonian where the S-variables describe the Ising spins, while the Ji,k are taken from a random distribution. For spin glasses a typical distribution chooses antiferromagnetic bonds with probability p and ferromagnetic bonds with probability 1 − p (also known as the random-bond Ising model). These bonds stay fixed or "quenched" even in the presence of thermal fluctuations. When p = 0 we have the original Ising model. This system deserves interest in its own; particularly one has "non-ergodic" properties leading to strange relaxation behaviour. Much attention has been also attracted by the related bond and site dilute Ising model, especially in two dimensions, leading to intriguing critical behavior.[41]

Sea ice

2D melt pond approximations can be created using the Ising model; sea ice topography data bears rather heavily on the results. The state variable is binary for a simple 2D approximation, being either water or ice.[42]

Cayley tree topologies and large neural networks

An Open Cayley Tree or Branch with Branching Ratio = 2 and k Generations

In order to investigate an Ising model with potential relevance for large (e.g. with or interactions per node) neural nets, at the suggestion of Krizan in 1979, Barth (1981) obtained the exact analytical expression for the free energy of the Ising model on the closed Cayley tree (with an arbitrarily large branching ratio) for a zero-external magnetic field (in the thermodynamic limit) by applying the methodologies of Glasser (1970) and Jellito (1979)

A Closed Cayley Tree with Branching Ratio = 4. (Only sites for generations k, k-1, and k=1(overlapping as one row) are shown for the joined trees)

where is an arbitrary branching ratio (greater than or equal to 2), , , (with representing the nearest-neighbor interaction energy) and there are k (→ ∞ in the thermodynamic limit) generations in each of the tree branches (forming the closed tree architecture as shown in the given closed Cayley tree diagram.) The sum in the last term can be shown to converge uniformly and rapidly (i.e. for z → ∞, it remains finite) yielding a continuous and monotonous function, establishing that, for greater than or equal to 2, the free energy is a continuous function of temperature T. Further analysis of the free energy indicates that it exhibits an unusual discontinuous first derivative at the critical temperature (Krizan, Barth & Glasser (1983), Glasser & Goldberg (1983).)

The spin-spin correlation between sites (in general, m and n) on the tree was found to have a transition point when considered at the vertices (e.g. A and Ā, its reflection), their respective neighboring sites (such as B and its reflection), and between sites adjacent to the top and bottom extreme vertices of the two trees (e.g. A and B), as may be determined fromwhere is equal to the number of bonds, is the number of graphs counted for odd vertices with even intermediate sites (see cited methodologies and references for detailed calculations), is the multiplicity resulting from two-valued spin possibilities and the partition function is derived from . (Note: is consistent with the referenced literature in this section and is equivalent to or utilized above and in earlier sections; it is valued at .) The critical temperature is given by

The critical temperature for this model is only determined by the branching ratio and the site-to-site interaction energy , a fact which may have direct implications associated with neural structure vs. its function (in that it relates the energies of interaction and branching ratio to its transitional behavior.) For example, a relationship between the transition behavior of activities of neural networks between sleeping and wakeful states (which may correlate with a spin-spin type of phase transition) in terms of changes in neural interconnectivity () and/or neighbor-to-neighbor interactions (), over time, is just one possible avenue suggested for further experimental investigation into such a phenomenon. In any case, for this Ising model it was established, that “the stability of the long-range correlation increases with increasing or increasing .”

For this topology, the spin-spin correlation was found to be zero between the extreme vertices and the central sites at which the two trees (or branches) are joined (i.e. between A and individually C, D, or E.) This behavior is explained to be due to the fact that, as k increases, the number of links increases exponentially (between the extreme vertices) and so even though the contribution to spin correlations decrease exponentially, the correlation between sites such as the extreme vertex (A) in one tree and the extreme vertex in the joined tree (Ā) remains finite (above the critical temperature.) In addition, A and B also exhibit a non-vanishing correlation (as do their reflections) thus lending itself to, for B level sites (with A level), being considered “clusters” which tend to exhibit synchronization of firing.

Based upon a review of other classical network models as a comparison, the Ising model on a closed Cayley tree was determined to be the first classical statistical mechanical model to demonstrate both local and long-range sites with non-vanishing spin-spin correlations, while at the same time exhibiting intermediate sites with zero correlation, which indeed was a relevant matter for large neural networks at the time of its consideration. The model's behavior is also of relevance for any other divergent-convergent tree physical (or biological) system exhibiting a closed Cayley tree topology with an Ising-type of interaction. This topology should not be ignored since its behavior for Ising models has been solved exactly, and presumably nature will have found a way of taking advantage of such simple symmetries at many levels of its designs.

Barth (1981) early on noted the possibility of interrelationships between (1) the classical large neural network model (with similar coupled divergent-convergent topologies) with (2) an underlying statistical quantum mechanical model (independent of topology and with persistence in fundamental quantum states):

The most significant result obtained from the closed Cayley tree model involves the occurrence of long-range correlation in the absence of intermediate-range correlation. This result has not been demonstrated by other classical models. The failure of the classical view of impulse transmission to account for this phenomenon has been cited by numerous investigators (Ricciiardi and Umezawa, 1967, Hokkyo 1972, Stuart, Takahashi and Umezawa 1978, 1979) as significant enough to warrant radically new assumptions on a very fundamental level and have suggested the existence of quantum cooperative modes within the brain…In addition, it is interesting to note that the (modeling) of…Goldstone particles or bosons (as per Umezawa, et al)…within the brain, demonstrates the long-range correlation of quantum numbers preserved in the ground state…In the closed Cayley tree model ground states of pairs of sites, as well as the state variable of individual sites, (can) exhibit long-range correlation.

It was a natural and common belief among early neurophysicists (e.g. Umezawa, Krizan, Barth, etc.) that classical neural models (including those with statistical mechanical aspects) will one day have to be integrated with quantum physics (with quantum statistical aspects), similar perhaps to how the domain of chemistry has historically integrated itself into quantum physics via quantum chemistry.

Several additional statistical mechanical problems of interest remain to be solved for the closed Cayley tree, including the time-dependent case and the external field situation, as well as theoretical efforts aimed at understanding interrelationships with underlying quantum constituents and their physics.

See also

Footnotes

  1. ^ See Gallavotti (1999), Chapters VI-VII.
  2. ^ Ernst Ising, Contribution to the Theory of Ferromagnetism
  3. ^ See Baierlein (1999), Chapter 16.
  4. ^ Barahona, Francisco; Grötschel, Martin; Jünger, Michael; Reinelt, Gerhard (1988). "An Application of Combinatorial Optimization to Statistical Physics and Circuit Layout Design". Operations Research. 36 (3): 493–513. doi:10.1287/opre.36.3.493. ISSN 0030-364X. JSTOR 170992.
  5. ^ El-Showk, Sheer; Paulos, Miguel F.; Poland, David; Rychkov, Slava; Simmons-Duffin, David; Vichi, Alessandro (2014). "Solving the 3d Ising Model with the Conformal Bootstrap II. C -Minimization and Precise Critical Exponents" (PDF). Journal of Statistical Physics. 157 (4–5): 869–914. arXiv:1403.4545. Bibcode:2014JSP...157..869E. doi:10.1007/s10955-014-1042-7. S2CID 119627708. Archived from the original (PDF) on 2014-04-07. Retrieved 2013-04-21.
  6. ^ Peierls, R.; Born, M. (1936). "On Ising's model of ferromagnetism". Mathematical Proceedings of the Cambridge Philosophical Society. 32 (3): 477. Bibcode:1936PCPS...32..477P. doi:10.1017/S0305004100019174. S2CID 122630492.
  7. ^ a b c Montroll, Potts & Ward 1963, pp. 308–309
  8. ^ Simon, Barry (1980-10-01). "Correlation inequalities and the decay of correlations in ferromagnets". Communications in Mathematical Physics. 77 (2): 111–126. Bibcode:1980CMaPh..77..111S. doi:10.1007/BF01982711. ISSN 1432-0916. S2CID 17543488.
  9. ^ Duminil-Copin, Hugo; Tassion, Vincent (2016-04-01). "A New Proof of the Sharpness of the Phase Transition for Bernoulli Percolation and the Ising Model". Communications in Mathematical Physics. 343 (2): 725–745. arXiv:1502.03050. Bibcode:2016CMaPh.343..725D. doi:10.1007/s00220-015-2480-z. ISSN 1432-0916. S2CID 119330137.
  10. ^ Beffara, Vincent; Duminil-Copin, Hugo (2012-08-01). "The self-dual point of the two-dimensional random-cluster model is critical for q ≥ 1". Probability Theory and Related Fields. 153 (3): 511–542. doi:10.1007/s00440-011-0353-8. ISSN 1432-2064. S2CID 55391558.
  11. ^ a b c d e f g h i j Newman, M.E.J.; Barkema, G.T. (1999). Monte Carlo Methods in Statistical Physics. Clarendon Press. ISBN 9780198517979.
  12. ^ Süzen, Mehmet (29 September 2014). "M. Suzen "Effective ergodicity in single-spin-flip dynamics"". Physical Review E. 90 (3): 032141. arXiv:1405.4497. doi:10.1103/PhysRevE.90.032141. PMID 25314429. S2CID 118355454. Retrieved 2022-08-09.
  13. ^ "For example, SquareIsingModel.jl (in Julia)". GitHub. 28 June 2022.
  14. ^ Teif, Vladimir B. (2007). "General transfer matrix formalism to calculate DNA-protein-drug binding in gene regulation". Nucleic Acids Res. 35 (11): e80. doi:10.1093/nar/gkm268. PMC 1920246. PMID 17526526.
  15. ^ a b Ruelle, David (1999) [1969]. Statistical Mechanics: Rigorous Results. World Scientific. ISBN 978-981-4495-00-4.
  16. ^ Dyson, F. J. (1969). "Existence of a phase-transition in a one-dimensional Ising ferromagnet". Comm. Math. Phys. 12 (2): 91–107. Bibcode:1969CMaPh..12...91D. doi:10.1007/BF01645907. S2CID 122117175.
  17. ^ Fröhlich, J.; Spencer, T. (1982). "The phase transition in the one-dimensional Ising model with 1/r2 interaction energy". Comm. Math. Phys. 84 (1): 87–101. Bibcode:1982CMaPh..84...87F. doi:10.1007/BF01208373. S2CID 122722140.
  18. ^ Baxter, Rodney J. (1982), Exactly solved models in statistical mechanics, London: Academic Press Inc. [Harcourt Brace Jovanovich Publishers], ISBN 978-0-12-083180-7, MR 0690578, archived from the original on 2012-03-20, retrieved 2009-10-25
  19. ^ Suzuki, Sei; Inoue, Jun-ichi; Chakrabarti, Bikas K. (2012). Quantum Ising Phases and Transitions in Transverse Ising Models. Springer. doi:10.1007/978-3-642-33039-1. ISBN 978-3-642-33038-4.
  20. ^ Maris, Humphrey J.; Kadanoff, Leo P. (June 1978). "Teaching the renormalization group". American Journal of Physics. 46 (6): 652–657. doi:10.1119/1.11224. ISSN 0002-9505.
  21. ^ Wood, Charlie (24 June 2020). "The Cartoon Picture of Magnets That Has Transformed Science". Quanta Magazine. Retrieved 2020-06-26.
  22. ^ "Ken Wilson recalls how Murray Gell-Mann suggested that he solve the three-dimensional Ising model".
  23. ^ Billó, M.; Caselle, M.; Gaiotto, D.; Gliozzi, F.; Meineri, M.; others (2013). "Line defects in the 3d Ising model". JHEP. 1307 (7): 055. arXiv:1304.4110. Bibcode:2013JHEP...07..055B. doi:10.1007/JHEP07(2013)055. S2CID 119226610.
  24. ^ Cosme, Catarina; Lopes, J. M. Viana Parente; Penedones, Joao (2015). "Conformal symmetry of the critical 3D Ising model inside a sphere". Journal of High Energy Physics. 2015 (8): 22. arXiv:1503.02011. Bibcode:2015JHEP...08..022C. doi:10.1007/JHEP08(2015)022. S2CID 53710971.
  25. ^ Zhu, Wei; Han, Chao; Huffman, Emilie; Hofmann, Johannes S.; He, Yin-Chen (2023). "Uncovering Conformal Symmetry in the 3D Ising Transition: State-Operator Correspondence from a Quantum Fuzzy Sphere Regularization". Physical Review X. 13 (2): 021009. arXiv:2210.13482. doi:10.1103/PhysRevX.13.021009. S2CID 253107625.
  26. ^ Delamotte, Bertrand; Tissier, Matthieu; Wschebor, Nicolás (2016). "Scale invariance implies conformal invariance for the three-dimensional Ising model". Physical Review E. 93 (12144): 012144. arXiv:1501.01776. Bibcode:2016PhRvE..93a2144D. doi:10.1103/PhysRevE.93.012144. PMID 26871060. S2CID 14538564.
  27. ^ El-Showk, Sheer; Paulos, Miguel F.; Poland, David; Rychkov, Slava; Simmons-Duffin, David; Vichi, Alessandro (2012). "Solving the 3D Ising Model with the Conformal Bootstrap". Phys. Rev. D86 (2): 025022. arXiv:1203.6064. Bibcode:2012PhRvD..86b5022E. doi:10.1103/PhysRevD.86.025022. S2CID 39692193.
  28. ^ El-Showk, Sheer; Paulos, Miguel F.; Poland, David; Rychkov, Slava; Simmons-Duffin, David; Vichi, Alessandro (2014). "Solving the 3d Ising Model with the Conformal Bootstrap II. c-Minimization and Precise Critical Exponents". Journal of Statistical Physics. 157 (4–5): 869–914. arXiv:1403.4545. Bibcode:2014JSP...157..869E. doi:10.1007/s10955-014-1042-7. S2CID 119627708.
  29. ^ Simmons-Duffin, David (2015). "A semidefinite program solver for the conformal bootstrap". Journal of High Energy Physics. 2015 (6): 174. arXiv:1502.02033. Bibcode:2015JHEP...06..174S. doi:10.1007/JHEP06(2015)174. ISSN 1029-8479. S2CID 35625559.
  30. ^ Kadanoff, Leo P. (April 30, 2014). "Deep Understanding Achieved on the 3d Ising Model". Journal Club for Condensed Matter Physics. Archived from the original on July 22, 2015. Retrieved July 19, 2015.
  31. ^ Cipra, Barry A. (2000). "The Ising Model Is NP-Complete" (PDF). SIAM News. 33 (6).
  32. ^ Shi, Y.; Duke, T. (1998-11-01). "Cooperative model of bacteril sensing". Physical Review E. 58 (5): 6399–6406. arXiv:physics/9901052. Bibcode:1998PhRvE..58.6399S. doi:10.1103/PhysRevE.58.6399. S2CID 18854281.
  33. ^ Bai, Fan; Branch, Richard W.; Nicolau, Dan V.; Pilizota, Teuta; Steel, Bradley C.; Maini, Philip K.; Berry, Richard M. (2010-02-05). "Conformational Spread as a Mechanism for Cooperativity in the Bacterial Flagellar Switch". Science. 327 (5966): 685–689. Bibcode:2010Sci...327..685B. doi:10.1126/science.1182105. ISSN 0036-8075. PMID 20133571. S2CID 206523521.
  34. ^ Vtyurina, Natalia N.; Dulin, David; Docter, Margreet W.; Meyer, Anne S.; Dekker, Nynke H.; Abbondanzieri, Elio A. (2016-04-18). "Hysteresis in DNA compaction by Dps is described by an Ising model". Proceedings of the National Academy of Sciences. 113 (18): 4982–7. Bibcode:2016PNAS..113.4982V. doi:10.1073/pnas.1521241113. ISSN 0027-8424. PMC 4983820. PMID 27091987.
  35. ^ J. J. Hopfield (1982), "Neural networks and physical systems with emergent collective computational abilities", Proceedings of the National Academy of Sciences of the USA, 79 (8): 2554–2558, Bibcode:1982PNAS...79.2554H, doi:10.1073/pnas.79.8.2554, PMC 346238, PMID 6953413.
  36. ^ Amari, Shun-Ichi (1972). "Learning patterns and pattern sequences by self-organizing nets of threshold elements". IEEE Transactions. C (21): 1197–1206.
  37. ^ Schmidhuber, Juergen (2022). "Annotated History of Modern AI and Deep Learning". arXiv:2212.11279 [cs.NE].
  38. ^ Jaynes, E. T. (1957), "Information Theory and Statistical Mechanics", Physical Review, 106 (4): 620–630, Bibcode:1957PhRv..106..620J, doi:10.1103/PhysRev.106.620, S2CID 17870175.
  39. ^ Jaynes, Edwin T. (1957), "Information Theory and Statistical Mechanics II", Physical Review, 108 (2): 171–190, Bibcode:1957PhRv..108..171J, doi:10.1103/PhysRev.108.171.
  40. ^ Elad Schneidman; Michael J. Berry; Ronen Segev; William Bialek (2006), "Weak pairwise correlations imply strongly correlated network states in a neural population", Nature, 440 (7087): 1007–1012, arXiv:q-bio/0512013, Bibcode:2006Natur.440.1007S, doi:10.1038/nature04701, PMC 1785327, PMID 16625187.
  41. ^ J-S Wang, W Selke, VB Andreichenko, and VS Dotsenko (1990), "The critical behaviour of the two-dimensional dilute model", Physica A, 164 (2): 221–239, Bibcode:1990PhyA..164..221W, doi:10.1016/0378-4371(90)90196-Y{{citation}}: CS1 maint: multiple names: authors list (link)
  42. ^ Yi-Ping Ma; Ivan Sudakov; Courtenay Strong; Kenneth Golden (2017). "Ising model for melt ponds on Arctic sea ice". arXiv:1408.2487v3 [physics.ao-ph].

References

External links