En física teórica , la teoría cuántica de campos ( QFT ) es un marco teórico que combina la teoría clásica de campos , la relatividad especial y la mecánica cuántica . [1] : xi La QFT se utiliza en física de partículas para construir modelos físicos de partículas subatómicas y en física de materia condensada para construir modelos de cuasipartículas . El modelo estándar actual de física de partículas se basa en la teoría cuántica de campos.
La teoría cuántica de campos surgió del trabajo de generaciones de físicos teóricos que abarcaron gran parte del siglo XX. Su desarrollo comenzó en la década de 1920 con la descripción de las interacciones entre la luz y los electrones , que culminó en la primera teoría cuántica de campos : la electrodinámica cuántica . Pronto siguió un gran obstáculo teórico con la aparición y persistencia de varios infinitos en los cálculos perturbativos, un problema que solo se resolvió en la década de 1950 con la invención del procedimiento de renormalización . Una segunda barrera importante vino con la aparente incapacidad de la QFT para describir las interacciones débiles y fuertes , hasta el punto en que algunos teóricos pidieron el abandono del enfoque teórico de campos. El desarrollo de la teoría de calibre y la finalización del Modelo Estándar en la década de 1970 llevaron a un renacimiento de la teoría cuántica de campos.
La teoría cuántica de campos resulta de la combinación de la teoría clásica de campos , la mecánica cuántica y la relatividad especial . [1] : xi A continuación se presenta una breve descripción general de estos precursores teóricos.
La primera teoría clásica de campos exitosa es la que surgió de la ley de gravitación universal de Newton , a pesar de la ausencia total del concepto de campos en su tratado Philosophiæ Naturalis Principia Mathematica de 1687. La fuerza de gravedad como la describe Isaac Newton es una " acción a distancia "; sus efectos sobre objetos lejanos son instantáneos, sin importar la distancia. Sin embargo, en un intercambio de cartas con Richard Bentley , Newton afirmó que "es inconcebible que la materia bruta inanimada pueda, sin la mediación de algo más que no sea material, operar sobre y afectar a otra materia sin contacto mutuo". [2] : 4 No fue hasta el siglo XVIII que los físicos matemáticos descubrieron una descripción conveniente de la gravedad basada en campos: una cantidad numérica (un vector en el caso del campo gravitacional ) asignada a cada punto en el espacio que indica la acción de la gravedad sobre cualquier partícula en ese punto. Sin embargo, esto se consideró simplemente un truco matemático. [3] : 18
Los campos empezaron a adquirir existencia propia con el desarrollo del electromagnetismo en el siglo XIX. Michael Faraday acuñó el término inglés "campo" en 1845. Introdujo los campos como propiedades del espacio (incluso cuando está desprovisto de materia) que tienen efectos físicos. Argumentó en contra de la "acción a distancia" y propuso que las interacciones entre objetos ocurren a través de "líneas de fuerza" que llenan el espacio. Esta descripción de los campos se mantiene hasta el día de hoy. [2] [4] : 301 [5] : 2
La teoría del electromagnetismo clásico se completó en 1864 con las ecuaciones de Maxwell , que describían la relación entre el campo eléctrico , el campo magnético , la corriente eléctrica y la carga eléctrica . Las ecuaciones de Maxwell implicaban la existencia de ondas electromagnéticas , un fenómeno por el cual los campos eléctricos y magnéticos se propagan de un punto espacial a otro a una velocidad finita, que resulta ser la velocidad de la luz . De esta forma, la acción a distancia quedó refutada de manera concluyente. [2] : 19
A pesar del enorme éxito del electromagnetismo clásico, no pudo explicar las líneas discretas en los espectros atómicos , ni la distribución de la radiación del cuerpo negro en diferentes longitudes de onda. [6] El estudio de Max Planck sobre la radiación del cuerpo negro marcó el comienzo de la mecánica cuántica. Trató a los átomos, que absorben y emiten radiación electromagnética , como pequeños osciladores con la propiedad crucial de que sus energías solo pueden tomar una serie de valores discretos, en lugar de continuos. Estos se conocen como osciladores armónicos cuánticos . Este proceso de restringir las energías a valores discretos se llama cuantización. [7] : Cap.2 Basándose en esta idea, Albert Einstein propuso en 1905 una explicación para el efecto fotoeléctrico , que la luz está compuesta de paquetes individuales de energía llamados fotones (los cuantos de luz). Esto implicaba que la radiación electromagnética, aunque son ondas en el campo electromagnético clásico, también existe en forma de partículas. [6]
En 1913, Niels Bohr introdujo el modelo de Bohr de la estructura atómica, en el que los electrones dentro de los átomos sólo pueden asumir una serie de energías discretas, en lugar de continuas. Este es otro ejemplo de cuantificación. El modelo de Bohr explicó con éxito la naturaleza discreta de las líneas espectrales atómicas. En 1924, Louis de Broglie propuso la hipótesis de la dualidad onda-partícula , según la cual las partículas microscópicas exhiben propiedades tanto ondulatorias como particuladas en diferentes circunstancias. [6] Uniendo estas ideas dispersas, se formuló una disciplina coherente, la mecánica cuántica , entre 1925 y 1926, con importantes contribuciones de Max Planck , Louis de Broglie , Werner Heisenberg , Max Born , Erwin Schrödinger , Paul Dirac y Wolfgang Pauli . [3] : 22–23
En el mismo año de su artículo sobre el efecto fotoeléctrico, Einstein publicó su teoría de la relatividad especial , basada en el electromagnetismo de Maxwell. Se dieron nuevas reglas, llamadas transformaciones de Lorentz , para la forma en que las coordenadas temporales y espaciales de un evento cambian bajo cambios en la velocidad del observador, y la distinción entre tiempo y espacio se desdibujó. [3] : 19 Se propuso que todas las leyes físicas deben ser las mismas para los observadores a diferentes velocidades, es decir, que las leyes físicas sean invariantes bajo las transformaciones de Lorentz.
Quedaban dos dificultades. Observacionalmente, la ecuación de Schrödinger que sustenta la mecánica cuántica podía explicar la emisión estimulada de radiación de los átomos, donde un electrón emite un nuevo fotón bajo la acción de un campo electromagnético externo, pero no podía explicar la emisión espontánea , donde un electrón disminuye espontáneamente su energía y emite un fotón incluso sin la acción de un campo electromagnético externo. Teóricamente, la ecuación de Schrödinger no podía describir los fotones y era incompatible con los principios de la relatividad especial: trata el tiempo como un número ordinario mientras promueve las coordenadas espaciales a operadores lineales . [6]
La teoría cuántica de campos comenzó naturalmente con el estudio de las interacciones electromagnéticas, ya que el campo electromagnético era el único campo clásico conocido a partir de la década de 1920. [8] : 1
A través de los trabajos de Born, Heisenberg y Pascual Jordan en 1925-1926, se desarrolló una teoría cuántica del campo electromagnético libre (uno sin interacciones con la materia) a través de la cuantificación canónica al tratar el campo electromagnético como un conjunto de osciladores armónicos cuánticos . [8] : 1 Sin embargo, con la exclusión de las interacciones, dicha teoría aún era incapaz de hacer predicciones cuantitativas sobre el mundo real. [3] : 22
En su influyente artículo de 1927 La teoría cuántica de la emisión y absorción de la radiación , Dirac acuñó el término electrodinámica cuántica (EDQ), una teoría que añade a los términos que describen el campo electromagnético libre un término de interacción adicional entre la densidad de corriente eléctrica y el potencial vectorial electromagnético . Utilizando la teoría de perturbación de primer orden , explicó con éxito el fenómeno de la emisión espontánea. Según el principio de incertidumbre de la mecánica cuántica, los osciladores armónicos cuánticos no pueden permanecer estacionarios, sino que tienen una energía mínima distinta de cero y siempre deben estar oscilando, incluso en el estado de energía más bajo (el estado fundamental ). Por lo tanto, incluso en un vacío perfecto , sigue habiendo un campo electromagnético oscilante que tiene energía de punto cero . Es esta fluctuación cuántica de los campos electromagnéticos en el vacío la que "estimula" la emisión espontánea de radiación por los electrones en los átomos. La teoría de Dirac tuvo un gran éxito a la hora de explicar tanto la emisión como la absorción de radiación por los átomos; Al aplicar la teoría de perturbaciones de segundo orden, se pudo explicar la dispersión de fotones, la fluorescencia de resonancia y la dispersión Compton no relativista . No obstante, la aplicación de la teoría de perturbaciones de orden superior estuvo plagada de infinitos problemáticos en los cálculos. [6] : 71
En 1928, Dirac escribió una ecuación de onda que describía los electrones relativistas: la ecuación de Dirac . Tuvo las siguientes consecuencias importantes: el espín de un electrón es 1/2; el factor g del electrón es 2; condujo a la fórmula correcta de Sommerfeld para la estructura fina del átomo de hidrógeno ; y podría usarse para derivar la fórmula de Klein-Nishina para la dispersión Compton relativista. Aunque los resultados fueron fructíferos, la teoría aparentemente también implicaba la existencia de estados de energía negativos, que causarían que los átomos fueran inestables, ya que siempre podrían decaer a estados de energía más bajos mediante la emisión de radiación. [6] : 71–72
La visión predominante en ese momento era que el mundo estaba compuesto de dos ingredientes muy diferentes: partículas materiales (como los electrones) y campos cuánticos (como los fotones). Las partículas materiales se consideraban eternas, con su estado físico descrito por las probabilidades de encontrar cada partícula en cualquier región dada del espacio o rango de velocidades. Por otro lado, los fotones se consideraban simplemente los estados excitados del campo electromagnético cuantizado subyacente, y podían crearse o destruirse libremente. Fue entre 1928 y 1930 cuando Jordan, Eugene Wigner , Heisenberg, Pauli y Enrico Fermi descubrieron que las partículas materiales también podían verse como estados excitados de campos cuánticos. Así como los fotones son estados excitados del campo electromagnético cuantizado, cada tipo de partícula tenía su campo cuántico correspondiente: un campo de electrones, un campo de protones, etc. Si se disponía de suficiente energía, ahora sería posible crear partículas materiales. Basándose en esta idea, Fermi propuso en 1932 una explicación para la desintegración beta conocida como interacción de Fermi . Los núcleos atómicos no contienen electrones per se , pero en el proceso de desintegración se crea un electrón a partir del campo electrónico circundante, de manera análoga al fotón creado a partir del campo electromagnético circundante en la desintegración radiativa de un átomo excitado. [3] : 22–23
En 1929, Dirac y otros se dieron cuenta de que los estados de energía negativos implicados por la ecuación de Dirac podían eliminarse asumiendo la existencia de partículas con la misma masa que los electrones pero carga eléctrica opuesta. Esto no solo aseguró la estabilidad de los átomos, sino que también fue la primera propuesta de la existencia de antimateria . De hecho, la evidencia de positrones fue descubierta en 1932 por Carl David Anderson en los rayos cósmicos . Con suficiente energía, como al absorber un fotón, se podría crear un par electrón-positrón, un proceso llamado producción de pares ; el proceso inverso, la aniquilación, también podría ocurrir con la emisión de un fotón. Esto demostró que los números de partículas no necesitan ser fijos durante una interacción. Históricamente, sin embargo, los positrones fueron considerados al principio como "agujeros" en un mar infinito de electrones, en lugar de un nuevo tipo de partícula, y esta teoría fue conocida como la teoría del agujero de Dirac . [6] : 72 [3] : 23 La QFT incorporó naturalmente antipartículas en su formalismo. [3] : 24
Robert Oppenheimer demostró en 1930 que los cálculos perturbativos de orden superior en QED siempre resultaban en cantidades infinitas, como la autoenergía del electrón y la energía del punto cero del vacío de los campos de electrones y fotones, [6] lo que sugiere que los métodos computacionales de la época no podían tratar adecuadamente las interacciones que involucraban fotones con momentos extremadamente altos. [3] : 25 No fue hasta 20 años después que se desarrolló un enfoque sistemático para eliminar tales infinitos.
Entre 1934 y 1938 Ernst Stueckelberg publicó una serie de artículos que establecían una formulación relativista e invariante de la teoría cuántica de campos. En 1947, Stueckelberg también desarrolló de forma independiente un procedimiento de renormalización completo. Estos logros no fueron comprendidos ni reconocidos por la comunidad teórica. [6]
Frente a estos infinitos, John Archibald Wheeler y Heisenberg propusieron, en 1937 y 1943 respectivamente, sustituir la problemática QFT por la llamada teoría de la matriz S. Puesto que los detalles específicos de las interacciones microscópicas son inaccesibles a las observaciones, la teoría sólo debería intentar describir las relaciones entre un pequeño número de observables ( por ejemplo, la energía de un átomo) en una interacción, en lugar de preocuparse por las minucias microscópicas de la interacción. En 1945, Richard Feynman y Wheeler sugirieron atrevidamente abandonar por completo la QFT y propusieron la acción a distancia como el mecanismo de las interacciones de partículas. [3] : 26
En 1947, Willis Lamb y Robert Retherford midieron la mínima diferencia en los niveles de energía 2 S 1/2 y 2 P 1/2 del átomo de hidrógeno, también llamada desplazamiento Lamb . Al ignorar la contribución de los fotones cuya energía excede la masa del electrón, Hans Bethe estimó con éxito el valor numérico del desplazamiento Lamb. [6] [3] : 28 Posteriormente, Norman Myles Kroll , Lamb, James Bruce French y Victor Weisskopf confirmaron nuevamente este valor utilizando un enfoque en el que los infinitos cancelaban otros infinitos para dar como resultado cantidades finitas. Sin embargo, este método era torpe y poco confiable y no podía generalizarse a otros cálculos. [6]
El gran avance se produjo finalmente alrededor de 1950, cuando Julian Schwinger , Richard Feynman , Freeman Dyson y Shinichiro Tomonaga desarrollaron un método más robusto para eliminar los infinitos . La idea principal es reemplazar los valores calculados de masa y carga, por infinitos que puedan ser, por sus valores medidos finitos. Este procedimiento computacional sistemático se conoce como renormalización y se puede aplicar al orden arbitrario en la teoría de perturbaciones. [6] Como dijo Tomonaga en su discurso del Nobel:
Como las partes de la masa y la carga modificadas debidas a las reacciones de campo [se vuelven infinitas], es imposible calcularlas mediante la teoría. Sin embargo, la masa y la carga observadas en los experimentos no son la masa y la carga originales sino la masa y la carga modificadas por las reacciones de campo, y son finitas. Por otra parte, la masa y la carga que aparecen en la teoría son… los valores modificados por las reacciones de campo. Como esto es así, y en particular como la teoría es incapaz de calcular la masa y la carga modificadas, podemos adoptar el procedimiento de sustituirlas fenomenológicamente por valores experimentales... Este procedimiento se llama renormalización de la masa y la carga... Después de cálculos largos y laboriosos, menos hábiles que los de Schwinger, obtuvimos un resultado... que estaba de acuerdo con el de los estadounidenses. [9]
Aplicando el procedimiento de renormalización, se realizaron finalmente cálculos para explicar el momento magnético anómalo del electrón (la desviación del factor g del electrón respecto de 2) y la polarización del vacío . Estos resultados concordaron con las mediciones experimentales en un grado notable, marcando así el fin de una "guerra contra los infinitos". [6]
Al mismo tiempo, Feynman introdujo la formulación de la integral de trayectorias de la mecánica cuántica y los diagramas de Feynman . [8] : 2 Estos últimos se pueden utilizar para organizar visual e intuitivamente y ayudar a calcular los términos en la expansión perturbativa. Cada diagrama se puede interpretar como trayectorias de partículas en una interacción, con cada vértice y línea teniendo una expresión matemática correspondiente, y el producto de estas expresiones da la amplitud de dispersión de la interacción representada por el diagrama. [1] : 5
Fue con la invención del procedimiento de renormalización y los diagramas de Feynman que la QFT finalmente surgió como un marco teórico completo. [8] : 2
Dado el tremendo éxito de la QED, muchos teóricos creyeron, en los pocos años posteriores a 1949, que la QFT pronto podría proporcionar una comprensión de todos los fenómenos microscópicos, no solo las interacciones entre fotones, electrones y positrones. Contrariamente a este optimismo, la QFT entró en otro período de depresión que duró casi dos décadas. [3] : 30
El primer obstáculo fue la aplicabilidad limitada del procedimiento de renormalización. En los cálculos perturbativos en QED, todas las cantidades infinitas podrían eliminarse redefiniendo un número pequeño (finito) de cantidades físicas (a saber, la masa y la carga del electrón). Dyson demostró en 1949 que esto solo es posible para una pequeña clase de teorías llamadas "teorías renormalizables", de las cuales la QED es un ejemplo. Sin embargo, la mayoría de las teorías, incluida la teoría de Fermi de la interacción débil , son "no renormalizables". Cualquier cálculo perturbativo en estas teorías más allá del primer orden daría como resultado infinitos que no podrían eliminarse redefiniendo un número finito de cantidades físicas. [3] : 30
El segundo problema importante se originó a partir de la validez limitada del método del diagrama de Feynman, que se basa en una expansión de series en la teoría de perturbaciones. Para que las series converjan y los cálculos de orden bajo sean una buena aproximación, la constante de acoplamiento , en la que se expande la serie, debe ser un número suficientemente pequeño. La constante de acoplamiento en QED es la constante de estructura fina α ≈ 1/137 , que es lo suficientemente pequeña como para que solo los diagramas de Feynman más simples, de orden más bajo, deban considerarse en cálculos realistas. En contraste, la constante de acoplamiento en la interacción fuerte es aproximadamente del orden de uno, lo que hace que los diagramas de Feynman complicados, de orden superior, sean tan importantes como los simples. Por lo tanto, no había forma de derivar predicciones cuantitativas confiables para la interacción fuerte utilizando métodos de QFT perturbativos. [3] : 31
Ante estas dificultades, muchos teóricos comenzaron a alejarse de la teoría cuántica de campos. Algunos se centraron en los principios de simetría y las leyes de conservación , mientras que otros retomaron la antigua teoría de la matriz S de Wheeler y Heisenberg. La teoría cuántica de campos se utilizó heurísticamente como principio rector, pero no como base para los cálculos cuantitativos. [3] : 31
Schwinger, sin embargo, tomó un camino diferente. Durante más de una década, él y sus estudiantes habían sido casi los únicos exponentes de la teoría de campos, [10] : 454 pero en 1951 [11] [12] encontró una manera de evitar el problema de los infinitos con un nuevo método que utilizaba fuentes externas como corrientes acopladas a campos de calibración. [13] Motivado por los hallazgos anteriores, Schwinger siguió con este enfoque para generalizar "cuánticamente" el proceso clásico de acoplamiento de fuerzas externas a los parámetros del espacio de configuración conocidos como multiplicadores de Lagrange. Resumió su teoría de fuentes en 1966 [14] y luego amplió las aplicaciones de la teoría a la electrodinámica cuántica en su conjunto de tres volúmenes titulado: Partículas, fuentes y campos. [15] [16] [17] Los avances en la física de piones, en los que se aplicó con más éxito el nuevo punto de vista, lo convencieron de las grandes ventajas de la simplicidad matemática y la claridad conceptual que otorgaba su uso. [15]
En la teoría de las fuentes no hay divergencias ni renormalización. Puede considerarse como la herramienta de cálculo de la teoría de campos, pero es más general. [18] Utilizando la teoría de las fuentes, Schwinger pudo calcular el momento magnético anómalo del electrón, lo que había hecho en 1947, pero esta vez sin "observaciones que distraigan" sobre cantidades infinitas. [10] : 467
Schwinger también aplicó la teoría de las fuentes a su teoría de la gravedad QFT, y fue capaz de reproducir los cuatro resultados clásicos de Einstein: el desplazamiento al rojo gravitacional, la desviación y desaceleración de la luz por la gravedad, y la precesión del perihelio de Mercurio. [19] El descuido de la teoría de las fuentes por parte de la comunidad de físicos fue una gran decepción para Schwinger:
La falta de apreciación de estos hechos por parte de los demás fue deprimente, pero comprensible. -J. Schwinger [15]
Véase " El incidente de los zapatos " entre J. Schwinger y S. Weinberg . [10]
En 1954, Yang Chen-Ning y Robert Mills generalizaron la simetría local de la QED, lo que condujo a las teorías de calibre no abelianas (también conocidas como teorías de Yang-Mills), que se basan en grupos de simetría local más complicados . [20] : 5 En la QED, las partículas cargadas (eléctricamente) interactúan mediante el intercambio de fotones, mientras que en la teoría de calibre no abeliana, las partículas que llevan un nuevo tipo de " carga " interactúan mediante el intercambio de bosones de calibre sin masa . A diferencia de los fotones, estos bosones de calibre llevan carga. [3] : 32 [21]
En 1960, Sheldon Glashow desarrolló una teoría de calibración no abeliana que unificó las interacciones electromagnéticas y débiles. En 1964, Abdus Salam y John Clive Ward llegaron a la misma teoría por un camino diferente. Esta teoría, sin embargo, no era renormalizable. [22]
Peter Higgs , Robert Brout , François Englert , Gerald Guralnik , Carl Hagen y Tom Kibble propusieron en sus famosos artículos en Physical Review Letters que la simetría de calibración en las teorías de Yang-Mills podría romperse mediante un mecanismo llamado ruptura espontánea de simetría , a través del cual los bosones de calibración originalmente sin masa podrían adquirir masa. [20] : 5–6
Combinando la teoría anterior de Glashow, Salam y Ward con la idea de la ruptura espontánea de la simetría, Steven Weinberg escribió en 1967 una teoría que describe las interacciones electrodébiles entre todos los leptones y los efectos del bosón de Higgs . Su teoría fue al principio ignorada en su mayor parte, [22] [20] : 6 hasta que salió a la luz en 1971 con la prueba de Gerard 't Hooft de que las teorías de calibración no abelianas son renormalizables. La teoría electrodébil de Weinberg y Salam fue extendida de los leptones a los quarks en 1970 por Glashow, John Iliopoulos y Luciano Maiani , lo que marcó su finalización. [22]
Harald Fritzsch , Murray Gell-Mann y Heinrich Leutwyler descubrieron en 1971 que ciertos fenómenos que involucran la interacción fuerte también podrían explicarse mediante la teoría de calibre no abeliana. Nació la cromodinámica cuántica (QCD). En 1973, David Gross , Frank Wilczek y Hugh David Politzer demostraron que las teorías de calibre no abelianas son " asintóticamente libres ", lo que significa que bajo renormalización, la constante de acoplamiento de la interacción fuerte disminuye a medida que aumenta la energía de interacción. (Descubrimientos similares se habían hecho numerosas veces anteriormente, pero habían sido en gran medida ignorados). [20] : 11 Por lo tanto, al menos en interacciones de alta energía, la constante de acoplamiento en QCD se vuelve lo suficientemente pequeña como para justificar una expansión de serie perturbativa, lo que hace posibles las predicciones cuantitativas para la interacción fuerte. [3] : 32
Estos avances teóricos provocaron un renacimiento de la teoría cuántica de campos. La teoría completa, que incluye la teoría electrodébil y la cromodinámica, se conoce hoy como el Modelo Estándar de partículas elementales. [23] El Modelo Estándar describe con éxito todas las interacciones fundamentales excepto la gravedad , y sus muchas predicciones se han confirmado experimentalmente de manera notable en las décadas posteriores. [8] : 3 El bosón de Higgs , central para el mecanismo de ruptura espontánea de la simetría, fue finalmente detectado en 2012 en el CERN , lo que marcó la verificación completa de la existencia de todos los componentes del Modelo Estándar. [24]
En la década de 1970 se desarrollaron métodos no perturbativos en teorías de calibración no abelianas. El monopolo de 't Hooft-Polyakov fue descubierto teóricamente por 't Hooft y Alexander Polyakov , los tubos de flujo por Holger Bech Nielsen y Poul Olesen, y los instantones por Polyakov y coautores. Estos objetos son inaccesibles a través de la teoría de perturbaciones. [8] : 4
La supersimetría también apareció en el mismo período. La primera teoría cuántica de campos supersimétrica en cuatro dimensiones fue construida por Yuri Golfand y Evgeny Likhtman en 1970, pero sus resultados no lograron despertar un interés generalizado debido a la Cortina de Hierro . La supersimetría solo despegó en la comunidad teórica después del trabajo de Julius Wess y Bruno Zumino en 1973. [8] : 7
Entre las cuatro interacciones fundamentales, la gravedad sigue siendo la única que carece de una descripción coherente de la teoría cuántica de la gravedad. Varios intentos de elaborar una teoría de la gravedad cuántica condujeron al desarrollo de la teoría de cuerdas , [8] : 6 en sí misma un tipo de teoría cuántica de la gravedad bidimensional con simetría conforme . [25] Joël Scherk y John Schwarz propusieron por primera vez en 1974 que la teoría de cuerdas podría ser la teoría cuántica de la gravedad. [26]
Aunque la teoría cuántica de campos surgió del estudio de las interacciones entre partículas elementales, se ha aplicado con éxito a otros sistemas físicos, en particular a sistemas de muchos cuerpos en la física de la materia condensada .
Históricamente, el mecanismo de Higgs de ruptura espontánea de la simetría fue el resultado de la aplicación de la teoría de superconductores a partículas elementales por parte de Yoichiro Nambu , mientras que el concepto de renormalización surgió del estudio de las transiciones de fase de segundo orden en la materia. [27]
Poco después de la introducción de los fotones, Einstein realizó el procedimiento de cuantificación de las vibraciones en un cristal, lo que dio lugar a la primera cuasipartícula : los fonones . Lev Landau afirmó que las excitaciones de baja energía en muchos sistemas de materia condensada podían describirse en términos de interacciones entre un conjunto de cuasipartículas. El método del diagrama de Feynman de la QFT era naturalmente adecuado para el análisis de varios fenómenos en sistemas de materia condensada. [28]
La teoría de calibre se utiliza para describir la cuantificación del flujo magnético en superconductores, la resistividad en el efecto Hall cuántico , así como la relación entre frecuencia y voltaje en el efecto Josephson de CA. [28]
Para simplificar, en las siguientes secciones se utilizan unidades naturales , en las que la constante de Planck reducida ħ y la velocidad de la luz c se establecen en uno.
Un campo clásico es una función de coordenadas espaciales y temporales. [29] Algunos ejemplos son el campo gravitacional en la gravedad newtoniana g ( x , t ) y el campo eléctrico E ( x , t ) y el campo magnético B ( x , t ) en el electromagnetismo clásico . Un campo clásico puede considerarse como una cantidad numérica asignada a cada punto del espacio que cambia en el tiempo. Por lo tanto, tiene infinitos grados de libertad . [29] [30]
Muchos fenómenos que presentan propiedades mecánicas cuánticas no pueden explicarse únicamente mediante campos clásicos. Fenómenos como el efecto fotoeléctrico se explican mejor mediante partículas discretas ( fotones ), en lugar de un campo espacialmente continuo. El objetivo de la teoría cuántica de campos es describir diversos fenómenos mecánicos cuánticos utilizando un concepto modificado de campos.
La cuantificación canónica y las integrales de trayectoria son dos formulaciones comunes de QFT. [31] : 61 Para motivar los fundamentos de QFT, a continuación se presenta una descripción general de la teoría de campos clásica.
El campo clásico más simple es un campo escalar real : un número real en cada punto del espacio que cambia en el tiempo. Se denota como ϕ ( x , t ) , donde x es el vector de posición y t es el tiempo. Supongamos que el lagrangiano del campo, , es
donde es la densidad lagrangiana, es la derivada temporal del campo, ∇ es el operador de gradiente y m es un parámetro real (la "masa" del campo). Aplicando la ecuación de Euler-Lagrange al lagrangiano: [1] : 16
Obtenemos las ecuaciones de movimiento del campo, que describen la forma en que varía en el tiempo y el espacio:
Esto se conoce como la ecuación de Klein-Gordon . [1] : 17
La ecuación de Klein-Gordon es una ecuación de onda , por lo que sus soluciones se pueden expresar como una suma de modos normales (obtenidos mediante la transformada de Fourier ) de la siguiente manera:
donde a es un número complejo (normalizado por convención), * denota conjugación compleja y ω p es la frecuencia del modo normal:
De esta manera, cada modo normal correspondiente a un único p puede considerarse como un oscilador armónico clásico con frecuencia ω p . [1] : 21,26
El procedimiento de cuantificación del campo clásico anterior a un campo de operadores cuánticos es análogo a la promoción de un oscilador armónico clásico a un oscilador armónico cuántico .
El desplazamiento de un oscilador armónico clásico se describe mediante
donde a es un número complejo (normalizado por convención) y ω es la frecuencia del oscilador. Nótese que x es el desplazamiento de una partícula en movimiento armónico simple desde la posición de equilibrio, que no debe confundirse con la etiqueta espacial x de un campo cuántico.
Para un oscilador armónico cuántico, x ( t ) se promueve a un operador lineal :
Los números complejos a y a * se reemplazan por el operador de aniquilación y el operador de creación , respectivamente, donde † denota conjugación hermítica . La relación de conmutación entre los dos es
El hamiltoniano del oscilador armónico simple se puede escribir como
El estado de vacío , que es el estado de energía más bajo, se define por
y tiene energía Se puede comprobar fácilmente que lo que implica que aumenta la energía del oscilador armónico simple por . Por ejemplo, el estado es un estado propio de energía . Cualquier estado propio de energía de un solo oscilador armónico se puede obtener de aplicando sucesivamente el operador de creación : [1] : 20 y cualquier estado del sistema se puede expresar como una combinación lineal de los estados
Se puede aplicar un procedimiento similar al campo escalar real ϕ , promoviéndolo a un operador de campo cuántico , mientras que el operador de aniquilación , el operador de creación y la frecuencia angular son ahora para un p particular :
Sus relaciones de conmutación son: [1] : 21
donde δ es la función delta de Dirac . El estado de vacío se define por
Cualquier estado cuántico del campo se puede obtener aplicando sucesivamente operadores de creación (o mediante una combinación lineal de dichos estados), por ejemplo [1] : 22
Mientras que el espacio de estados de un único oscilador armónico cuántico contiene todos los estados de energía discretos de una partícula oscilante, el espacio de estados de un campo cuántico contiene los niveles de energía discretos de un número arbitrario de partículas. Este último espacio se conoce como espacio de Fock , que puede explicar el hecho de que los números de partículas no son fijos en los sistemas cuánticos relativistas. [32] El proceso de cuantificar un número arbitrario de partículas en lugar de una sola partícula a menudo también se denomina segunda cuantificación . [1] : 19
El procedimiento anterior es una aplicación directa de la mecánica cuántica no relativista y se puede utilizar para cuantificar campos escalares (complejos), campos de Dirac , [1] :52 campos vectoriales ( por ejemplo, el campo electromagnético) e incluso cuerdas . [33] Sin embargo, los operadores de creación y aniquilación solo están bien definidos en las teorías más simples que no contienen interacciones (la llamada teoría libre). En el caso del campo escalar real, la existencia de estos operadores fue una consecuencia de la descomposición de las soluciones de las ecuaciones clásicas de movimiento en una suma de modos normales. Para realizar cálculos en cualquier teoría de interacción realista, sería necesaria la teoría de perturbaciones .
El lagrangiano de cualquier campo cuántico de la naturaleza contendría términos de interacción además de los términos de la teoría libre. Por ejemplo, se podría introducir un término de interacción cuártico en el lagrangiano del campo escalar real: [1] : 77
donde μ es un índice de espacio-tiempo, , etc. La suma sobre el índice μ se ha omitido siguiendo la notación de Einstein . Si el parámetro λ es suficientemente pequeño, entonces la teoría interactuante descrita por el lagrangiano anterior puede considerarse como una pequeña perturbación de la teoría libre.
La formulación de la integral de trayectorias de la QFT se ocupa del cálculo directo de la amplitud de dispersión de un determinado proceso de interacción, en lugar de establecer operadores y espacios de estados. Para calcular la amplitud de probabilidad de que un sistema evolucione desde un estado inicial en el tiempo t = 0 hasta un estado final en t = T , el tiempo total T se divide en N pequeños intervalos. La amplitud total es el producto de la amplitud de evolución dentro de cada intervalo, integrada sobre todos los estados intermedios. Sea H el hamiltoniano ( es decir, el generador de la evolución temporal ), entonces [31] : 10
Tomando el límite N → ∞ , el producto de integrales anterior se convierte en la integral de trayectoria de Feynman: [1] : 282 [31] : 12
donde L es el lagrangiano que involucra ϕ y sus derivadas con respecto a las coordenadas espaciales y temporales, obtenido a partir del hamiltoniano H mediante la transformación de Legendre . Las condiciones inicial y final de la integral de trayectoria son respectivamente
En otras palabras, la amplitud total es la suma de la amplitud de cada camino posible entre los estados inicial y final, donde la amplitud de un camino está dada por el exponencial en el integrando.
En los cálculos, a menudo se encuentran expresiones como en la teoría libre o interactuante, respectivamente. Aquí, y son cuatro vectores de posición , es el operador de ordenación temporal que baraja sus operandos de modo que los componentes temporales y aumentan de derecha a izquierda, y es el estado fundamental (estado de vacío) de la teoría interactuante, diferente del estado fundamental libre . Esta expresión representa la amplitud de probabilidad para que el campo se propague de y a x , y tiene varios nombres, como el propagador de dos puntos, la función de correlación de dos puntos , la función de Green de dos puntos o la función de dos puntos para abreviar. [1] : 82
La función libre de dos puntos, también conocida como propagador de Feynman , se puede encontrar para el campo escalar real mediante cuantificación canónica o integrales de trayectoria como [1] : 31,288 [31] : 23
En una teoría de interacción, donde el lagrangiano o el hamiltoniano contienen términos que describen interacciones, la función de dos puntos es más difícil de definir. Sin embargo, a través de la formulación de cuantificación canónica y de la formulación de integral de trayectoria, es posible expresarla a través de una serie de perturbaciones infinitas de la función de dos puntos libre .
En la cuantificación canónica, la función de correlación de dos puntos se puede escribir como: [1] : 87
donde ε es un número infinitesimal y ϕ I es el operador de campo bajo la teoría libre. Aquí, la exponencial debe entenderse como su expansión en serie de potencias . Por ejemplo, en la teoría , el término interactuante del hamiltoniano es , [1] : 84 y la expansión del correlador de dos puntos en términos de se convierte en Esta expansión de perturbación expresa la función interactuante de dos puntos en términos de cantidades que se evalúan en la teoría libre .
En la formulación de la integral de trayectoria, la función de correlación de dos puntos se puede escribir [1] : 284
donde es la densidad lagrangiana. Como en el párrafo anterior, la exponencial se puede desarrollar como una serie en λ , reduciendo la función de dos puntos interactuantes a cantidades en la teoría libre.
El teorema de Wick reduce aún más cualquier función de correlación de n puntos en la teoría libre a una suma de productos de funciones de correlación de dos puntos. Por ejemplo,
Dado que las funciones de correlación interactuantes se pueden expresar en términos de funciones de correlación libres, solo es necesario evaluar estas últimas para calcular todas las cantidades físicas en la teoría de interacción (perturbativa). [1] : 90 Esto hace que el propagador de Feynman sea una de las cantidades más importantes en la teoría cuántica de campos.
Las funciones de correlación en la teoría de interacción se pueden escribir como una serie de perturbaciones. Cada término de la serie es un producto de los propagadores de Feynman en la teoría libre y se puede representar visualmente mediante un diagrama de Feynman . Por ejemplo, el término λ 1 en la función de correlación de dos puntos en la teoría ϕ 4 es
Después de aplicar el teorema de Wick, uno de los términos es
Este término puede obtenerse en cambio del diagrama de Feynman.
El diagrama consta de
Cada vértice corresponde a un único factor de campo en el punto correspondiente del espacio-tiempo, mientras que las aristas corresponden a los propagadores entre los puntos del espacio-tiempo. El término de la serie de perturbaciones correspondiente al diagrama se obtiene escribiendo la expresión que se desprende de las llamadas reglas de Feynman:
Con el factor de simetría , siguiendo estas reglas se obtiene exactamente la expresión anterior. Mediante la transformada de Fourier del propagador, las reglas de Feynman pueden reformularse desde el espacio de posición al espacio de momento. [1] : 91–94
Para calcular la función de correlación de n puntos de orden k , enumera todos los diagramas de Feynman válidos con n puntos externos y k o menos vértices y luego utiliza las reglas de Feynman para obtener la expresión para cada término. Para ser precisos,
es igual a la suma de (expresiones correspondientes a) todos los diagramas conectados con n puntos externos. (Los diagramas conectados son aquellos en los que cada vértice está conectado a un punto externo a través de líneas. Los componentes que están totalmente desconectados de las líneas externas a veces se denominan "burbujas de vacío"). En la teoría de interacción ϕ 4 discutida anteriormente, cada vértice debe tener cuatro patas. [1] : 98
En aplicaciones realistas, la amplitud de dispersión de una determinada interacción o la tasa de desintegración de una partícula se puede calcular a partir de la matriz S , que a su vez se puede encontrar utilizando el método del diagrama de Feynman. [1] : 102–115
Los diagramas de Feynman que carecen de "bucles" se denominan diagramas de nivel de árbol, que describen los procesos de interacción de orden más bajo; los que contienen n bucles se denominan diagramas de n -bucles, que describen contribuciones de orden superior, o correcciones radiativas, a la interacción. [31] : 44 Las líneas cuyos puntos finales son vértices pueden considerarse como la propagación de partículas virtuales . [1] : 31
Las reglas de Feynman se pueden utilizar para evaluar directamente los diagramas de nivel de árbol. Sin embargo, el cálculo ingenuo de diagramas de bucles como el que se muestra arriba dará como resultado integrales de momento divergentes, lo que parece implicar que casi todos los términos en la expansión perturbativa son infinitos. El procedimiento de renormalización es un proceso sistemático para eliminar dichos infinitos.
Los parámetros que aparecen en el lagrangiano, como la masa m y la constante de acoplamiento λ , no tienen significado físico — m , λ y la intensidad de campo ϕ no son cantidades medibles experimentalmente y se las denomina aquí masa desnuda, constante de acoplamiento desnuda y campo desnudo, respectivamente. La masa física y la constante de acoplamiento se miden en algún proceso de interacción y generalmente son diferentes de las cantidades desnudas. Al calcular cantidades físicas a partir de este proceso de interacción, se puede limitar el dominio de las integrales de momento divergente para que estén por debajo de algún corte de momento Λ , obtener expresiones para las cantidades físicas y luego tomar el límite Λ → ∞ . Este es un ejemplo de regularización , una clase de métodos para tratar divergencias en QFT, donde Λ es el regulador.
El enfoque ilustrado anteriormente se denomina teoría de perturbación simple, ya que los cálculos involucran solo las cantidades simples, como la masa y la constante de acoplamiento. Un enfoque diferente, llamado teoría de perturbación renormalizada, consiste en utilizar cantidades físicamente significativas desde el principio. En el caso de la teoría ϕ 4 , primero se redefine la intensidad del campo:
donde ϕ es el campo desnudo, ϕ r es el campo renormalizado y Z es una constante a determinar. La densidad lagrangiana se convierte en:
donde m r y λ r son las constantes de masa y acoplamiento renormalizadas y medibles experimentalmente, respectivamente, y
son constantes a determinar. Los primeros tres términos son la densidad lagrangiana ϕ 4 escrita en términos de las cantidades renormalizadas, mientras que los últimos tres términos se denominan "contratérminos". Como el lagrangiano ahora contiene más términos, los diagramas de Feynman deben incluir elementos adicionales, cada uno con sus propias reglas de Feynman. El procedimiento se describe a continuación. Primero, seleccione un esquema de regularización (como la regularización de corte introducida anteriormente o la regularización dimensional ); llame al regulador Λ . Calcule los diagramas de Feynman, en los que los términos divergentes dependerán de Λ . Luego, defina δ Z , δ m y δ λ de manera que los diagramas de Feynman para los contratérminos cancelen exactamente los términos divergentes en los diagramas de Feynman normales cuando se toma el límite Λ → ∞ . De esta manera, se obtienen cantidades finitas significativas. [1] : 323–326
Sólo es posible eliminar todos los infinitos para obtener un resultado finito en teorías renormalizables, mientras que en teorías no renormalizables los infinitos no pueden eliminarse mediante la redefinición de un pequeño número de parámetros. El modelo estándar de partículas elementales es una teoría cuántica de campos renormalizable, [1] : 719–727 mientras que la gravedad cuántica no es renormalizable. [1] : 798 [31] : 421
El grupo de renormalización , desarrollado por Kenneth Wilson , es un aparato matemático utilizado para estudiar los cambios en los parámetros físicos (coeficientes en el Lagrangiano) a medida que el sistema se ve en diferentes escalas. [1] : 393 La forma en que cada parámetro cambia con la escala se describe por su función β . [1] : 417 Las funciones de correlación, que sustentan las predicciones físicas cuantitativas, cambian con la escala de acuerdo con la ecuación de Callan-Symanzik . [1] : 410–411
A modo de ejemplo, la constante de acoplamiento en QED, es decir, la carga elemental e , tiene la siguiente función β :
donde Λ es la escala de energía en la que se realiza la medición de e . Esta ecuación diferencial implica que la carga elemental observada aumenta a medida que aumenta la escala. [34] La constante de acoplamiento renormalizada, que cambia con la escala de energía, también se denomina constante de acoplamiento móvil. [1] : 420
La constante de acoplamiento g en cromodinámica cuántica , una teoría de calibre no abeliana basada en el grupo de simetría SU(3) , tiene la siguiente función β :
donde N f es el número de sabores de quarks . En el caso en que N f ≤ 16 (el Modelo Estándar tiene N f = 6 ), la constante de acoplamiento g disminuye a medida que aumenta la escala de energía. Por lo tanto, mientras que la interacción fuerte es fuerte a bajas energías, se vuelve muy débil en interacciones de alta energía, un fenómeno conocido como libertad asintótica . [1] : 531
Las teorías de campos conformes (CFT) son QFT especiales que admiten simetría conforme . Son insensibles a los cambios en la escala, ya que todas sus constantes de acoplamiento tienen una función β que se desvanece . (Sin embargo, lo inverso no es cierto: la desaparición de todas las funciones β no implica simetría conforme de la teoría). [35] Algunos ejemplos incluyen la teoría de cuerdas [25] y la teoría supersimétrica de Yang-Mills N = 4. [36]
Según la imagen de Wilson, cada QFT está fundamentalmente acompañada por su corte de energía Λ , es decir , que la teoría ya no es válida a energías superiores a Λ , y todos los grados de libertad por encima de la escala Λ deben omitirse. Por ejemplo, el corte podría ser el inverso del espaciamiento atómico en un sistema de materia condensada, y en la física de partículas elementales podría estar asociado con la "granulosidad" fundamental del espacio-tiempo causada por fluctuaciones cuánticas en la gravedad. La escala de corte de las teorías de interacciones de partículas se encuentra mucho más allá de los experimentos actuales. Incluso si la teoría fuera muy complicada a esa escala, siempre que sus acoplamientos sean suficientemente débiles, debe describirse a bajas energías mediante una teoría de campo efectivo renormalizable . [1] : 402–403 La diferencia entre teorías renormalizables y no renormalizables es que las primeras son insensibles a los detalles a altas energías, mientras que las segundas dependen de ellos. [8] : 2 Según este punto de vista, las teorías no renormalizables deben considerarse teorías efectivas de baja energía de una teoría más fundamental. El hecho de no eliminar el límite Λ de los cálculos en una teoría de este tipo simplemente indica que aparecen nuevos fenómenos físicos en escalas superiores a Λ , donde es necesaria una nueva teoría. [31] : 156
Los procedimientos de cuantificación y renormalización descritos en las secciones anteriores se llevan a cabo para la teoría libre y la teoría ϕ 4 del campo escalar real. Se puede llevar a cabo un proceso similar para otros tipos de campos, incluidos el campo escalar complejo , el campo vectorial y el campo de Dirac , así como otros tipos de términos de interacción, incluidas la interacción electromagnética y la interacción de Yukawa .
Como ejemplo, la electrodinámica cuántica contiene un campo de Dirac ψ que representa el campo de electrones y un campo vectorial A μ que representa el campo electromagnético ( campo de fotones ). (A pesar de su nombre, el "campo" electromagnético cuántico en realidad corresponde al campo electromagnético clásico de cuatro potenciales , en lugar de los campos eléctricos y magnéticos clásicos). La densidad lagrangiana QED completa es:
donde γ μ son matrices de Dirac , , y es la intensidad del campo electromagnético . Los parámetros en esta teoría son la masa del electrón (desnudo) m y la carga elemental (desnuda) e . El primer y segundo término en la densidad de Lagrange corresponden al campo de Dirac libre y a los campos vectoriales libres, respectivamente. El último término describe la interacción entre los campos de electrones y fotones, que se trata como una perturbación de las teorías libres. [1] : 78
Arriba se muestra un ejemplo de un diagrama de Feynman de nivel de árbol en QED. Describe un electrón y un positrón aniquilándose, creando un fotón fuera de capa y luego desintegrándose en un nuevo par de electrón y positrón. El tiempo transcurre de izquierda a derecha. Las flechas que apuntan hacia adelante en el tiempo representan la propagación de electrones, mientras que las que apuntan hacia atrás en el tiempo representan la propagación de positrones. Una línea ondulada representa la propagación de un fotón. Cada vértice en los diagramas de Feynman de QED debe tener una rama de fermión entrante y otra saliente (positrón/electrón), así como una rama de fotón.
Si se realiza la siguiente transformación de los campos en cada punto del espacio-tiempo x (una transformación local), entonces el lagrangiano QED permanece sin cambios o invariante:
donde α ( x ) es cualquier función de las coordenadas del espacio-tiempo. Si el lagrangiano de una teoría (o más precisamente la acción ) es invariante bajo una cierta transformación local, entonces la transformación se conoce como una simetría de calibre de la teoría. [1] : 482–483 Las simetrías de calibre forman un grupo en cada punto del espacio-tiempo. En el caso de la QED, la aplicación sucesiva de dos transformaciones de simetría locales diferentes y es otra transformación de simetría más . Para cualquier α ( x ) , es un elemento del grupo U(1) , por lo tanto, se dice que la QED tiene simetría de calibre U(1) . [1] : 496 El campo de fotones A μ puede denominarse bosón de calibre U(1) .
U(1) es un grupo abeliano , lo que significa que el resultado es el mismo independientemente del orden en que se apliquen sus elementos. Las QFT también se pueden construir sobre grupos no abelianos , lo que da lugar a teorías de calibre no abelianas (también conocidas como teorías de Yang-Mills). [1] : 489 La cromodinámica cuántica , que describe la interacción fuerte, es una teoría de calibre no abeliana con una simetría de calibre SU(3) . Contiene tres campos de Dirac ψ i , i = 1,2,3 que representan campos de quarks , así como ocho campos vectoriales A a,μ , a = 1,...,8 que representan campos de gluones , que son los bosones de calibre SU(3) . [1] : 547 La densidad lagrangiana de QCD es: [1] : 490–491
donde D μ es la derivada covariante de calibre :
donde g es la constante de acoplamiento, t a son los ocho generadores de SU(3) en la representación fundamental ( matrices 3×3 ),
y f abc son las constantes de estructura de SU(3) . Los índices repetidos i , j , a se suman implícitamente sobre la siguiente notación de Einstein. Este lagrangiano es invariante bajo la transformación:
donde U ( x ) es un elemento de SU(3) en cada punto del espacio-tiempo x :
La discusión precedente sobre las simetrías se encuentra en el nivel del lagrangiano. En otras palabras, se trata de simetrías "clásicas". Después de la cuantificación, algunas teorías ya no exhibirán sus simetrías clásicas, un fenómeno llamado anomalía . Por ejemplo, en la formulación de la integral de trayectoria, a pesar de la invariancia de la densidad lagrangiana bajo una cierta transformación local de los campos, la medida de la integral de trayectoria puede cambiar. [31] : 243 Para que una teoría que describe la naturaleza sea consistente, no debe contener ninguna anomalía en su simetría de calibración. El modelo estándar de partículas elementales es una teoría de calibración basada en el grupo SU(3) × SU(2) × U(1) , en el que todas las anomalías se cancelan exactamente. [1] : 705–707
El fundamento teórico de la relatividad general , el principio de equivalencia , también puede entenderse como una forma de simetría de calibre, lo que convierte a la relatividad general en una teoría de calibre basada en el grupo de Lorentz . [37]
El teorema de Noether establece que toda simetría continua, es decir, cuando el parámetro en la transformación de simetría es continuo en lugar de discreto, conduce a una ley de conservación correspondiente . [1] : 17–18 [31] : 73 Por ejemplo, la simetría U(1) de QED implica conservación de carga . [38]
Las transformaciones de calibre no relacionan estados cuánticos distintos, sino que relacionan dos descripciones matemáticas equivalentes del mismo estado cuántico. Por ejemplo, el campo de fotones A μ , al ser un cuatrivector , tiene cuatro grados de libertad aparentes, pero el estado real de un fotón se describe mediante sus dos grados de libertad correspondientes a la polarización . Se dice que los dos grados de libertad restantes son "redundantes" —aparentemente, diferentes formas de escribir A μ pueden relacionarse entre sí mediante una transformación de calibre y, de hecho, describir el mismo estado del campo de fotones. En este sentido, la invariancia de calibre no es una simetría "real", sino un reflejo de la "redundancia" de la descripción matemática elegida. [31] : 168
Para tener en cuenta la redundancia de calibración en la formulación de la integral de trayectoria, se debe realizar el llamado procedimiento de fijación de calibración de Faddeev-Popov . En las teorías de calibración no abelianas, dicho procedimiento introduce nuevos campos llamados "fantasmas". Las partículas correspondientes a los campos fantasma se denominan partículas fantasma, que no se pueden detectar externamente. [1] : 512–515 Una generalización más rigurosa del procedimiento de Faddeev-Popov se da mediante la cuantificación BRST . [1] : 517
La ruptura espontánea de la simetría es un mecanismo por el cual la simetría del lagrangiano es violada por el sistema descrito por él. [1] : 347
Para ilustrar el mecanismo, considere un modelo sigma lineal que contiene N campos escalares reales, descritos por la densidad lagrangiana:
donde μ y λ son parámetros reales. La teoría admite una simetría global O( N ) :
El estado de energía más bajo (estado fundamental o estado de vacío) de la teoría clásica es cualquier campo uniforme ϕ 0 que satisfaga
Sin pérdida de generalidad, sea el estado fundamental en la dirección N :
Los N campos originales se pueden reescribir como:
y la densidad lagrangiana original como:
donde k = 1, ..., N − 1 . La simetría global original O( N ) ya no es manifiesta, quedando solo el subgrupo O( N − 1) . Se dice que la simetría más grande antes de la ruptura espontánea de la simetría está "oculta" o rota espontáneamente. [1] : 349–350
El teorema de Goldstone establece que, en caso de ruptura espontánea de la simetría, toda ruptura de la simetría global continua conduce a un campo sin masa llamado bosón de Goldstone. En el ejemplo anterior, O( N ) tiene N ( N − 1)/2 simetrías continuas (la dimensión de su álgebra de Lie ), mientras que O( N − 1) tiene ( N − 1)( N − 2)/2 . El número de simetrías rotas es su diferencia, N − 1 , que corresponde a los N − 1 campos sin masa π k . [1] : 351
Por otra parte, cuando una simetría de calibración (en contraposición a una simetría global) se rompe espontáneamente, el bosón de Goldstone resultante es "devorado" por el bosón de calibración correspondiente al convertirse en un grado adicional de libertad para el bosón de calibración. El teorema de equivalencia del bosón de Goldstone establece que, a alta energía, la amplitud de emisión o absorción de un bosón de calibración masivo polarizado longitudinalmente se vuelve igual a la amplitud de emisión o absorción del bosón de Goldstone que fue devorado por el bosón de calibración. [1] : 743–744
En la teoría cuántica de campos del ferromagnetismo , la ruptura espontánea de la simetría puede explicar la alineación de los dipolos magnéticos a bajas temperaturas. [31] : 199 En el modelo estándar de partículas elementales, los bosones W y Z , que de otro modo no tendrían masa como resultado de la simetría de calibre, adquieren masa a través de la ruptura espontánea de la simetría del bosón de Higgs , un proceso llamado mecanismo de Higgs . [1] : 690
Todas las simetrías conocidas experimentalmente en la naturaleza relacionan bosones con bosones y fermiones con fermiones. Los teóricos han planteado la hipótesis de la existencia de un tipo de simetría, llamada supersimetría , que relaciona bosones y fermiones. [1] : 795 [31] : 443
El Modelo Estándar obedece a la simetría de Poincaré , cuyos generadores son las traslaciones espaciotemporales P μ y las transformaciones de Lorentz J μν . [39] : 58–60 Además de estos generadores, la supersimetría en (3+1)-dimensiones incluye generadores adicionales Q α , llamados supercargas , que se transforman a su vez como fermiones de Weyl . [1] : 795 [31] : 444 El grupo de simetría generado por todos estos generadores se conoce como grupo super-Poincaré . En general, puede haber más de un conjunto de generadores de supersimetría, Q α I , I = 1, ..., N , que generan la supersimetría N = 1 correspondiente , la supersimetría N = 2 , etcétera. [1] : 795 [31] : 450 La supersimetría también se puede construir en otras dimensiones, [40] más notablemente en (1+1) dimensiones para su aplicación en la teoría de supercuerdas . [41]
El lagrangiano de una teoría supersimétrica debe ser invariante bajo la acción del grupo super-Poincaré. [31] : 448 Ejemplos de tales teorías incluyen: Modelo Estándar Supersimétrico Mínimo (MSSM), teoría supersimétrica de Yang-Mills N = 4 , [31] : 450 y teoría de supercuerdas. En una teoría supersimétrica, cada fermión tiene un supercompañero bosónico y viceversa. [31] : 444
Si la supersimetría se promueve a una simetría local, entonces la teoría de calibre resultante es una extensión de la relatividad general llamada supergravedad . [42]
La supersimetría es una posible solución a muchos problemas actuales de la física. Por ejemplo, el problema de la jerarquía del Modelo Estándar (por qué la masa del bosón de Higgs no se corrige radiativamente (bajo renormalización) a una escala muy alta como la escala unificada o la escala de Planck ) se puede resolver relacionando el campo de Higgs y su supercompañero, el Higgsino . Las correcciones radiativas debidas a los bucles del bosón de Higgs en los diagramas de Feynman se cancelan mediante los bucles correspondientes del Higgsino. La supersimetría también ofrece respuestas a la gran unificación de todas las constantes de acoplamiento de calibre en el Modelo Estándar, así como a la naturaleza de la materia oscura . [1] : 796–797 [43]
Sin embargo, los experimentos aún no han aportado pruebas de la existencia de partículas supersimétricas. Si la supersimetría fuera una verdadera simetría de la naturaleza, entonces debería ser una simetría rota, y la energía de ruptura de la simetría debería ser mayor que la que se puede alcanzar con los experimentos actuales. [1] : 797 [31] : 443
La teoría ϕ 4 , la QED, la QCD, así como el Modelo Estándar en su conjunto, suponen un espacio de Minkowski (3+1)-dimensional (3 dimensiones espaciales y 1 temporal) como fondo sobre el que se definen los campos cuánticos. Sin embargo, la QFT a priori no impone ninguna restricción en cuanto al número de dimensiones ni a la geometría del espacio-tiempo.
En física de la materia condensada , la QFT se utiliza para describir gases de electrones de (2+1) dimensiones . [44] En física de alta energía , la teoría de cuerdas es un tipo de QFT de (1+1) dimensiones, [31] : 452 [25] mientras que la teoría de Kaluza-Klein utiliza la gravedad en dimensiones adicionales para producir teorías de calibre en dimensiones inferiores. [31] : 428–429
En el espacio de Minkowski, la métrica plana η μν se utiliza para aumentar y disminuir los índices del espacio-tiempo en el Lagrangiano, por ejemplo
donde η μν es la inversa de η μν que satisface η μρ η ρν = δ μ ν . Por otro lado, para QFT en espacio-tiempo curvo , se utiliza una métrica general (como la métrica de Schwarzschild que describe un agujero negro ):
donde g μν es la inversa de g μν . Para un campo escalar real, la densidad lagrangiana en un fondo espaciotemporal general es
donde g = det( g μν ) , y ∇ μ denota la derivada covariante . [45] El lagrangiano de una QFT, y por lo tanto sus resultados de cálculo y predicciones físicas, depende de la geometría del fondo del espacio-tiempo.
Las funciones de correlación y las predicciones físicas de una QFT dependen de la métrica del espacio-tiempo g μν . Para una clase especial de QFT llamadas teorías cuánticas de campos topológicos (TQFT), todas las funciones de correlación son independientes de los cambios continuos en la métrica del espacio-tiempo. [46] : 36 Las QFT en el espacio-tiempo curvo generalmente cambian de acuerdo con la geometría (estructura local) del fondo del espacio-tiempo, mientras que las TQFT son invariantes bajo difeomorfismos del espacio-tiempo pero son sensibles a la topología (estructura global) del espacio-tiempo. Esto significa que todos los resultados de cálculo de las TQFT son invariantes topológicos del espacio-tiempo subyacente. La teoría de Chern-Simons es un ejemplo de TQFT y se ha utilizado para construir modelos de gravedad cuántica. [47] Las aplicaciones de la TQFT incluyen el efecto Hall cuántico fraccional y las computadoras cuánticas topológicas . [48] : 1–5 La trayectoria de la línea del mundo de partículas fraccionadas (conocidas como anyones ) puede formar una configuración de enlace en el espacio-tiempo, [49] que relaciona las estadísticas de trenzado de anyones en física con los invariantes de enlace en matemáticas. Las teorías cuánticas de campos topológicos (TQFT) aplicables a la investigación de frontera de asuntos cuánticos topológicos incluyen las teorías de calibre de Chern-Simons-Witten en dimensiones espacio-temporales 2+1, otras nuevas TQFT exóticas en dimensiones espacio-temporales 3+1 y más allá. [50]
Utilizando la teoría de perturbaciones , el efecto total de un término de interacción pequeño puede ser aproximado orden por orden mediante una expansión en serie en el número de partículas virtuales que participan en la interacción. Cada término en la expansión puede ser entendido como una forma posible para que las partículas (físicas) interactúen entre sí a través de partículas virtuales, expresadas visualmente usando un diagrama de Feynman . La fuerza electromagnética entre dos electrones en QED está representada (hasta el primer orden en la teoría de perturbaciones) por la propagación de un fotón virtual. De manera similar, los bosones W y Z llevan la interacción débil, mientras que los gluones llevan la interacción fuerte. La interpretación de una interacción como una suma de estados intermedios que involucran el intercambio de varias partículas virtuales solo tiene sentido en el marco de la teoría de perturbaciones. En contraste, los métodos no perturbativos en QFT tratan al lagrangiano interactuante como un todo sin ninguna expansión en serie. En lugar de partículas que llevan interacciones, estos métodos han generado conceptos como el monopolo de 't Hooft-Polyakov , la pared de dominio , el tubo de flujo y el instantón . [8] Algunos ejemplos de QFT que son completamente solucionables de forma no perturbativa incluyen los modelos mínimos de la teoría de campos conforme [51] y el modelo Thirring . [52]
A pesar de su éxito abrumador en física de partículas y física de la materia condensada, la QFT en sí misma carece de una base matemática formal. Por ejemplo, según el teorema de Haag , no existe una imagen de interacción bien definida para la QFT, lo que implica que la teoría de perturbaciones de la QFT, que subyace a todo el método del diagrama de Feynman , está fundamentalmente mal definida. [53]
Sin embargo, la teoría cuántica de campos perturbativa , que solo requiere que las cantidades sean computables como una serie de potencias formales sin ningún requisito de convergencia, puede recibir un tratamiento matemático riguroso. En particular, la monografía Renormalization and Effective Field Theory [54] de Kevin Costello proporciona una formulación rigurosa de la renormalización perturbativa que combina los enfoques de la teoría de campos efectivos de Kadanoff , Wilson y Polchinski , junto con el enfoque de Batalin-Vilkovisky para cuantificar las teorías de calibración. Además, los métodos de integral de trayectoria perturbativa, generalmente entendidos como métodos computacionales formales inspirados en la teoría de integración de dimensión finita, [55] pueden recibir una interpretación matemática sólida a partir de sus análogos de dimensión finita. [56]
Desde la década de 1950, [57] los físicos teóricos y matemáticos han intentado organizar todas las QFT en un conjunto de axiomas , con el fin de establecer la existencia de modelos concretos de QFT relativista de una manera matemáticamente rigurosa y estudiar sus propiedades. Esta línea de estudio se llama teoría cuántica de campos constructiva , un subcampo de la física matemática , [58] : 2 que ha llevado a resultados como el teorema CPT , el teorema de espín-estadística y el teorema de Goldstone , [57] y también a construcciones matemáticamente rigurosas de muchas QFT interactuantes en dos y tres dimensiones espacio-temporales, por ejemplo, teorías de campos escalares bidimensionales con interacciones polinómicas arbitrarias, [59] las teorías de campos escalares tridimensionales con una interacción cuártica, etc. [60]
En comparación con la QFT ordinaria, la teoría cuántica de campos topológica y la teoría conforme de campos están mejor respaldadas matemáticamente: ambas pueden clasificarse en el marco de las representaciones de cobordismos . [61]
La teoría cuántica de campos algebraica es otro enfoque para la axiomatización de la QFT, en la que los objetos fundamentales son los operadores locales y las relaciones algebraicas entre ellos. Los sistemas axiomáticos que siguen este enfoque incluyen los axiomas de Wightman y los axiomas de Haag-Kastler . [58] : 2–3 Una forma de construir teorías que satisfagan los axiomas de Wightman es utilizar los axiomas de Osterwalder-Schrader , que dan las condiciones necesarias y suficientes para que se obtenga una teoría de tiempo real a partir de una teoría de tiempo imaginario por continuación analítica ( rotación de Wick ). [58] : 10
La existencia y la brecha de masa de Yang-Mills , uno de los problemas del Premio del Milenio , se ocupa de la existencia bien definida de las teorías de Yang-Mills, tal como se establece en los axiomas anteriores. El enunciado completo del problema es el siguiente. [62]
Demuestre que para cualquier grupo de calibración simple y compacto G , existe una teoría de Yang-Mills cuántica no trivial y tiene una brecha de masa Δ > 0 . La existencia incluye el establecimiento de propiedades axiomáticas al menos tan fuertes como las citadas en Streater y Wightman (1964), Osterwalder y Schrader (1973) y Osterwalder y Schrader (1975).