La historia de la teoría de cuerdas abarca varias décadas de intensa investigación, incluidas dos revoluciones de supercuerdas. Gracias a los esfuerzos combinados de muchos investigadores, la teoría de cuerdas se ha convertido en un tema amplio y variado con conexiones con la gravedad cuántica , la física de partículas y materia condensada , la cosmología y las matemáticas puras .
La teoría de cuerdas representa una consecuencia de la teoría de la matriz S , [1] un programa de investigación iniciado por Werner Heisenberg en 1943 [2] tras la introducción de la matriz S por parte de John Archibald Wheeler en 1937. [3] Muchos teóricos destacados retomaron y defendieron la teoría de la matriz S, a partir de finales de los años 1950 y durante los años 1960. El campo quedó marginado y descartado a mediados de los años 1970 [4] y desapareció en los años 1980. Los físicos lo descuidaron porque algunos de sus métodos matemáticos eran ajenos y porque la cromodinámica cuántica lo suplantó como un enfoque experimentalmente mejor calificado para las interacciones fuertes . [5]
La teoría supuso un replanteamiento radical de los fundamentos de las leyes físicas. En la década de 1940 había quedado claro que el protón y el neutrón no eran partículas puntuales como el electrón. Su momento magnético difería mucho del de una partícula puntual con carga de espín ½ , demasiado para atribuir la diferencia a una pequeña perturbación . Sus interacciones eran tan fuertes que se dispersaban como una pequeña esfera, no como un punto. Heisenberg propuso que las partículas que interactuaban fuertemente eran, de hecho, objetos extendidos y, como existen dificultades de principio con las partículas relativistas extendidas, propuso que la noción de un punto del espacio-tiempo se desmoronaba a escalas nucleares.
Sin espacio ni tiempo resulta difícil formular una teoría física. Heisenberg propuso una solución a este problema: centrarse en las cantidades observables, es decir, aquellas cosas que se pueden medir mediante experimentos. Un experimento solo ve una cantidad microscópica si puede ser transferida mediante una serie de eventos a los dispositivos clásicos que rodean la cámara experimental. Los objetos que vuelan al infinito son partículas estables, en superposiciones cuánticas de diferentes estados de momento.
Heisenberg propuso que incluso cuando el espacio y el tiempo no son fiables, la noción de estado de momento, que se define lejos de la cámara experimental, sigue siendo válida. La cantidad física que propuso como fundamental es la amplitud mecánica cuántica necesaria para que un grupo de partículas entrantes se convierta en un grupo de partículas salientes, y no admitió que hubiera pasos intermedios.
La matriz S es la cantidad que describe cómo una colección de partículas entrantes se convierte en partículas salientes. Heisenberg propuso estudiar la matriz S directamente, sin ninguna suposición sobre la estructura del espacio-tiempo. Pero cuando las transiciones del pasado lejano al futuro lejano ocurren en un solo paso sin pasos intermedios, se vuelve difícil calcular nada. En la teoría cuántica de campos , los pasos intermedios son las fluctuaciones de los campos o, equivalentemente, las fluctuaciones de las partículas virtuales. En esta teoría de la matriz S propuesta, no hay cantidades locales en absoluto.
Heisenberg propuso utilizar la unitaridad para determinar la matriz S. En todas las situaciones concebibles, la suma de los cuadrados de las amplitudes debe ser igual a 1. Esta propiedad puede determinar la amplitud en una teoría cuántica de campos orden por orden en una serie de perturbaciones una vez que se dan las interacciones básicas, y en muchas teorías cuánticas de campos las amplitudes crecen demasiado rápido a altas energías para formar una matriz S unitaria. Pero sin suposiciones adicionales sobre el comportamiento a alta energía, la unitaridad no es suficiente para determinar la dispersión, y la propuesta fue ignorada durante muchos años.
La propuesta de Heisenberg fue revivida en 1956 cuando Murray Gell-Mann reconoció que las relaciones de dispersión —como las descubiertas por Hendrik Kramers y Ralph Kronig en la década de 1920 (ver relaciones de Kramers–Kronig )— permiten la formulación de una noción de causalidad, una noción de que los eventos en el futuro no influirían en los eventos en el pasado, incluso cuando la noción microscópica de pasado y futuro no esté claramente definida. También reconoció que estas relaciones podrían ser útiles para calcular observables para el caso de la física de interacción fuerte. [6] Las relaciones de dispersión eran propiedades analíticas de la matriz S, [7] e imponían condiciones más estrictas que las que se derivan de la unitaridad sola. Este desarrollo en la teoría de la matriz S surgió del descubrimiento de Murray Gell-Mann y Marvin Leonard Goldberger (1954) de la simetría cruzada , otra condición que la matriz S tenía que cumplir. [8] [7]
Entre los defensores destacados del nuevo enfoque de las "relaciones de dispersión" se encuentran Stanley Mandelstam [9] y Geoffrey Chew [10] , ambos en la Universidad de California en Berkeley en ese momento. Mandelstam descubrió las relaciones de doble dispersión, una nueva y poderosa forma analítica, en 1958 [9] y creía que proporcionarían la clave para el progreso en las intratables interacciones fuertes.
A finales de los años 1950, se habían descubierto muchas partículas fuertemente interactuantes de espines cada vez más altos, y se hizo evidente que no todas eran fundamentales. Mientras que el físico japonés Shoichi Sakata propuso que las partículas podían entenderse como estados ligados de sólo tres de ellas (el protón, el neutrón y la lambda ; véase el modelo de Sakata ), [11] Geoffrey Chew creía que ninguna de estas partículas es fundamental [12] [13] (para más detalles, véase el modelo Bootstrap ). El enfoque de Sakata fue reelaborado en los años 1960 en el modelo de quarks por Murray Gell-Mann y George Zweig al hacer que las cargas de los constituyentes hipotéticos fueran fraccionarias y rechazar la idea de que fueran partículas observadas. En ese momento, el enfoque de Chew se consideró más convencional porque no introdujo valores de carga fraccionaria y porque se centró en elementos de la matriz S medibles experimentalmente, no en constituyentes puntuales hipotéticos.
En 1959, Tullio Regge , un joven teórico en Italia, descubrió que los estados ligados en la mecánica cuántica se pueden organizar en familias conocidas como trayectorias de Regge , cada familia con momentos angulares distintivos . [14] Esta idea fue generalizada a la mecánica cuántica relativista por Stanley Mandelstam , Vladimir Gribov y Marcel Froissart , utilizando un método matemático (la representación de Sommerfeld-Watson) descubierto décadas antes por Arnold Sommerfeld y Kenneth M. Watson : el resultado fue denominado fórmula de Froissart-Gribov. [15]
En 1961, Geoffrey Chew y Steven Frautschi reconocieron que los mesones tenían trayectorias de Regge en línea recta [16] (en su esquema, el espín se representa gráficamente en función de la masa al cuadrado en un denominado diagrama de Chew-Frautschi), lo que implicaba que la dispersión de estas partículas tendría un comportamiento muy extraño: debería disminuir exponencialmente rápido en ángulos grandes. Con esta constatación, los teóricos esperaban construir una teoría de partículas compuestas sobre trayectorias de Regge, cuyas amplitudes de dispersión tenían la forma asintótica exigida por la teoría de Regge.
En 1967, un avance notable en el enfoque bootstrap fue el principio de dualidad DHS introducido por Richard Dolen, David Horn y Christoph Schmid en 1967, [17] en Caltech (el término original para ello era "dualidad promedio" o "dualidad de regla de suma de energía finita (FESR)"). Los tres investigadores notaron que las descripciones de intercambio de polos de Regge (a alta energía) y resonancia (a baja energía) ofrecen múltiples representaciones/aproximaciones de un mismo proceso físicamente observable. [18]
El primer modelo en el que las partículas hadrónicas siguen esencialmente las trayectorias de Regge fue el modelo de resonancia dual construido por Gabriele Veneziano en 1968 [19] , quien observó que la función beta de Euler podía utilizarse para describir datos de amplitud de dispersión de 4 partículas para dichas partículas. La amplitud de dispersión de Veneziano (o modelo de Veneziano) fue rápidamente generalizada a una amplitud de N partículas por Ziro Koba y Holger Bech Nielsen [20] (su enfoque se denominó formalismo Koba-Nielsen), y a lo que ahora se reconoce como cuerdas cerradas por Miguel Virasoro [21] y Joel A. Shapiro [22] (su enfoque se denominó modelo Shapiro-Virasoro).
En 1969, las reglas de Chan-Paton (propuestas por Jack E. Paton y Hong-Mo Chan) [23] permitieron agregar factores de isospín al modelo de Veneziano. [24]
En 1969-70, Yoichiro Nambu , [25] Holger Bech Nielsen , [26] y Leonard Susskind [27] [28] presentaron una interpretación física de la amplitud de Veneziano al representar las fuerzas nucleares como cuerdas vibrantes unidimensionales. Sin embargo, esta descripción basada en cuerdas de la fuerza fuerte hizo muchas predicciones que contradecían directamente los hallazgos experimentales.
En 1971, Pierre Ramond [29] y, de forma independiente, John H. Schwarz y André Neveu [30] intentaron implementar fermiones en el modelo dual. Esto condujo al concepto de "cuerdas giratorias" y señaló el camino hacia un método para eliminar el problemático taquión (véase el formalismo RNS ). [31]
Los modelos de resonancia dual para interacciones fuertes fueron un tema de estudio relativamente popular entre 1968 y 1973. [32] La comunidad científica perdió interés en la teoría de cuerdas como teoría de interacciones fuertes en 1973 cuando la cromodinámica cuántica se convirtió en el foco principal de la investigación teórica [33] (principalmente debido al atractivo teórico de su libertad asintótica ). [34]
En 1974, John H. Schwarz y Joël Scherk [35] e independientemente Tamiaki Yoneya [36] estudiaron los patrones de vibración de cuerdas similares a los bosones y descubrieron que sus propiedades coincidían exactamente con las del gravitón , la partícula mensajera hipotética de la fuerza gravitacional . Schwarz y Scherk argumentaron que la teoría de cuerdas no había logrado imponerse porque los físicos habían subestimado su alcance. Esto condujo al desarrollo de la teoría de cuerdas bosónica .
La teoría de cuerdas se formula en términos de la acción de Polyakov [37] , que describe cómo se mueven las cuerdas a través del espacio y el tiempo. Como los resortes, las cuerdas tienden a contraerse para minimizar su energía potencial, pero la conservación de la energía evita que desaparezcan, y en su lugar oscilan. Al aplicar las ideas de la mecánica cuántica a las cuerdas es posible deducir los diferentes modos de vibración de las cuerdas, y que cada estado de vibración parece ser una partícula diferente. La masa de cada partícula, y la forma en que puede interactuar, están determinadas por la forma en que vibra la cuerda, en esencia, por la " nota " que "suena" la cuerda. La escala de notas, cada una correspondiente a un tipo diferente de partícula, se denomina " espectro " de la teoría.
Los primeros modelos incluían cuerdas abiertas , que tienen dos extremos distintos, y cuerdas cerradas , en las que los extremos se unen para formar un bucle completo. Los dos tipos de cuerdas se comportan de maneras ligeramente diferentes, lo que produce dos espectros. No todas las teorías de cuerdas modernas utilizan ambos tipos; algunas incorporan solo la variedad cerrada.
El modelo de cuerdas más antiguo tiene varios problemas: tiene una dimensión crítica D = 26, una característica que fue descubierta originalmente por Claud Lovelace en 1971; [38] la teoría tiene una inestabilidad fundamental, la presencia de taquiones [39] (ver condensación de taquiones ); además, el espectro de partículas contiene solo bosones , partículas como el fotón que obedecen reglas particulares de comportamiento. Si bien los bosones son un ingrediente crítico del Universo, no son sus únicos constituyentes. La investigación de cómo una teoría de cuerdas puede incluir fermiones en su espectro condujo a la invención de la supersimetría (en Occidente ) [40] en 1971, [41] una transformación matemática entre bosones y fermiones. Las teorías de cuerdas que incluyen vibraciones fermiónicas ahora se conocen como teorías de supercuerdas .
En 1977, la proyección GSO (llamada así en honor a Ferdinando Gliozzi , Joël Scherk y David I. Olive ) condujo a una familia de teorías de cuerdas libres unitarias sin taquiones, [42] las primeras teorías de supercuerdas consistentes (ver más abajo).
La primera revolución de las supercuerdas es un período de importantes descubrimientos que comenzó en 1984. [43] Se comprendió que la teoría de cuerdas era capaz de describir todas las partículas elementales , así como las interacciones entre ellas. Cientos de físicos comenzaron a trabajar en la teoría de cuerdas como la idea más prometedora para unificar las teorías físicas. [44] La revolución se inició con el descubrimiento de la cancelación de anomalías en la teoría de cuerdas de tipo I a través del mecanismo de Green-Schwarz (nombrado en honor a Michael Green y John H. Schwarz) en 1984. [45] [46] El descubrimiento innovador de la cuerda heterótica fue realizado por David Gross , Jeffrey Harvey , Emil Martinec y Ryan Rohm en 1985. [47] Philip Candelas , Gary Horowitz , Andrew Strominger y Edward Witten también se dieron cuenta en 1985 de que para obtener la supersimetría , las seis pequeñas dimensiones adicionales (la dimensión crítica D = 10 de la teoría de supercuerdas había sido descubierta originalmente por John H. Schwarz en 1972) [48] necesitan ser compactificadas en una variedad de Calabi-Yau . [49] (En la teoría de cuerdas, la compactificación es una generalización de la teoría de Kaluza-Klein , que se propuso por primera vez en la década de 1920). [50]
En 1985, se habían descrito cinco teorías de supercuerdas independientes: tipo I, [51] tipo II (IIA y IIB) , [51] y heterótica (SO(32) y E 8 × E 8 ) . [47]
La revista Discover en el número de noviembre de 1986 (vol. 7, #11) presentó un artículo de portada escrito por Gary Taubes , "Todo está ahora atado a cuerdas", que explicaba la teoría de cuerdas para un público popular.
En 1987, Eric Bergshoeff Paul Townsend demostraron que no existen supercuerdas en once dimensiones (el mayor número de dimensiones consistente con un solo gravitón en las teorías de supergravedad ), [52] sino supermembranas . [53]
, Ergin Sezgin yA principios de los años 1990, Edward Witten y otros encontraron pruebas sólidas de que las diferentes teorías de supercuerdas eran límites diferentes de una teoría de 11 dimensiones [54] [55] que se conoció como teoría M (para más detalles, véase Introducción a la teoría M ). [56] Estos descubrimientos desencadenaron la segunda revolución de las supercuerdas que tuvo lugar aproximadamente entre 1994 y 1995. [57]
Las diferentes versiones de la teoría de supercuerdas se unificaron, como se esperaba desde hacía tiempo, mediante nuevas equivalencias, conocidas como dualidad S , dualidad T , dualidad U , simetría especular y transiciones de conifold . Las diferentes teorías de cuerdas también se relacionaron con la teoría M.
En 1995, Joseph Polchinski descubrió que la teoría requiere la inclusión de objetos de dimensiones superiores, llamados D-branas : [58] estas son las fuentes de los campos eléctricos y magnéticos de Ramond-Ramond que requiere la dualidad de cuerdas . [59] Las D-branas agregaron una estructura matemática rica adicional a la teoría y abrieron posibilidades para construir modelos cosmológicos realistas en la teoría (para más detalles, consulte Cosmología de branas ).
En 1997-98, Juan Maldacena conjeturó una relación entre la teoría de cuerdas de tipo IIB y la teoría supersimétrica de Yang-Mills N = 4 , una teoría de calibre . [60] Esta conjetura, llamada correspondencia AdS/CFT , ha generado un gran interés en la física de alta energía . [61] Es una realización del principio holográfico , que tiene implicaciones de largo alcance: la correspondencia AdS/CFT ha ayudado a dilucidar los misterios de los agujeros negros sugeridos por el trabajo de Stephen Hawking [62] y se cree que proporciona una resolución de la paradoja de la información de los agujeros negros . [63]
En 2003, el descubrimiento de Michael R. Douglas del panorama de la teoría de cuerdas , [64] que sugiere que la teoría de cuerdas tiene una gran cantidad de vacíos falsos no equivalentes , [65] condujo a mucha discusión sobre lo que se podría esperar que la teoría de cuerdas eventualmente prediga, y cómo la cosmología puede incorporarse a la teoría. [66]
Un posible mecanismo de estabilización del vacío de la teoría de cuerdas (el mecanismo KKLT ) fue propuesto en 2003 por Shamit Kachru , Renata Kallosh , Andrei Linde y Sandip Trivedi . [67] Gran parte de la investigación actual se centra en caracterizar el " pantano " de teorías incompatibles con la gravedad cuántica .