La historia de la teoría de cuerdas abarca varias décadas de intensa investigación, incluidas dos revoluciones de supercuerdas. Gracias a los esfuerzos combinados de muchos investigadores, la teoría de cuerdas se ha convertido en un tema amplio y variado con conexiones con la gravedad cuántica , la física de partículas y materia condensada , la cosmología y las matemáticas puras .
La teoría de cuerdas representa una consecuencia de la teoría de la matriz S , [1] un programa de investigación iniciado por Werner Heisenberg en 1943 [2] después de la introducción de la matriz S por parte de John Archibald Wheeler en 1937. [3] Muchos teóricos prominentes retomaron y defendieron la teoría de la matriz S, desde finales de los años cincuenta y durante toda la década de 1960. El campo quedó marginado y descartado a mediados de los años 1970 [4] y desapareció en los años 1980. Los físicos lo descuidaron porque algunos de sus métodos matemáticos eran extraños y porque la cromodinámica cuántica lo suplantó como un enfoque experimental mejor calificado para las interacciones fuertes . [5]
La teoría presentó un replanteamiento radical de los fundamentos de las leyes físicas. En la década de 1940 quedó claro que el protón y el neutrón no eran partículas puntuales como el electrón. Su momento magnético difería mucho del de una partícula puntual con carga de espín y ½ , demasiado para atribuir la diferencia a una pequeña perturbación . Sus interacciones fueron tan fuertes que se dispersaron como una pequeña esfera, no como un punto. Heisenberg propuso que las partículas que interactuaban fuertemente eran en realidad objetos extendidos, y debido a que existen dificultades de principio con las partículas relativistas extendidas, propuso que la noción de un punto espacio-temporal se desmoronaba a escalas nucleares.
Sin espacio y tiempo, resulta difícil formular una teoría física. Heisenberg propuso una solución a este problema: centrarse en las cantidades observables, aquellas cosas que se pueden medir mediante experimentos. Un experimento sólo ve una cantidad microscópica si ésta puede ser transferida mediante una serie de eventos a los dispositivos clásicos que rodean la cámara experimental. Los objetos que vuelan al infinito son partículas estables, en superposiciones cuánticas de diferentes estados de momento.
Heisenberg propuso que incluso cuando el espacio y el tiempo no son fiables, la noción de estado de impulso, que se define lejos de la cámara experimental, sigue funcionando. La cantidad física que propuso como fundamental es la amplitud mecánica cuántica para que un grupo de partículas entrantes se convierta en un grupo de partículas salientes, y no admitió que hubiera pasos intermedios.
La matriz S es la cantidad que describe cómo un conjunto de partículas entrantes se convierte en partículas salientes. Heisenberg propuso estudiar la matriz S directamente, sin suposiciones sobre la estructura del espacio-tiempo. Pero cuando las transiciones del pasado lejano al futuro lejano se producen en un solo paso, sin pasos intermedios, resulta difícil calcular algo. En la teoría cuántica de campos , los pasos intermedios son las fluctuaciones de campos o, de manera equivalente, las fluctuaciones de partículas virtuales. En esta teoría de matriz S propuesta, no hay ninguna cantidad local.
Heisenberg propuso utilizar la unitaridad para determinar la matriz S. En todas las situaciones imaginables, la suma de los cuadrados de las amplitudes debe ser igual a 1. Esta propiedad puede determinar la amplitud en una teoría cuántica de campos orden por orden en una serie de perturbaciones una vez que se dan las interacciones básicas, y en muchas teorías cuánticas de campos las amplitudes crece demasiado rápido a altas energías para formar una matriz S unitaria. Pero sin suposiciones adicionales sobre el comportamiento de alta energía, la unitaridad no es suficiente para determinar la dispersión, y la propuesta fue ignorada durante muchos años.
La propuesta de Heisenberg revivió en 1956 cuando Murray Gell-Mann reconoció que las relaciones de dispersión —como las descubiertas por Hendrik Kramers y Ralph Kronig en la década de 1920 (ver Relaciones Kramers-Kronig )—permiten la formulación de una noción de causalidad, una noción de que los acontecimientos en el futuro no influiría en los acontecimientos del pasado, incluso cuando la noción microscópica de pasado y futuro no esté claramente definida. También reconoció que estas relaciones podrían ser útiles para calcular observables en el caso de la física de interacción fuerte. [6] Las relaciones de dispersión eran propiedades analíticas de la matriz S, [7] e imponían condiciones más estrictas que las que se derivan de la unitaridad sola. Este desarrollo en la teoría de la matriz S surgió del descubrimiento de la simetría de cruce por parte de Murray Gell-Mann y Marvin Leonard Goldberger (1954) , otra condición que la matriz S tenía que cumplir. [8] [7]
Entre los defensores destacados del nuevo enfoque de "relaciones de dispersión" se encontraban Stanley Mandelstam [9] y Geoffrey Chew , [10] ambos en UC Berkeley en ese momento. Mandelstam descubrió las relaciones de doble dispersión, una nueva y poderosa forma analítica, en 1958, [9] y creyó que proporcionarían la clave para avanzar en las interacciones fuertes intratables.
A finales de la década de 1950 se habían descubierto muchas partículas de espín cada vez mayor que interactuaban fuertemente y quedó claro que no todas eran fundamentales. Mientras que el físico japonés Shoichi Sakata propuso que las partículas podrían entenderse como estados ligados de sólo tres de ellas (el protón, el neutrón y la Lambda ; véase el modelo de Sakata ), [11] Geoffrey Chew creía que ninguna de estas partículas es fundamental [12 ] [13] (para más detalles, consulte el modelo Bootstrap ). El enfoque de Sakata fue reelaborado en la década de 1960 en el modelo de quarks por Murray Gell-Mann y George Zweig al hacer fraccionarias las cargas de los constituyentes hipotéticos y rechazar la idea de que eran partículas observadas. En ese momento, el enfoque de Chew se consideraba más convencional porque no introducía valores de carga fraccionarios y porque se centraba en elementos de la matriz S medibles experimentalmente, no en constituyentes hipotéticos puntuales.
En 1959, Tullio Regge , un joven teórico de Italia, descubrió que los estados ligados en la mecánica cuántica se pueden organizar en familias conocidas como trayectorias de Regge , teniendo cada familia momentos angulares distintivos . [14] Esta idea fue generalizada a la mecánica cuántica relativista por Stanley Mandelstam , Vladimir Gribov y Marcel Froissart , utilizando un método matemático (la representación de Sommerfeld-Watson) descubierto décadas antes por Arnold Sommerfeld y Kenneth M. Watson : el resultado fue denominado Froissart. –Fórmula de Gribov. [15]
En 1961, Geoffrey Chew y Steven Frautschi reconocieron que los mesones tenían trayectorias de Regge en línea recta [16] (en su esquema, el espín se representa frente a la masa al cuadrado en el llamado diagrama de Chew-Frautschi), lo que implicaba que la dispersión de estas partículas tiene un comportamiento muy extraño: debería caer exponencialmente rápidamente en ángulos grandes. Con esta comprensión, los teóricos esperaban construir una teoría de partículas compuestas en trayectorias de Regge, cuyas amplitudes de dispersión tuvieran la forma asintótica exigida por la teoría de Regge.
En 1967, un notable paso adelante en el enfoque bootstrap fue el principio de dualidad DHS introducido por Richard Dolen, David Horn y Christoph Schmid en 1967, [17] en Caltech (el término original era "dualidad promedio" o "dualidad finita"). dualidad de la regla de la suma de energía (FESR)"). Los tres investigadores notaron que las descripciones de intercambio de polos de Regge (a alta energía) y de resonancia (a baja energía) ofrecen múltiples representaciones/aproximaciones de un mismo proceso físicamente observable. [18]
El primer modelo en el que las partículas hadrónicas siguen esencialmente las trayectorias de Regge fue el modelo de resonancia dual construido por Gabriele Veneziano en 1968, [19] quien señaló que la función beta de Euler podría usarse para describir datos de amplitud de dispersión de 4 partículas para dichas partículas. . La amplitud de dispersión Veneziano (o modelo Veneziano) fue rápidamente generalizada a una amplitud N -partícula por Ziro Koba y Holger Bech Nielsen [20] (su enfoque fue denominado formalismo Koba-Nielsen), y a lo que ahora se reconocen como cadenas cerradas por Miguel Virasoro [21] y Joel A. Shapiro [22] (su enfoque fue denominado modelo Shapiro-Virasoro).
En 1969, las reglas de Chan-Paton (propuestas por Jack E. Paton y Hong-Mo Chan) [23] permitieron agregar factores de isospin al modelo Veneziano. [24]
En 1969-70, Yoichiro Nambu , [25] Holger Bech Nielsen , [26] y Leonard Susskind [27] [28] presentaron una interpretación física de la amplitud Veneziano representando las fuerzas nucleares como cuerdas unidimensionales vibrantes. Sin embargo, esta descripción de la fuerza fuerte basada en cuerdas hizo muchas predicciones que contradecían directamente los hallazgos experimentales.
En 1971, Pierre Ramond [29] e, independientemente, John H. Schwarz y André Neveu [30] intentaron implementar fermiones en el modelo dual. Esto condujo al concepto de "cuerdas giratorias" y señaló el camino hacia un método para eliminar el taquión problemático (ver formalismo RNS ). [31]
Los modelos de resonancia dual para interacciones fuertes fueron un tema de estudio relativamente popular entre 1968 y 1973. [32] La comunidad científica perdió interés en la teoría de cuerdas como teoría de interacciones fuertes en 1973, cuando la cromodinámica cuántica se convirtió en el foco principal de la investigación teórica . (principalmente debido al atractivo teórico de su libertad asintótica ). [34]
En 1974, John H. Schwarz y Joël Scherk , [35] e independientemente Tamiaki Yoneya , [36] estudiaron los patrones de vibración de cuerdas similares a bosones y descubrieron que sus propiedades coincidían exactamente con las del gravitón , la hipotética partícula mensajera de la fuerza gravitacional . Schwarz y Scherk argumentaron que la teoría de cuerdas no había logrado imponerse porque los físicos habían subestimado su alcance. Esto llevó al desarrollo de la teoría de cuerdas bosónicas .
La teoría de cuerdas se formula en términos de la acción de Polyakov , [37] que describe cómo las cuerdas se mueven a través del espacio y el tiempo. Al igual que los resortes, las cuerdas tienden a contraerse para minimizar su energía potencial, pero la conservación de la energía evita que desaparezcan y, en cambio, oscilan. Aplicando las ideas de la mecánica cuántica a las cuerdas es posible deducir los diferentes modos de vibración de las cuerdas, y que cada estado de vibración parece ser una partícula diferente. La masa de cada partícula y la forma con la que puede interactuar están determinadas por la forma en que vibra la cuerda; en esencia, por la " nota " que "suena" la cuerda. La escala de notas, cada una de las cuales corresponde a un tipo diferente de partícula, se denomina " espectro " de la teoría.
Los primeros modelos incluían cadenas abiertas , que tienen dos puntos finales distintos, y cadenas cerradas , donde los puntos finales se unen para formar un bucle completo. Los dos tipos de cuerdas se comportan de maneras ligeramente diferentes, produciendo dos espectros. No todas las teorías de cuerdas modernas utilizan ambos tipos; algunos incorporan sólo la variedad cerrada.
El primer modelo de cuerda tiene varios problemas: tiene una dimensión crítica D = 26, una característica que fue descubierta originalmente por Claud Lovelace en 1971; [38] la teoría tiene una inestabilidad fundamental, la presencia de taquiones [39] (ver condensación de taquiones ); además, el espectro de partículas contiene sólo bosones , partículas como el fotón que obedecen reglas particulares de comportamiento. Si bien los bosones son un ingrediente fundamental del Universo, no son sus únicos constituyentes. La investigación de cómo una teoría de cuerdas puede incluir fermiones en su espectro llevó a la invención de la supersimetría (en Occidente ) [40] en 1971, [41] una transformación matemática entre bosones y fermiones. Las teorías de cuerdas que incluyen vibraciones fermiónicas se conocen ahora como teorías de supercuerdas .
En 1977, la proyección OSG (que lleva el nombre de Ferdinando Gliozzi , Joël Scherk y David I. Olive ) condujo a una familia de teorías de cuerdas libres unitarias libres de taquiones, [42] las primeras teorías consistentes de supercuerdas (ver más abajo).
La primera revolución de las supercuerdas es un período de importantes descubrimientos que comenzó en 1984. [43] Se comprendió que la teoría de cuerdas era capaz de describir todas las partículas elementales , así como las interacciones entre ellas. Cientos de físicos comenzaron a trabajar en la teoría de cuerdas como la idea más prometedora para unificar las teorías físicas. [44] La revolución comenzó con el descubrimiento de la cancelación de anomalías en la teoría de cuerdas de tipo I a través del mecanismo de Green-Schwarz (llamado así por Michael Green y John H. Schwarz) en 1984. [45] [46] El descubrimiento innovador de La cuerda heterótica fue creada por David Gross , Jeffrey Harvey , Emil Martinec y Ryan Rohm en 1985. [47] Philip Candelas , Gary Horowitz , Andrew Strominger y Edward Witten también se dieron cuenta en 1985 de que para obtener supersimetría , las seis pequeñas dimensiones adicionales (la dimensión crítica D = 10 de la teoría de supercuerdas fue descubierta originalmente por John H. Schwarz en 1972) [48] deben compactarse en una variedad de Calabi-Yau . [49] (En la teoría de cuerdas, la compactificación es una generalización de la teoría de Kaluza-Klein , que se propuso por primera vez en la década de 1920). [50]
En 1985, se habían descrito cinco teorías de supercuerdas distintas: tipo I, [51] tipo II (IIA y IIB) , [51] y heterótica (SO(32) y E 8 × E 8 ) . [47]
La revista Discover en el número de noviembre de 1986 (vol. 7, n.° 11) presentó un artículo de portada escrito por Gary Taubes , "Everything's Now Tied to Strings", que explicaba la teoría de cuerdas para una audiencia popular.
En 1987, Eric Bergshoeff Paul Townsend demostraron que no hay supercuerdas en once dimensiones (el mayor número de dimensiones consistentes con un solo gravitón en las teorías de supergravedad ), [52] sino supermembranas . [53]
, Ergin Sezgin yA principios de la década de 1990, Edward Witten y otros encontraron pruebas sólidas de que las diferentes teorías de supercuerdas eran límites diferentes de una teoría de 11 dimensiones [54] [55] que se conoció como teoría M (para más detalles, consulte Introducción a la teoría M ). . [56] Estos descubrimientos provocaron la segunda revolución de las supercuerdas que tuvo lugar aproximadamente entre 1994 y 1995. [57]
Las diferentes versiones de la teoría de supercuerdas se unificaron, como se había esperado durante mucho tiempo, mediante nuevas equivalencias. Estos se conocen como dualidad S , dualidad T , dualidad U , simetría especular y transiciones conifold . Las diferentes teorías de cuerdas también estaban relacionadas con la teoría M.
En 1995, Joseph Polchinski descubrió que la teoría requiere la inclusión de objetos de dimensiones superiores, llamados D-branas : [58] estas son las fuentes de los campos eléctricos y magnéticos de Ramond-Ramond que requiere la dualidad de cuerdas . [59] Las D-branas agregaron una rica estructura matemática adicional a la teoría y abrieron posibilidades para construir modelos cosmológicos realistas en la teoría (para más detalles, consulte Cosmología de branas ).
En 1997-98, Juan Maldacena conjeturó una relación entre la teoría de cuerdas tipo IIB y la teoría supersimétrica de Yang-Mills N = 4 , una teoría de calibre . [60] Esta conjetura, llamada correspondencia AdS/CFT , ha generado un gran interés en la física de altas energías . [61] Es una realización del principio holográfico , que tiene implicaciones de largo alcance: la correspondencia AdS/CFT ha ayudado a dilucidar los misterios de los agujeros negros sugeridos por el trabajo de Stephen Hawking [62] y se cree que proporciona una resolución de La paradoja de la información del agujero negro . [63]
En 2003, el descubrimiento de Michael R. Douglas del panorama de la teoría de cuerdas , [64] que sugiere que la teoría de cuerdas tiene una gran cantidad de vacíos falsos no equivalentes , [65] dio lugar a una gran discusión sobre lo que eventualmente se podría esperar que la teoría de cuerdas prediga. y cómo se puede incorporar la cosmología a la teoría. [66]
Un posible mecanismo de estabilización del vacío de la teoría de cuerdas (el mecanismo KKLT ) fue propuesto en 2003 por Shamit Kachru , Renata Kallosh , Andrei Linde y Sandip Trivedi . [67] Gran parte de la investigación actual se centra en caracterizar el " pantanal " de teorías incompatibles con la gravedad cuántica .