Un tokamak ( / ˈt oʊ k ə m æ k / ; ruso : токамáк ) es un dispositivo que utiliza un potente campo magnético generado por imanes externos para confinar el plasma en forma de un toro axialmente simétrico . [1] El tokamak es uno de los varios tipos de dispositivos de confinamiento magnético que se están desarrollando para producir energía de fusión termonuclear controlada . El concepto de tokamak es actualmente uno de los principales candidatos para un reactor de fusión práctico . [2]
La propuesta de utilizar la fusión termonuclear controlada para fines industriales y un esquema específico que utiliza el aislamiento térmico del plasma de alta temperatura mediante un campo eléctrico fue formulada por primera vez por el físico soviético Oleg Lavrentiev en un artículo de mediados de la década de 1950. [3] En 1951, Andrei Sakharov e Igor Tamm modificaron el esquema al proponer una base teórica para un reactor termonuclear, donde el plasma tendría la forma de un toro y estaría retenido por un campo magnético. [4]
El primer tokamak se construyó en 1954 [5] y durante más de una década esta tecnología sólo existía en la URSS. En 1968, la temperatura del plasma electrónico de 1 keV se alcanzó en el tokamak T-3, construido en el Instituto de Energía Atómica IV Kurchatov bajo la dirección del académico L. A. Artsimovich [6] [7] [8]
A mediados de los años 1960, los diseños de tokamak comenzaron a mostrar un rendimiento muy mejorado. Los resultados iniciales se publicaron en 1965, pero fueron ignorados; Lyman Spitzer los descartó de plano después de notar problemas potenciales en su sistema para medir temperaturas. Un segundo conjunto de resultados se publicó en 1968, esta vez afirmando un rendimiento muy superior al de cualquier otra máquina. Cuando estos también fueron recibidos con escepticismo, los soviéticos invitaron a científicos británicos del laboratorio del Centro de Energía de Fusión de Culham (Nicol Peacock et al.) a la URSS con su equipo. [9] Las mediciones en el T-3 confirmaron los resultados, [10] [11] lo que estimuló una estampida mundial de construcción de tokamak. Se había demostrado que un equilibrio de plasma estable requiere líneas de campo magnético que se enrollen alrededor del toro en una hélice . Dispositivos como el z-pinch y el stellarator habían intentado esto, pero demostraron serias inestabilidades. Fue el desarrollo del concepto ahora conocido como factor de seguridad (denominado q en notación matemática) lo que guió el desarrollo del tokamak; al organizar el reactor de modo que este factor crítico q fuera siempre mayor que 1, los tokamaks suprimieron fuertemente las inestabilidades que plagaron los diseños anteriores.
A mediados de la década de 1970, se utilizaban docenas de tokamaks en todo el mundo. A finales de esa década, estas máquinas habían alcanzado todas las condiciones necesarias para la fusión práctica , aunque no al mismo tiempo ni en un solo reactor . Con el objetivo de alcanzar el punto de equilibrio (un factor de ganancia de energía de fusión igual a 1) ahora a la vista, se diseñó una nueva serie de máquinas que funcionarían con un combustible de fusión de deuterio y tritio . Estas máquinas, en particular el Joint European Torus (JET) y el Tokamak Fusion Test Reactor (TFTR), tenían el objetivo explícito de alcanzar el punto de equilibrio.
En cambio, estas máquinas demostraron nuevos problemas que limitaron su rendimiento. Resolverlos requeriría una máquina mucho más grande y más costosa, más allá de las capacidades de cualquier país. Después de un acuerdo inicial entre Ronald Reagan y Mikhail Gorbachev en noviembre de 1985, surgió el esfuerzo del Reactor Termonuclear Experimental Internacional (ITER) y sigue siendo el principal esfuerzo internacional para desarrollar energía de fusión práctica. Muchos diseños más pequeños y derivaciones como el tokamak esférico , continúan utilizándose para investigar los parámetros de rendimiento y otras cuestiones. A partir de 2024 [actualizar], JET sigue siendo el poseedor del récord de producción de fusión, con 69 MJ de producción de energía durante un período de 5 segundos. [12]
La palabra tokamak es una transliteración de la palabra rusa токамак , un acrónimo de:
tan realista
Para roidal'naya
a roide
a mera
que mera
cámara
con
s
con
mis nitnicos
mis gnomitos
magnético
A los atletas
k- atushkami
aceites c
o:
tan realista
Para roidal'naya
a roide
donde estaba
era kam
cámara
con
s
con
ak sialním
ak sial'nym
axial
Magnífico
magnitnym
magnético
pololema
polémica
campo
[13]
El término "tokamak" fue acuñado en 1957 [14] por Igor Golovin , alumno del académico Igor Kurchatov . Originalmente sonaba como "tokamag" ("токамаг"), un acrónimo de las palabras « to roidal cha mber magnetic » (« то роидальная ка мера маг нитная»), pero Natan Yavlinsky , el autor del primer sistema toroidal, propuso reemplazarlo. "-mag" con "-mak" para eufonía. [15] Más tarde, este nombre fue tomado prestado por muchos idiomas.
En 1934, Mark Oliphant , Paul Harteck y Ernest Rutherford fueron los primeros en lograr la fusión en la Tierra, utilizando un acelerador de partículas para disparar núcleos de deuterio en una lámina de metal que contenía deuterio u otros átomos. [16] Esto les permitió medir la sección transversal nuclear de varias reacciones de fusión y determinaron que la reacción deuterio-deuterio se produjo a una energía menor que otras reacciones, alcanzando un pico de aproximadamente 100.000 electronvoltios (100 keV). [17] [a]
La fusión basada en aceleradores no es práctica porque la sección transversal del reactor es minúscula; la mayoría de las partículas en el acelerador se dispersarán en el combustible, no se fusionarán con él. Estas dispersiones hacen que las partículas pierdan energía hasta el punto en que ya no pueden experimentar la fusión. La energía puesta en estas partículas se pierde, y es fácil demostrar que es mucha más energía de la que las reacciones de fusión resultantes pueden liberar. [19]
Para mantener la fusión y producir una salida neta de energía, la mayor parte del combustible debe elevarse a altas temperaturas, de modo que sus átomos colisionen constantemente a gran velocidad; esto da lugar al nombre de termonuclear debido a las altas temperaturas necesarias para que se produzca. En 1944, Enrico Fermi calculó que la reacción sería autosostenible a unos 50.000.000 K; a esa temperatura, la velocidad a la que se desprende energía por las reacciones es lo suficientemente alta como para calentar el combustible circundante con la suficiente rapidez como para mantener la temperatura sin pérdidas al medio ambiente, continuando la reacción. [19]
Durante el Proyecto Manhattan se creó la primera forma práctica de alcanzar estas temperaturas, utilizando una bomba atómica . En 1944, Fermi dio una charla sobre la física de la fusión en el contexto de una entonces hipotética bomba de hidrógeno . Sin embargo, ya se había pensado en un dispositivo de fusión controlada , y James L. Tuck y Stanislaw Ulam lo habían intentado utilizando cargas huecas que impulsaban una lámina de metal infundida con deuterio, aunque sin éxito. [20]
Los primeros intentos de construir una máquina de fusión práctica tuvieron lugar en el Reino Unido , donde George Paget Thomson había seleccionado el efecto pinch como una técnica prometedora en 1945. Después de varios intentos fallidos de obtener financiación, se dio por vencido y pidió a dos estudiantes de posgrado, Stanley (Stan) W. Cousins y Alan Alfred Ware (1924-2010 [21] ), que construyeran un dispositivo a partir de equipos de radar sobrantes . Este se puso en funcionamiento con éxito en 1948, pero no mostró evidencia clara de fusión y no logró ganar el interés del Atomic Energy Research Establishment . [22]
En 1950, Oleg Lavrentiev , entonces sargento del Ejército Rojo destinado en Sakhalin , escribió una carta al Comité Central del Partido Comunista de la Unión Soviética . La carta esbozaba la idea de utilizar una bomba atómica para encender un combustible de fusión y luego pasaba a describir un sistema que utilizaba campos electrostáticos para contener un plasma caliente en un estado estable para la producción de energía. [23] [24] [b]
La carta fue enviada a Andrei Sakharov para que hiciera comentarios al respecto. Sakharov señaló que "el autor formula un problema muy importante y no necesariamente desesperado", y consideró que su principal preocupación en el diseño era que el plasma chocaría con los cables de los electrodos y que "las mallas anchas y una parte delgada que transporta la corriente tendrían que reflejar casi todos los núcleos incidentes de vuelta al reactor. Con toda probabilidad, este requisito es incompatible con la resistencia mecánica del dispositivo". [23]
Una muestra de la importancia que se le dio a la carta de Lavrentiev se puede ver en la velocidad con la que fue procesada: la carta fue recibida por el Comité Central el 29 de julio, Sajarov envió su revisión el 18 de agosto, en octubre, Sajarov e Igor Tamm habían completado el primer estudio detallado de un reactor de fusión, y habían pedido fondos para construirlo en enero de 1951. [25]
Cuando se calientan a temperaturas de fusión, los electrones de los átomos se disocian, lo que da lugar a un fluido de núcleos y electrones conocido como plasma . A diferencia de los átomos eléctricamente neutros, un plasma es eléctricamente conductor y, por lo tanto, puede ser manipulado por campos eléctricos o magnéticos. [26]
La preocupación de Sajarov por los electrodos lo llevó a considerar el uso del confinamiento magnético en lugar del electrostático. En el caso de un campo magnético, las partículas girarán alrededor de las líneas de fuerza . [26] Como las partículas se mueven a alta velocidad, sus trayectorias resultantes parecen una hélice. Si uno organiza un campo magnético de modo que las líneas de fuerza sean paralelas y estén juntas, las partículas que orbitan alrededor de las líneas adyacentes pueden colisionar y fusionarse. [27]
Un campo de este tipo se puede crear en un solenoide , un cilindro con imanes envueltos alrededor de su exterior. Los campos combinados de los imanes crean un conjunto de líneas magnéticas paralelas que recorren la longitud del cilindro. Esta disposición evita que las partículas se muevan lateralmente hacia la pared del cilindro, pero no evita que salgan por el extremo. La solución obvia a este problema es doblar el cilindro en forma de rosquilla, o toro, de modo que las líneas formen una serie de anillos continuos. En esta disposición, las partículas giran sin fin. [27]
Sajarov discutió el concepto con Ígor Tamm y, a fines de octubre de 1950, ambos escribieron una propuesta y la enviaron a Ígor Kurchátov , el director del proyecto de la bomba atómica dentro de la URSS, y a su adjunto, Ígor Golovin . [27] Sin embargo, esta propuesta inicial ignoró un problema fundamental; cuando se disponen a lo largo de un solenoide recto, los imanes externos están espaciados de manera uniforme, pero cuando se doblan en un toro, están más cerca entre sí en el interior del anillo que en el exterior. Esto conduce a fuerzas desiguales que hacen que las partículas se alejen de sus líneas magnéticas. [28] [29]
Durante las visitas al Laboratorio de Instrumentos de Medición de la Academia de Ciencias de la URSS (LIPAN), el centro de investigación nuclear soviético , Sajarov sugirió dos posibles soluciones a este problema. Una era suspender un anillo portador de corriente en el centro del toro. La corriente en el anillo produciría un campo magnético que se mezclaría con el de los imanes en el exterior. El campo resultante se torcería en una hélice, de modo que cualquier partícula dada se encontraría repetidamente en el exterior, luego dentro, del toro. Las derivas causadas por los campos desiguales son en direcciones opuestas en el interior y el exterior, por lo que en el curso de múltiples órbitas alrededor del eje largo del toro , las derivas opuestas se cancelarían. Alternativamente, sugirió usar un imán externo para inducir una corriente en el plasma mismo, en lugar de un anillo de metal separado, que tendría el mismo efecto. [28]
En enero de 1951, Kurchatov organizó una reunión en LIPAN para analizar las ideas de Sajarov. Encontraron un amplio interés y apoyo, y en febrero se envió un informe sobre el tema a Lavrentiy Beria , que supervisaba los esfuerzos atómicos en la URSS. Durante un tiempo, no se recibió respuesta. [28]
El 25 de marzo de 1951, el presidente argentino Juan Perón anunció que un ex científico alemán, Ronald Richter , había logrado producir la fusión a escala de laboratorio como parte de lo que ahora se conoce como el Proyecto Huemul . Los científicos de todo el mundo se entusiasmaron con el anuncio, pero pronto concluyeron que no era cierto; cálculos simples mostraron que su configuración experimental no podía producir suficiente energía para calentar el combustible de fusión a las temperaturas necesarias. [30]
Aunque los investigadores nucleares lo desestimaron, la amplia cobertura mediática hizo que los políticos de repente se dieran cuenta de la investigación sobre la fusión y se mostraran receptivos a ella. En el Reino Unido, Thomson recibió de repente una financiación considerable. En los meses siguientes, se pusieron en marcha dos proyectos basados en el sistema pinch. [31] En los EE. UU., Lyman Spitzer leyó la historia de Huemul, se dio cuenta de que era falsa y se puso a diseñar una máquina que funcionara. [32] En mayo, recibió 50.000 dólares para comenzar a investigar su concepto de estelarizador . [33] Jim Tuck había regresado brevemente al Reino Unido y vio las máquinas pinch de Thomson. Cuando regresó a Los Álamos, también recibió 50.000 dólares directamente del presupuesto de Los Álamos. [34]
En la URSS se produjeron hechos similares . A mediados de abril, Dmitri Efremov, del Instituto de Investigación Científica de Aparatos Electrofísicos, irrumpió en el despacho de Kurchatov con una revista que contenía una historia sobre el trabajo de Richter, exigiendo saber por qué habían sido derrotados por los argentinos. Kurchatov se puso inmediatamente en contacto con Beria con una propuesta para establecer un laboratorio de investigación de fusión independiente con Lev Artsimovich como director. Sólo unos días después, el 5 de mayo, la propuesta había sido firmada por Joseph Stalin . [28]
En octubre, Sajarov y Tamm habían completado un análisis mucho más detallado de su propuesta original, en el que se pedía un dispositivo con un radio mayor (del toro en su conjunto) de 12 metros (39 pies) y un radio menor (el interior del cilindro) de 2 metros (6 pies 7 pulgadas). La propuesta sugería que el sistema podría producir 100 gramos (3,5 onzas) de tritio al día, o generar 10 kilogramos (22 libras) de U233 al día. [28]
A medida que se desarrolló más la idea, se comprendió que una corriente en el plasma podría crear un campo lo suficientemente fuerte como para confinar también el plasma, eliminando la necesidad de bobinas externas. [35] En este punto, los investigadores soviéticos habían reinventado el sistema de pinza que se estaba desarrollando en el Reino Unido, [20] aunque habían llegado a este diseño desde un punto de partida muy diferente.
Una vez que se propuso la idea de utilizar el efecto pinza para el confinamiento, se hizo evidente una solución mucho más simple. En lugar de un gran toroide, se podría simplemente inducir la corriente en un tubo lineal, lo que podría hacer que el plasma en su interior colapsara formando un filamento. Esto tenía una gran ventaja; la corriente en el plasma lo calentaría a través del calentamiento resistivo normal , pero esto no calentaría el plasma a temperaturas de fusión. Sin embargo, a medida que el plasma colapsara, el proceso adiabático daría como resultado un aumento drástico de la temperatura, más que suficiente para la fusión. Con este desarrollo, solo Golovin y Natan Yavlinsky continuaron considerando la disposición toroidal más estática. [35]
El 4 de julio de 1952, el grupo de Nikolai Filippov midió los neutrones que se liberaban de una máquina de pinza lineal. Lev Artsimovich exigió que comprobaran todo antes de concluir que se había producido la fusión, y durante estas comprobaciones, descubrieron que los neutrones no provenían de la fusión en absoluto. [35] Esta misma disposición lineal también se les había ocurrido a investigadores del Reino Unido y de los Estados Unidos, y sus máquinas mostraron el mismo comportamiento. Pero el gran secreto que rodeaba a este tipo de investigación significaba que ninguno de los grupos sabía que otros también estaban trabajando en ella, y mucho menos que tenían el mismo problema. [36]
Después de mucho estudio, se descubrió que algunos de los neutrones liberados se producían por inestabilidades en el plasma. Había dos tipos comunes de inestabilidad: la salchicha que se veía principalmente en las máquinas lineales, y la torcedura que era más común en las máquinas toroidales. [36] Grupos en los tres países comenzaron a estudiar la formación de estas inestabilidades y las posibles formas de abordarlas. [37] Martin David Kruskal y Martin Schwarzschild hicieron importantes contribuciones a este campo en los EE. UU., y Shafranov en la URSS. [38]
Una idea que surgió de estos estudios se conoció como el "pinzamiento estabilizado". Este concepto agregó bobinas adicionales al exterior de la cámara, lo que creó un campo magnético que estaría presente en el plasma antes de la descarga de pinzamiento. En la mayoría de los conceptos, el campo inducido externamente era relativamente débil y, debido a que un plasma es diamagnético , penetraba solo las áreas externas del plasma. [36] Cuando se produjo la descarga de pinzamiento y el plasma se contrajo rápidamente, este campo se "congeló" en el filamento resultante, creando un campo fuerte en sus capas externas. En los EE. UU., esto se conocía como "darle una columna vertebral al plasma". [39]
Sakharov revisó sus conceptos toroidales originales y llegó a una conclusión ligeramente diferente sobre cómo estabilizar el plasma. El diseño sería el mismo que el concepto de pinzamiento estabilizado, pero el papel de los dos campos se invertiría. En lugar de campos magnéticos débiles inducidos externamente que proporcionen estabilización y una fuerte corriente de pinzamiento responsable del confinamiento, en el nuevo diseño, el campo externo sería mucho más potente para proporcionar la mayor parte del confinamiento, mientras que la corriente sería mucho más pequeña y responsable del efecto estabilizador. [35]
En 1955, cuando los métodos lineales todavía eran inestables, se construyó en la URSS el primer dispositivo toroidal. El TMP era una máquina de pinza clásica, similar a los modelos de la misma época que se utilizaban en el Reino Unido y los EE. UU. La cámara de vacío estaba hecha de cerámica y los espectros de las descargas mostraban sílice, lo que significa que el plasma no estaba perfectamente confinado por el campo magnético y no golpeaba las paredes de la cámara. [35] Le siguieron dos máquinas más pequeñas, que utilizaban carcasas de cobre. [40] Las carcasas conductoras estaban destinadas a ayudar a estabilizar el plasma, pero no tuvieron un éxito total en ninguna de las máquinas que lo intentaron. [41]
En 1955, cuando el progreso parecía estancado, Kurchatov convocó una conferencia de investigadores soviéticos en toda la Unión con el objetivo final de abrir la investigación sobre fusión dentro de la URSS. [42] En abril de 1956, Kurchatov viajó al Reino Unido como parte de una visita ampliamente publicitada de Nikita Khrushchev y Nikolai Bulganin . Se ofreció a dar una charla en el Atomic Energy Research Establishment, en la antigua RAF Harwell , donde sorprendió a los anfitriones al presentar una descripción histórica detallada de los esfuerzos soviéticos en materia de fusión. [43] Se tomó el tiempo para señalar, en particular, los neutrones vistos en las primeras máquinas y advirtió que los neutrones no significaban fusión. [44]
Sin que Kurchatov lo supiera, en el otro extremo de la antigua pista se estaba construyendo la máquina de fusión estabilizada británica ZETA . ZETA era, con diferencia, la máquina de fusión más grande y potente hasta la fecha. Con el apoyo de experimentos realizados en diseños anteriores que habían sido modificados para incluir la estabilización, ZETA pretendía producir niveles bajos de reacciones de fusión. Aparentemente, esto fue un gran éxito y, en enero de 1958, anunciaron que se había logrado la fusión en ZETA basándose en la liberación de neutrones y en mediciones de la temperatura del plasma. [45]
Vitaly Shafranov y Stanislav Braginskii examinaron las noticias e intentaron averiguar cómo funcionaba. Una posibilidad que consideraron fue el uso de campos débiles "congelados", pero la rechazaron porque creían que los campos no durarían lo suficiente. Entonces concluyeron que ZETA era esencialmente idéntico a los dispositivos que habían estado estudiando, con fuertes campos externos. [43]
En ese momento, los investigadores soviéticos habían decidido construir una máquina toroidal de mayor tamaño, siguiendo las líneas sugeridas por Sajarov. En particular, su diseño tuvo en cuenta un punto importante que se encontraba en los trabajos de Kruskal y Shafranov: si la trayectoria helicoidal de las partículas las hacía circular alrededor de la circunferencia del plasma más rápidamente que a lo largo del eje del toro, la inestabilidad de la torsión se suprimiría fuertemente. [37]
(Para ser claros, la corriente eléctrica en las bobinas que envuelven el toro produce un campo magnético toroidal dentro del toro; un campo magnético pulsado a través del orificio en el toro induce la corriente axial en el toro que tiene un campo magnético poloidal que lo rodea; también puede haber anillos de corriente por encima y por debajo del toro que crean un campo magnético poloidal adicional. Los campos magnéticos combinados forman una estructura magnética helicoidal dentro del toro).
Hoy en día, este concepto básico se conoce como factor de seguridad . La relación entre el número de veces que la partícula orbita el eje mayor en comparación con el eje menor se denota q , y el límite de Kruskal-Shafranov establece que la torcedura se suprimirá siempre que q > 1. Esta trayectoria está controlada por las intensidades relativas del campo magnético inducido externamente en comparación con el campo creado por la corriente interna. Para que q > 1, los imanes externos deben ser mucho más potentes o, alternativamente, se debe reducir la corriente interna. [37]
Siguiendo este criterio, se comenzó a diseñar un nuevo reactor, el T-1, que hoy se conoce como el primer tokamak real. [40] El T-1 utilizaba campos magnéticos externos más fuertes y una corriente reducida en comparación con las máquinas de pinza estabilizadas como ZETA. El éxito del T-1 resultó en su reconocimiento como el primer tokamak funcional. [46] [47] [48] [49] Por su trabajo sobre "poderosas descargas de impulso en un gas, para obtener temperaturas inusualmente altas necesarias para los procesos termonucleares", Yavlinskii fue galardonado con el Premio Lenin y el Premio Stalin en 1958. Yavlinskii estaba preparando el diseño de un modelo aún más grande, construido más tarde como T-3. Con el anuncio aparentemente exitoso de ZETA, el concepto de Yavlinskii fue visto muy favorablemente. [43] [50]
Los detalles de ZETA se hicieron públicos en una serie de artículos en Nature a finales de enero. Para sorpresa de Shafranov, el sistema sí utilizaba el concepto de campo "congelado". [43] Siguió siendo escéptico, pero un equipo del Instituto Ioffe en San Petersburgo comenzó a planificar la construcción de una máquina similar conocida como Alpha. Sólo unos meses después, en mayo, el equipo de ZETA emitió un comunicado en el que afirmaba que no habían logrado la fusión y que habían sido engañados por mediciones erróneas de la temperatura del plasma. [51]
El T-1 comenzó a funcionar a finales de 1958. [52] [c] Demostró pérdidas de energía muy altas por radiación. Esto se debió a impurezas en el plasma debido al sistema de vacío que causaba la desgasificación de los materiales del contenedor. Para explorar soluciones a este problema, se construyó otro dispositivo pequeño, el T-2. Este utilizaba un revestimiento interno de metal corrugado que se horneaba a 550 °C (1022 °F) para eliminar los gases atrapados. [52]
En el marco de la segunda reunión de Átomos para la Paz , celebrada en Ginebra en septiembre de 1958, la delegación soviética publicó numerosos documentos sobre sus investigaciones en materia de fusión. Entre ellos se encontraba un conjunto de resultados iniciales sobre sus máquinas toroidales, que en ese momento no habían arrojado resultados destacables. [53]
La "estrella" del espectáculo fue un modelo de gran tamaño del estelarizador de Spitzer, que inmediatamente llamó la atención de los soviéticos. A diferencia de sus diseños, el estelarizador producía los caminos retorcidos necesarios en el plasma sin hacer pasar una corriente a través de él, utilizando una serie de bobinas externas (que producían campos magnéticos internos) que podían funcionar en estado estable en lugar de los pulsos del sistema de inducción que producía la corriente axial. Kurchatov comenzó a pedirle a Yavlinskii que cambiara su diseño T-3 por un estelarizador, pero lo convencieron de que la corriente proporcionaba una segunda función útil en el calentamiento, algo de lo que carecía el estelarizador. [53]
En el momento de la emisión, el stellarator había sufrido una larga serie de problemas menores que recién se estaban solucionando. La solución de estos reveló que la velocidad de difusión del plasma era mucho más rápida de lo que predecía la teoría. Se observaron problemas similares en todos los diseños contemporáneos, por una razón u otra. El stellarator, varios conceptos de pinza y las máquinas de espejo magnético tanto en los EE. UU. como en la URSS demostraron problemas que limitaban sus tiempos de confinamiento. [52]
Desde los primeros estudios de fusión controlada, había un problema latente. Durante el Proyecto Manhattan, David Bohm había formado parte del equipo que trabajaba en la separación isotópica del uranio . En la era de posguerra continuó trabajando con plasmas en campos magnéticos. Utilizando la teoría básica, se esperaría que el plasma se difundiera a través de las líneas de fuerza a una velocidad inversamente proporcional al cuadrado de la intensidad del campo, lo que significa que pequeños aumentos de la fuerza mejorarían enormemente el confinamiento. Pero basándose en sus experimentos, Bohm desarrolló una fórmula empírica, ahora conocida como difusión de Bohm , que sugería que la velocidad era lineal con la fuerza magnética, no con su cuadrado. [54]
Si la fórmula de Bohm era correcta, no había esperanzas de que se pudiera construir un reactor de fusión basado en el confinamiento magnético. Para confinar el plasma a las temperaturas necesarias para la fusión, el campo magnético tendría que ser órdenes de magnitud mayor que cualquier imán conocido. Spitzer atribuyó la diferencia entre las tasas de difusión de Bohm y la clásica a la turbulencia en el plasma [55] y creía que los campos estables del estelarizador no sufrirían este problema. Varios experimentos en ese momento sugirieron que la tasa de Bohm no era aplicable y que la fórmula clásica era correcta [54] .
Pero a principios de los años 1960, cuando todos los diseños dejaban escapar plasma a un ritmo prodigioso, el propio Spitzer concluyó que la escala de Bohm era una cualidad inherente de los plasmas y que el confinamiento magnético no funcionaría. [52] Todo el campo cayó en lo que se conoció como "la calma", [56] un período de intenso pesimismo. [35]
A diferencia de los otros diseños, los tokamaks experimentales parecían estar progresando bien, tan bien que un problema teórico menor se convirtió en una preocupación real. En presencia de la gravedad, hay un pequeño gradiente de presión en el plasma, que antes era lo suficientemente pequeño como para ignorarlo, pero que ahora se estaba convirtiendo en algo que había que abordar. Esto llevó a la adición de otro conjunto de bobinas en 1962, que produjo un campo magnético vertical que contrarrestó estos efectos. Estas fueron un éxito y, a mediados de la década de 1960, las máquinas comenzaron a mostrar signos de que estaban superando el límite de Bohm . [57]
En la Segunda Conferencia Internacional de la Agencia de Energía Atómica sobre la fusión, celebrada en 1965 en el recién inaugurado Centro Culham para la Energía de Fusión en el Reino Unido , Artsimovich informó de que sus sistemas superaban el límite de Bohm en diez veces. Spitzer, tras revisar las presentaciones, sugirió que el límite de Bohm todavía podía aplicarse; los resultados estaban dentro del rango de error experimental de los resultados observados en los estellaradores, y las mediciones de temperatura, basadas en los campos magnéticos, simplemente no eran fiables. [57]
La siguiente reunión internacional importante sobre fusión se celebró en agosto de 1968 en Novosibirsk . Para entonces, se habían completado dos diseños de tokamak adicionales, el TM-2 en 1965 y el T-4 en 1968. Los resultados del T-3 habían seguido mejorando y se estaban obteniendo resultados similares de las primeras pruebas de los nuevos reactores. En la reunión, la delegación soviética anunció que el T-3 estaba produciendo temperaturas de electrones de 1000 eV (equivalentes a 10 millones de grados Celsius) y que el tiempo de confinamiento era al menos 50 veces el límite de Bohm. [58]
Estos resultados fueron al menos diez veces superiores a los de cualquier otra máquina. Si eran correctos, representaban un enorme salto para la comunidad de la fusión. Spitzer se mantuvo escéptico, señalando que las mediciones de temperatura todavía se basaban en cálculos indirectos de las propiedades magnéticas del plasma. Muchos concluyeron que se debían a un efecto conocido como electrones fugitivos , y que los soviéticos estaban midiendo solo esos electrones extremadamente energéticos y no la temperatura global. Los soviéticos contraatacaron con varios argumentos que sugerían que la temperatura que estaban midiendo era maxwelliana , y el debate se encendió. [59]
Tras el ataque con ZETA, los equipos del Reino Unido comenzaron a desarrollar nuevas herramientas de diagnóstico de plasma para proporcionar mediciones más precisas. Entre ellas se encontraba el uso de un láser para medir directamente la temperatura de los electrones en masa mediante dispersión de Thomson . Esta técnica era muy conocida y respetada en la comunidad de la fusión; [60] Artsimovich la había calificado públicamente de "brillante". Artsimovich invitó a Bas Pease , el director de Culham, a utilizar sus dispositivos en los reactores soviéticos. En el apogeo de la Guerra Fría , en lo que todavía se considera una importante maniobra política por parte de Artsimovich, se permitió a los físicos británicos visitar el Instituto Kurchatov, el corazón del esfuerzo soviético por fabricar bombas nucleares. [61]
El equipo británico, apodado "Los cinco de Culham", [62] llegó a finales de 1968. Después de un largo proceso de instalación y calibración, el equipo midió las temperaturas durante un período de muchas pruebas experimentales. Los resultados iniciales estuvieron disponibles en agosto de 1969; los soviéticos estaban en lo cierto, sus resultados eran precisos. El equipo telefoneó a Culham para que los resultados llegaran a su casa, quien luego los transmitió en una llamada telefónica confidencial a Washington. [63] Los resultados finales se publicaron en Nature en noviembre de 1969. [64] Los resultados de este anuncio se han descrito como una "auténtica estampida" de construcción de tokamaks en todo el mundo. [65]
Quedaba un problema grave. Como la corriente eléctrica en el plasma era mucho menor y producía mucha menos compresión que una máquina de pinzado, esto significaba que la temperatura del plasma estaba limitada a la velocidad de calentamiento resistivo de la corriente. Propuesta por primera vez en 1950, la resistividad de Spitzer establecía que la resistencia eléctrica de un plasma se reducía a medida que aumentaba la temperatura, [66] lo que significa que la velocidad de calentamiento del plasma se ralentizaría a medida que los dispositivos mejoraran y las temperaturas se presionaran más. Los cálculos demostraron que las temperaturas máximas resultantes, mientras se mantuvieran dentro de q > 1, estarían limitadas a unos pocos millones de grados. Artsimovich se apresuró a señalar esto en Novosibirsk, afirmando que el progreso futuro requeriría el desarrollo de nuevos métodos de calentamiento. [67]
Una de las personas que asistieron a la reunión de Novosibirsk en 1968 fue Amasa Stone Bishop , uno de los líderes del programa de fusión estadounidense. Uno de los pocos dispositivos que mostraban evidencia clara de superar el límite de Bohm en ese momento era el concepto multipolar. Tanto Lawrence Livermore como el Laboratorio de Física del Plasma de Princeton (PPPL), sede del estelarizador de Spitzer, estaban construyendo variaciones del diseño multipolar. Si bien tuvieron un éxito moderado por sí solos, el T-3 superó ampliamente a cualquiera de las dos máquinas. Bishop estaba preocupado de que los multipolos fueran redundantes y pensó que Estados Unidos debería considerar un tokamak propio. [68]
Cuando planteó la cuestión en una reunión celebrada en diciembre de 1968, los directores de los laboratorios se negaron a considerarla. Melvin B. Gottlieb, de Princeton, se mostró exasperado y preguntó: "¿Cree usted que este comité puede superar en inteligencia a los científicos?" [69] Cuando los principales laboratorios exigieron que controlaran su propia investigación, un laboratorio se vio excluido. Oak Ridge había entrado originalmente en el campo de la fusión con estudios sobre sistemas de combustible para reactores, pero se diversificó y creó su propio programa espejo. A mediados de los años 60, sus diseños de DCX se estaban quedando sin ideas y no ofrecían nada que el programa similar de Livermore, más prestigioso y políticamente poderoso, no ofreciera. Esto los hizo muy receptivos a nuevos conceptos. [70]
Después de un considerable debate interno, Herman Postma formó un pequeño grupo a principios de 1969 para estudiar el tokamak. [70] Se les ocurrió un nuevo diseño, más tarde bautizado como Ormak, que tenía varias características novedosas. La principal de ellas era la forma en que se creaba el campo externo en un solo bloque grande de cobre, alimentado con energía de un gran transformador debajo del toro. Esto se oponía a los diseños tradicionales que utilizaban bobinados de corriente eléctrica en el exterior. Creían que el bloque único produciría un campo mucho más uniforme. También tendría la ventaja de permitir que el toro tuviera un radio mayor más pequeño, sin la necesidad de pasar cables a través del agujero en forma de rosquilla, lo que daba lugar a una relación de aspecto más baja , que los soviéticos ya habían sugerido que produciría mejores resultados. [71]
A principios de 1969, Artsimovich visitó el MIT , donde fue acosado por aquellos interesados en la fusión. Finalmente aceptó dar varias conferencias en abril [67] y luego permitió largas sesiones de preguntas y respuestas. A medida que avanzaban, el propio MIT se interesó en el tokamak, habiendo permanecido previamente fuera del campo de la fusión por una variedad de razones. Bruno Coppi estaba en el MIT en ese momento, y siguiendo los mismos conceptos que el equipo de Postma, se le ocurrió su propio concepto de baja relación de aspecto, Alcator . En lugar del transformador toroidal de Ormak, Alcator utilizó bobinas de campo magnético tradicionales en forma de anillo, pero requirió que fueran mucho más pequeñas que los diseños existentes. El Laboratorio de Imanes Francis Bitter del MIT era el líder mundial en diseño de imanes y confiaban en que podrían construirlos. [67]
Durante 1969, dos grupos adicionales entraron en el campo. En General Atomics , Tihiro Ohkawa había estado desarrollando reactores multipolares y presentó un concepto basado en estas ideas. Se trataba de un tokamak que tendría una sección transversal de plasma no circular; la misma matemática que sugería que una relación de aspecto menor mejoraría el rendimiento también sugería que un plasma en forma de C o D haría lo mismo. Llamó al nuevo diseño Doublet. [72] Mientras tanto, un grupo de la Universidad de Texas en Austin estaba proponiendo un tokamak relativamente simple para explorar el calentamiento del plasma a través de turbulencia inducida deliberadamente, el Texas Turbulent Tokamak. [73]
Cuando los miembros del Comité Directivo de Fusión de la Comisión de Energía Atómica se reunieron nuevamente en junio de 1969, tenían "propuestas de tokamak que salían de nuestras orejas". [73] El único laboratorio importante que trabajaba en un diseño toroidal que no proponía un tokamak era Princeton, que se negó a considerarlo a pesar de que su estelarizador Modelo C era casi perfecto para tal conversión. Continuaron ofreciendo una larga lista de razones por las que el Modelo C no debería ser convertido. Cuando se cuestionaron, estalló un furioso debate sobre si los resultados soviéticos eran confiables. [73]
Al observar el debate, Gottlieb cambió de opinión. No tenía sentido seguir adelante con el tokamak si las mediciones soviéticas de temperatura de los electrones no eran precisas, por lo que formuló un plan para probar o refutar sus resultados. Mientras nadaba en la piscina durante la pausa del almuerzo, le contó su plan a Harold Furth , a lo que Furth respondió: "bueno, tal vez tengas razón". [63] Después del almuerzo, los distintos equipos presentaron sus diseños, momento en el que Gottlieb presentó su idea de un "stellarator-tokamak" basado en el Modelo C. [63]
El Comité Permanente señaló que este sistema podría completarse en seis meses, mientras que Ormak tardaría un año. [63] Poco tiempo después se hicieron públicos los resultados confidenciales de los Cinco de Culham. Cuando se reunieron de nuevo en octubre, el Comité Permanente liberó la financiación para todas estas propuestas. La nueva configuración del Modelo C, pronto denominada Tokamak simétrico, pretendía simplemente verificar los resultados soviéticos, mientras que los demás explorarían formas de ir mucho más allá del T-3. [74]
Los experimentos con el Tokamak simétrico comenzaron en mayo de 1970 y, a principios del año siguiente, habían confirmado los resultados soviéticos y los habían superado. El estelarizador fue abandonado y PPPL dedicó su considerable experiencia al problema del calentamiento del plasma. Dos conceptos parecían prometedores. PPPL propuso utilizar la compresión magnética, una técnica similar a un pellizco para comprimir un plasma caliente para aumentar su temperatura, pero proporcionando esa compresión a través de imanes en lugar de corriente. [75] Oak Ridge sugirió la inyección de haz neutro , pequeños aceleradores de partículas que dispararían átomos de combustible a través del campo magnético circundante donde colisionarían con el plasma y lo calentarían. [76]
El compresor toroidal adiabático (ATC) de PPPL comenzó a funcionar en mayo de 1972, seguido poco después por un Ormak equipado con haz neutro. Ambos presentaron problemas importantes, pero PPPL superó a Oak Ridge al instalar inyectores de haz en el ATC y proporcionó pruebas claras de un calentamiento exitoso en 1973. Este éxito "superó" a Oak Ridge, que cayó en desgracia dentro del Comité Directivo de Washington. [77]
En esa época se estaba construyendo un diseño mucho más grande basado en el calentamiento por haz, el Princeton Large Torus o PLT. El PLT fue diseñado específicamente para "dar una indicación clara de si el concepto de tokamak más el calentamiento auxiliar puede formar una base para un futuro reactor de fusión". [78] El PLT fue un enorme éxito, aumentando continuamente su temperatura interna hasta que alcanzó los 60 millones de Celsius (8.000 eV, ocho veces el récord del T-3) en 1978. Este es un punto clave en el desarrollo del tokamak; las reacciones de fusión se vuelven autosostenibles a temperaturas entre 50 y 100 millones de Celsius; el PLT demostró que esto era técnicamente alcanzable. [78]
Estos experimentos, especialmente el PLT, colocaron a Estados Unidos en una posición de liderazgo en la investigación sobre tokamak. Esto se debe en gran medida al presupuesto: un tokamak costaba unos 500.000 dólares y el presupuesto anual de Estados Unidos para la fusión era de unos 25 millones de dólares en ese momento. [58] Pudieron permitirse explorar todos los métodos prometedores de calentamiento, y finalmente descubrieron que los rayos neutros estaban entre los más eficaces. [79]
Durante este período, Robert Hirsch se hizo cargo de la Dirección de desarrollo de la fusión en la Comisión de Energía Atómica de Estados Unidos . Hirsch consideró que el programa no podía sostenerse con sus niveles de financiación actuales sin demostrar resultados tangibles. Comenzó a reformular todo el programa. Lo que alguna vez había sido un esfuerzo dirigido por el laboratorio de exploración principalmente científica era ahora un esfuerzo dirigido por Washington para construir un reactor de producción de energía en funcionamiento. [79] Esto recibió un impulso con la crisis del petróleo de 1973 , que llevó a un gran aumento de la investigación sobre sistemas de energía alternativa . [80]
A finales de los años 1970, los tokamaks habían alcanzado todas las condiciones necesarias para un reactor de fusión práctico; en 1978, el PLT había demostrado temperaturas de ignición; al año siguiente, el T-7 soviético utilizó con éxito imanes superconductores por primera vez [81]. El Doublet resultó ser un éxito y llevó a que casi todos los diseños futuros adoptaran este enfoque de "plasma moldeado". Parecía que todo lo que se necesitaba para construir un reactor que produjera energía era poner todos estos conceptos de diseño en una sola máquina, una que fuera capaz de funcionar con el tritio radiactivo en su mezcla de combustible. [82]
Durante la década de 1970, se financiaron cuatro importantes propuestas de segunda generación en todo el mundo. Los soviéticos continuaron su linaje de desarrollo con el T-15, [81] mientras que un esfuerzo paneuropeo estaba desarrollando el Joint European Torus (JET) y Japón comenzó el esfuerzo JT-60 (originalmente conocido como "Breakeven Plasma Test Facility"). En los EE. UU., Hirsch comenzó a formular planes para un diseño similar, saltándose las propuestas de otro diseño de transición directamente a uno que quemara tritio. Esto surgió como el Tokamak Fusion Test Reactor (TFTR), operado directamente desde Washington y no vinculado a ningún laboratorio específico. [82] Originalmente favoreciendo Oak Ridge como anfitrión, Hirsch lo trasladó a PPPL después de que otros lo convencieran de que trabajarían más duro en él porque eran los que más tenían que perder. [83]
El entusiasmo era tan grande que en esa época comenzaron varias empresas comerciales para producir tokamaks comerciales. La más conocida de ellas fue la de Bob Guccione , editor de Penthouse Magazine , que en 1978 conoció a Robert Bussard y se convirtió en el mayor y más comprometido inversor privado del mundo en tecnología de fusión, invirtiendo 20 millones de dólares de su propio dinero en el Compact Tokamak de Bussard. La financiación del Banco Riggs hizo que esta iniciativa se conociera como Riggatron . [84]
El TFTR ganó la carrera de la construcción y comenzó a funcionar en 1982, seguido poco después por el JET en 1983 y el JT-60 en 1985. El JET rápidamente se puso a la cabeza de los experimentos críticos, pasando de los gases de prueba al deuterio y a los "disparos" cada vez más potentes. Pero pronto quedó claro que ninguno de los nuevos sistemas funcionaba como se esperaba. Aparecieron una serie de nuevas inestabilidades, junto con una serie de problemas más prácticos que seguían interfiriendo en su rendimiento. Además de esto, eran evidentes las peligrosas "excursiones" del plasma al chocar con las paredes del reactor tanto en el TFTR como en el JET. Incluso cuando funcionaban perfectamente, el confinamiento del plasma a temperaturas de fusión, el llamado " triple producto de fusión ", seguía estando muy por debajo de lo que se necesitaría para un diseño práctico de reactor.
A mediados de los años 1980, las razones de muchos de estos problemas se hicieron evidentes y se propusieron diversas soluciones. Sin embargo, estas aumentarían significativamente el tamaño y la complejidad de las máquinas. Un diseño posterior que incorporara estos cambios sería enorme y mucho más costoso que el JET o el TFTR. Un nuevo período de pesimismo se abatió sobre el campo de la fusión.
Al mismo tiempo que estos experimentos demostraban problemas, gran parte del impulso para la financiación masiva de los EE.UU. desapareció; en 1986 Ronald Reagan declaró que la crisis energética de los años 1970 había terminado, [85] y la financiación para fuentes de energía avanzadas se había reducido a principios de los años 1980.
Desde junio de 1973 se venía pensando en un diseño de reactor internacional bajo el nombre de INTOR (por sus siglas en inglés, International TOkamak Reactor). En un principio, se inició mediante un acuerdo entre Richard Nixon y Leonid Brezhnev , pero se había ido avanzando lentamente desde su primera reunión real el 23 de noviembre de 1978. [86]
Durante la Cumbre de Ginebra de noviembre de 1985, Reagan planteó la cuestión a Mijail Gorbachov y propuso reformar la organización. "... Los dos dirigentes destacaron la importancia potencial de la labor encaminada a utilizar la fusión termonuclear controlada con fines pacíficos y, en este sentido, abogaron por el desarrollo más amplio posible de la cooperación internacional para obtener esta fuente de energía, que es esencialmente inagotable, en beneficio de toda la humanidad". [87]
Al año siguiente, se firmó un acuerdo entre los EE. UU., la Unión Soviética, la Unión Europea y Japón, creando la Organización Internacional del Reactor Termonuclear Experimental . [88] [89]
El trabajo de diseño comenzó en 1988 y desde entonces el reactor ITER ha sido el principal esfuerzo de diseño de tokamak en todo el mundo.
Se sabe desde hace mucho tiempo que unos imanes de campo más fuertes permitirían una mayor ganancia de energía en un tokamak mucho más pequeño, y hace décadas se propusieron conceptos como FIRE, IGNITOR y el Tokamak de encendido compacto (CIT) .
La disponibilidad comercial de superconductores de alta temperatura (HTS) en la década de 2010 abrió un camino prometedor para construir los imanes de campo más alto necesarios para lograr niveles de ganancia de energía similares a los del ITER en un dispositivo compacto. Para aprovechar esta nueva tecnología, el Centro de Ciencia del Plasma y Fusión del MIT (PSFC) y la empresa derivada del MIT Commonwealth Fusion Systems (CFS) construyeron y probaron con éxito la Bobina Modelo de Campo Toroidal (TFMC) en 2021 para demostrar el campo magnético de 20 Tesla necesario para construir SPARC , un dispositivo diseñado para lograr una ganancia de fusión similar a la del ITER pero con solo ~1/40 del volumen de plasma del ITER.
La startup británica Tokamak Energy también está planeando construir un tokamak de energía neta utilizando imanes HTS, pero con la variante tokamak esférico.
El reactor conjunto UE/Japón JT-60SA logró su primer plasma el 23 de octubre de 2023, después de un retraso de dos años causado por un cortocircuito eléctrico. [90] [91]
Los iones con carga positiva y los electrones con carga negativa en un plasma de fusión se encuentran a temperaturas muy altas y tienen velocidades correspondientemente altas. Para mantener el proceso de fusión, las partículas del plasma caliente deben estar confinadas en la región central, o el plasma se enfriará rápidamente. Los dispositivos de fusión por confinamiento magnético aprovechan el hecho de que las partículas cargadas en un campo magnético experimentan una fuerza de Lorentz y siguen trayectorias helicoidales a lo largo de las líneas de campo. [92]
El sistema de confinamiento magnético más simple es un solenoide . Un plasma en un solenoide se desplazará en espiral alrededor de las líneas de campo que recorren su centro, impidiendo el movimiento hacia los lados. Sin embargo, esto no impide el movimiento hacia los extremos. La solución obvia es doblar el solenoide en un círculo, formando un toro. Sin embargo, se demostró que tal disposición no es uniforme; por razones puramente geométricas, el campo en el borde exterior del toro es menor que en el borde interior. Esta asimetría hace que los electrones y los iones se desplacen a través del campo y, finalmente, golpeen las paredes del toro. [29]
La solución es dar forma a las líneas de modo que no se limiten a rodear el toro, sino que se enrosquen como las rayas de un poste de barbero o de un bastón de caramelo . En un campo de este tipo, cualquier partícula individual se encontrará en el borde exterior, donde se desplazará en una dirección, por ejemplo hacia arriba, y luego, al seguir su línea magnética alrededor del toro, se encontrará en el borde interior, donde se desplazará en la otra dirección. Esta cancelación no es perfecta, pero los cálculos demostraron que era suficiente para permitir que el combustible permaneciera en el reactor durante un tiempo útil. [92]
Las dos primeras soluciones para realizar un diseño con la torsión requerida fueron el stellarator , que lo hacía mediante un mecanismo mecánico, retorciendo todo el toro, y el diseño z-pinch, que hacía pasar una corriente eléctrica a través del plasma para crear un segundo campo magnético con el mismo fin. Ambos demostraron tiempos de confinamiento mejorados en comparación con un toro simple, pero ambos también demostraron una variedad de efectos que causaban que el plasma se perdiera de los reactores a tasas que no eran sostenibles.
El tokamak es esencialmente idéntico al concepto z-pinch en su diseño físico. [93] Su innovación clave fue la comprensión de que las inestabilidades que causaban que el pinch perdiera su plasma podían controlarse. El problema era cuán "torcidos" eran los campos; los campos que causaban que las partículas transitaran dentro y fuera más de una vez por órbita alrededor del toro del eje largo eran mucho más estables que los dispositivos que tenían menos torsión. Esta relación de torsiones a órbitas se conoció como el factor de seguridad , denotado q . Los dispositivos anteriores operaban a q aproximadamente 1 ⁄ 3 , mientras que el tokamak opera a q ≫ 1 . Esto aumenta la estabilidad en órdenes de magnitud.
Si analizamos el problema con más detenimiento, surge la necesidad de un componente vertical (paralelo al eje de rotación) del campo magnético. La fuerza de Lorentz de la corriente de plasma toroidal en el campo vertical proporciona la fuerza hacia adentro que mantiene el toro de plasma en equilibrio.
Si bien el tokamak resuelve el problema de la estabilidad del plasma en un sentido general, los plasmas también están sujetos a una serie de inestabilidades dinámicas. Una de ellas, la inestabilidad de torcedura , se ve fuertemente suprimida por el diseño del tokamak, un efecto secundario de los altos factores de seguridad de los tokamaks. La falta de torceduras permitió que el tokamak funcionara a temperaturas mucho más altas que las máquinas anteriores, y esto permitió que aparecieran una serie de nuevos fenómenos.
Una de ellas, las órbitas de plátano , se debe a la amplia gama de energías de las partículas en un tokamak: gran parte del combustible está caliente, pero un cierto porcentaje es mucho más frío. Debido a la alta torsión de los campos en el tokamak, las partículas que siguen sus líneas de fuerza se mueven rápidamente hacia el borde interior y luego hacia el exterior. A medida que se mueven hacia adentro, están sujetas a campos magnéticos cada vez mayores debido al radio más pequeño que concentra el campo. Las partículas de baja energía en el combustible se reflejarán en este campo creciente y comenzarán a viajar hacia atrás a través del combustible, chocando con los núcleos de mayor energía y dispersándolos fuera del plasma. Este proceso hace que se pierda combustible del reactor, aunque este proceso es lo suficientemente lento como para que un reactor práctico aún esté al alcance de la mano. [94]
Otra inestabilidad es la inestabilidad por desgarro. En 2024, los investigadores utilizaron el aprendizaje por refuerzo frente a un modelo dinámico multimodal para medir y pronosticar dichas inestabilidades basándose en señales de múltiples diagnósticos y actuadores a intervalos de 25 milisegundos. Este pronóstico se utilizó para reducir las inestabilidades por desgarro en DIII-D6 , en los EE. UU. La función de recompensa equilibró los objetivos conflictivos de la presión plasmática máxima y los riesgos de inestabilidad. En particular, el plasma siguió activamente la trayectoria estable mientras mantenía el rendimiento del modo H. [95] [96]
Uno de los primeros objetivos de cualquier dispositivo de fusión controlada es alcanzar el punto de equilibrio , el punto en el que la energía liberada por las reacciones de fusión es igual a la cantidad de energía que se utiliza para mantener la reacción. La relación entre la energía de salida y la de entrada se denota por Q y el punto de equilibrio corresponde a un Q de 1. Se necesita un Q de más de uno para que el reactor genere energía neta, pero por razones prácticas, es deseable que sea mucho más alto.
Una vez que se alcanza el punto de equilibrio, las mejoras adicionales en el confinamiento generalmente conducen a un aumento rápido de Q. Esto se debe a que parte de la energía que se emite por las reacciones de fusión del combustible de fusión más común, una mezcla 50-50 de deuterio y tritio , está en forma de partículas alfa . Estas pueden colisionar con los núcleos de combustible en el plasma y calentarlo, lo que reduce la cantidad de calor externo necesario. En algún momento, conocido como ignición , este autocalentamiento interno es suficiente para mantener la reacción en marcha sin ningún calentamiento externo, lo que corresponde a un Q infinito .
En el caso del tokamak, este proceso de autocalentamiento se maximiza si las partículas alfa permanecen en el combustible el tiempo suficiente para garantizar que colisionarán con él. Como las partículas alfa están cargadas eléctricamente, están sujetas a los mismos campos que confinan el plasma del combustible. La cantidad de tiempo que pasan en el combustible se puede maximizar asegurando que su órbita en el campo permanezca dentro del plasma. Se puede demostrar que esto ocurre cuando la corriente eléctrica en el plasma es de aproximadamente 3 MA. [97]
A principios de los años 1970, los estudios realizados en Princeton sobre el uso de imanes superconductores de alta potencia en futuros diseños de tokamak examinaron la disposición de los imanes. Observaron que la disposición de las bobinas toroidales principales significaba que había significativamente más tensión entre los imanes en el interior de la curvatura donde estaban más cerca entre sí. Teniendo esto en cuenta, observaron que las fuerzas de tensión dentro de los imanes se equilibrarían si tuvieran forma de D, en lugar de O. Esto se conoció como la "bobina D de Princeton". [98]
No era la primera vez que se consideraba este tipo de disposición, aunque por razones completamente diferentes. El factor de seguridad varía a lo largo del eje de la máquina; por razones puramente geométricas, siempre es menor en el borde interior del plasma más cercano al centro de la máquina porque el eje largo es más corto allí. Eso significa que una máquina con un q promedio = 2 podría ser menor que 1 en ciertas áreas. En la década de 1970, se sugirió que una forma de contrarrestar esto y producir un diseño con un q promedio más alto sería dar forma a los campos magnéticos de modo que el plasma solo llenara la mitad exterior del toro, con forma de D o C cuando se mira de frente, en lugar de la sección transversal circular normal.
Una de las primeras máquinas en incorporar un plasma en forma de D fue el JET , que comenzó su trabajo de diseño en 1973. Esta decisión se tomó tanto por razones teóricas como prácticas; debido a que la fuerza es mayor en el borde interior del toro, hay una gran fuerza neta que presiona hacia adentro en todo el reactor. La forma de D también tenía la ventaja de reducir la fuerza neta, así como de hacer que el borde interior soportado fuera más plano para que fuera más fácil de sostener. [99] Code, que exploraba el diseño general, notó que una forma no circular se desplazaría lentamente en forma vertical, lo que llevó a la adición de un sistema de retroalimentación activo para mantenerla en el centro. [100] Una vez que JET seleccionó este diseño, el equipo Doublet III de General Atomics rediseñó esa máquina en el D-IIID con una sección transversal en forma de D, y también fue seleccionado para el diseño japonés JT-60 . Este diseño ha sido en gran parte universal desde entonces.
Un problema que se observa en todos los reactores de fusión es que la presencia de elementos más pesados hace que la energía se pierda a un ritmo mayor, enfriando el plasma. Durante el desarrollo más temprano de la energía de fusión, se encontró una solución a este problema: el divertor , que es básicamente un gran espectrómetro de masas que haría que los elementos más pesados fueran arrojados fuera del reactor. Esto fue inicialmente parte de los diseños de stellarator , donde es fácil de integrar en los devanados magnéticos. Sin embargo, diseñar un divertor para un tokamak resultó ser un problema de diseño muy difícil.
Otro problema que se observa en todos los diseños de fusión es la carga térmica que el plasma coloca en la pared del recipiente de confinamiento. Hay materiales que pueden soportar esta carga, pero generalmente son metales pesados indeseables y costosos . Cuando estos materiales se pulverizan en colisiones con iones calientes, sus átomos se mezclan con el combustible y lo enfrían rápidamente. Una solución utilizada en la mayoría de los diseños de tokamak es el limitador , un pequeño anillo de metal ligero que se proyecta dentro de la cámara para que el plasma lo golpee antes de golpear las paredes. Esto erosiona el limitador y hace que sus átomos se mezclen con el combustible, pero estos materiales más ligeros causan menos perturbaciones que los materiales de la pared.
Cuando los reactores pasaron a utilizar plasmas en forma de D, se observó rápidamente que el flujo de partículas que escapaban del plasma también podía moldearse. Con el tiempo, esto condujo a la idea de utilizar los campos para crear un desviador interno que expulsa los elementos más pesados del combustible, normalmente hacia el fondo del reactor. Allí, se utiliza un depósito de metal de litio líquido como una especie de limitador; las partículas lo golpean y se enfrían rápidamente, permaneciendo en el litio. Este depósito interno es mucho más fácil de enfriar, debido a su ubicación, y aunque algunos átomos de litio se liberan en el plasma, su masa muy baja hace que sea un problema mucho menor que incluso los metales más ligeros utilizados anteriormente.
A medida que las máquinas comenzaron a explorar este plasma de nueva forma , notaron que ciertas disposiciones de los campos y parámetros del plasma a veces entraban en lo que ahora se conoce como modo de alto confinamiento o modo H, que operaba de manera estable a temperaturas y presiones más altas. Operar en el modo H, que también se puede ver en los estellaradores, es ahora un objetivo de diseño importante del diseño del tokamak.
Por último, se observó que cuando el plasma tenía una densidad no uniforme, daba lugar a corrientes eléctricas internas, conocidas como corriente de arranque . Esto permite que un reactor diseñado adecuadamente genere parte de la corriente interna necesaria para torcer las líneas del campo magnético sin tener que suministrarla desde una fuente externa. Esto tiene varias ventajas y todos los diseños modernos intentan generar la mayor parte posible de su corriente total a través del proceso de arranque.
A principios de los años 1990, la combinación de estas características y otras en conjunto dio origen al concepto de "tokamak avanzado", que constituye la base de la investigación moderna, incluido el ITER.
Los tokamaks están sujetos a eventos conocidos como "disrupciones" que hacen que el confinamiento se pierda en milisegundos . Hay dos mecanismos principales. En uno, el "evento de desplazamiento vertical" (VDE), todo el plasma se mueve verticalmente hasta que toca la sección superior o inferior de la cámara de vacío. En el otro, la "disrupción mayor", las inestabilidades magnetohidrodinámicas no axisimétricas de longitud de onda larga hacen que el plasma se vea obligado a adoptar formas no simétricas, a menudo comprimiéndose en la parte superior e inferior de la cámara. [101]
Cuando el plasma toca las paredes del recipiente, sufre un enfriamiento rápido o "extinción térmica". En el caso de una interrupción importante, esto normalmente va acompañado de un breve aumento de la corriente de plasma a medida que el plasma se concentra. La extinción finalmente hace que el confinamiento del plasma se rompa. En el caso de una interrupción importante, la corriente cae de nuevo, lo que se conoce como "extinción de la corriente". El aumento inicial de la corriente no se observa en el VDE, y la extinción térmica y de la corriente se producen al mismo tiempo. [101] En ambos casos, la carga térmica y eléctrica del plasma se deposita rápidamente en el recipiente del reactor, que tiene que ser capaz de manejar estas cargas. El ITER está diseñado para manejar 2600 de estos eventos a lo largo de su vida útil. [102]
En los dispositivos modernos de alta energía, donde las corrientes de plasma son del orden de 15 megaamperios en el ITER , es posible que el breve aumento de la corriente durante una interrupción importante cruce un umbral crítico. Esto ocurre cuando la corriente produce una fuerza sobre los electrones que es mayor que las fuerzas de fricción de las colisiones entre partículas en el plasma. En este caso, los electrones pueden acelerarse rápidamente a velocidades relativistas, creando los llamados "electrones desbocados" en la avalancha de electrones desbocados relativista . Estos conservan su energía incluso mientras se produce la extinción de la corriente en la mayor parte del plasma. [102]
Cuando finalmente se rompe el confinamiento, estos electrones desbocados siguen el camino de menor resistencia e impactan contra el costado del reactor. Pueden alcanzar 12 megaamperios de corriente depositados en un área pequeña, mucho más allá de las capacidades de cualquier solución mecánica. [101] En un caso famoso, el Tokamak de Fontenay aux Roses sufrió una importante interrupción donde los electrones desbocados hicieron un agujero en la cámara de vacío. [102]
La incidencia de grandes perturbaciones en los tokamaks en funcionamiento siempre ha sido bastante alta, del orden de un pequeño porcentaje del número total de disparos. En los tokamaks que se encuentran en funcionamiento actualmente, los daños suelen ser importantes, pero rara vez son dramáticos. En el tokamak del ITER, se espera que la aparición de un número limitado de grandes perturbaciones dañe definitivamente la cámara sin posibilidad de restaurar el dispositivo. [103] [104] [105] El desarrollo de sistemas para contrarrestar los efectos de los electrones fuera de control se considera una pieza de tecnología imprescindible para el ITER a nivel operativo. [102]
Una gran amplitud de la densidad de corriente central también puede dar lugar a perturbaciones internas , o dientes de sierra, que generalmente no dan lugar a la terminación de la descarga. [106]
Las densidades superiores al límite de Greenwald, un límite que depende de la corriente de plasma y del radio menor, suelen provocar disrupciones. [107] [108] Se ha superado hasta factores de 10, [109] pero sigue siendo un concepto importante que describe la fenomenología de la transición del flujo de plasma, que aún necesita ser comprendido. [110]
En un reactor de fusión en funcionamiento, parte de la energía generada servirá para mantener la temperatura del plasma a medida que se introducen nuevos deuterio y tritio . Sin embargo, en la puesta en marcha de un reactor, ya sea inicialmente o después de una parada temporal, el plasma tendrá que calentarse a su temperatura de funcionamiento de más de 10 keV (más de 100 millones de grados Celsius). En los actuales experimentos de fusión magnética con tokamak (y otros), se produce una energía de fusión insuficiente para mantener la temperatura del plasma, y debe suministrarse un calentamiento externo constante. Los investigadores chinos instalaron el Tokamak Superconductor Avanzado Experimental (EAST) en 2006, que supuestamente puede mantener una temperatura de plasma de 100 millones de grados Celsius para iniciar la fusión entre átomos de hidrógeno, según una prueba de noviembre de 2018.
Dado que el plasma es un conductor eléctrico, es posible calentarlo induciendo una corriente a través de él; la corriente inducida que proporciona la mayor parte del campo poloidal también es una fuente importante de calentamiento inicial.
El calentamiento causado por la corriente inducida se denomina calentamiento óhmico (o resistivo); es el mismo tipo de calentamiento que se produce en una bombilla eléctrica o en un calentador eléctrico. El calor generado depende de la resistencia del plasma y de la cantidad de corriente eléctrica que circula a través de él. Pero a medida que aumenta la temperatura del plasma calentado, la resistencia disminuye y el calentamiento óhmico se vuelve menos efectivo. Parece que la temperatura máxima del plasma alcanzable mediante calentamiento óhmico en un tokamak es de 20 a 30 millones de grados Celsius. Para obtener temperaturas aún más altas, se deben utilizar métodos de calentamiento adicionales.
La corriente se induce aumentando continuamente la corriente a través de un devanado electromagnético conectado al toro de plasma: el plasma puede considerarse como el devanado secundario de un transformador. Se trata de un proceso inherentemente pulsado porque existe un límite a la corriente a través del primario (también existen otras limitaciones para los pulsos largos). Por lo tanto, los tokamaks deben funcionar durante períodos cortos o depender de otros medios de calentamiento y de conducción de corriente.
Un gas puede calentarse mediante una compresión repentina. De la misma manera, la temperatura de un plasma aumenta si se lo comprime rápidamente aumentando el campo magnético que lo confina. En un tokamak, esta compresión se logra simplemente moviendo el plasma hacia una región de mayor campo magnético (es decir, radialmente hacia adentro). Dado que la compresión del plasma acerca los iones, el proceso tiene el beneficio adicional de facilitar la obtención de la densidad requerida para un reactor de fusión.
La compresión magnética fue un área de investigación en la "estampida del tokamak" inicial y fue el propósito de un diseño importante, el ATC. El concepto no se ha utilizado ampliamente desde entonces, aunque un concepto algo similar forma parte del diseño de General Fusion .
La inyección de haz neutro implica la introducción de átomos o moléculas de alta energía (de rápido movimiento) en un plasma calentado óhmicamente y confinado magnéticamente dentro del tokamak.
Los átomos de alta energía se originan como iones en una cámara de arco antes de ser extraídos a través de un conjunto de rejillas de alto voltaje. El término "fuente de iones" se utiliza para referirse en general al conjunto que consiste en un conjunto de filamentos emisores de electrones, un volumen de cámara de arco y un conjunto de rejillas de extracción. Se utiliza un segundo dispositivo, de concepto similar, para acelerar por separado los electrones hasta la misma energía. La masa mucho más ligera de los electrones hace que este dispositivo sea mucho más pequeño que su contraparte iónica. Luego, los dos haces se cruzan, donde los iones y los electrones se recombinan en átomos neutros, lo que les permite viajar a través de los campos magnéticos.
Una vez que el haz neutro entra en el tokamak, se producen interacciones con los iones principales del plasma. Esto tiene dos efectos. Uno es que los átomos inyectados se reionizan y se cargan, quedando así atrapados dentro del reactor y sumándose a la masa de combustible. El otro es que el proceso de ionización se produce a través de impactos con el resto del combustible, y estos impactos depositan energía en ese combustible, calentándolo.
Esta forma de calentamiento no tiene una limitación inherente de energía (temperatura), a diferencia del método óhmico, pero su velocidad está limitada a la corriente en los inyectores. Los voltajes de extracción de la fuente de iones suelen ser del orden de 50 a 100 kV, y se están desarrollando fuentes de iones negativos de alto voltaje (-1 MV) para el ITER. La instalación de prueba de haz neutro del ITER en Padua será la primera instalación del ITER en comenzar a funcionar. [111]
Si bien la inyección de haz neutro se utiliza principalmente para calentar plasma, también se puede utilizar como herramienta de diagnóstico y en el control de retroalimentación mediante la creación de un haz pulsado que consiste en una serie de breves destellos de 2 a 10 ms. El deuterio es un combustible principal para los sistemas de calentamiento de haz neutro y, a veces, se utilizan hidrógeno y helio para experimentos seleccionados.
Las ondas electromagnéticas de alta frecuencia son generadas por osciladores (a menudo por girotrones o klistrones ) fuera del toro. Si las ondas tienen la frecuencia (o longitud de onda) y la polarización correctas, su energía puede transferirse a las partículas cargadas en el plasma, que a su vez chocan con otras partículas de plasma, aumentando así la temperatura del plasma en masa. Existen varias técnicas, incluido el calentamiento por resonancia ciclotrónica de electrones (ECRH) y el calentamiento por resonancia ciclotrónica de iones . Esta energía generalmente se transfiere mediante microondas.
Las descargas de plasma dentro de la cámara de vacío del tokamak consisten en iones y átomos energizados. La energía de estas partículas finalmente alcanza la pared interior de la cámara a través de radiación, colisiones o falta de confinamiento. El calor de las partículas se elimina por conducción a través de la pared interior de la cámara hasta un sistema de refrigeración por agua, donde el agua calentada pasa a un sistema de refrigeración externo a través de convección.
Las bombas turbomoleculares o de difusión permiten evacuar las partículas del volumen total y las bombas criogénicas, que consisten en una superficie enfriada con helio líquido, sirven para controlar eficazmente la densidad durante toda la descarga al proporcionar un sumidero de energía para que se produzca la condensación. Cuando se realizan correctamente, las reacciones de fusión producen grandes cantidades de neutrones de alta energía . Al ser eléctricamente neutros y relativamente pequeños, los neutrones no se ven afectados por los campos magnéticos ni se detienen mucho por la cámara de vacío circundante.
El flujo de neutrones se reduce significativamente en un escudo de neutrones construido especialmente que rodea al tokamak en todas las direcciones. Los materiales del escudo varían, pero generalmente están hechos de átomos de un tamaño cercano al de los neutrones, porque estos funcionan mejor para absorber el neutrón y su energía. Algunos materiales candidatos adecuados son aquellos que contienen mucho hidrógeno, como el agua y los plásticos. Los átomos de boro también son buenos absorbentes de neutrones. Por lo tanto, el hormigón y el polietileno dopado con boro son materiales económicos para el blindaje contra neutrones.
Una vez liberado, el neutrón tiene una vida media relativamente corta, de unos 10 minutos, antes de desintegrarse en un protón y un electrón, emitiendo energía. Cuando llegue el momento de intentar producir electricidad a partir de un reactor basado en un tokamak, algunos de los neutrones producidos en el proceso de fusión serían absorbidos por una capa de metal líquido y su energía cinética se utilizaría en procesos de transferencia de calor para, en última instancia, hacer girar un generador.
(en orden cronológico de inicio de operaciones)