stringtranslate.com

Pellizco theta

El Scylla original se completó en 1958 y pronto demostró las primeras reacciones de fusión controladas. La cámara de reacción es el centro del tubo blanco de la derecha.

Theta-pinch , o θ-pinch , es un tipo de diseño de reactor de potencia de fusión . El nombre se refiere a la configuración de corrientes utilizadas para confinar el combustible de plasma en el reactor, dispuestas para circular alrededor de un cilindro en la dirección normalmente indicada como theta en los diagramas de coordenadas polares . El nombre se eligió para diferenciarlo de las máquinas basadas en el efecto de pinzamiento que organizaban sus corrientes para que recorrieran el centro del cilindro; estas se conocieron como máquinas z-pinch , en referencia al eje Z en coordenadas cartesianas .

El concepto de theta-pinch se desarrolló principalmente en Estados Unidos, principalmente en el Laboratorio Nacional de Los Álamos (LANL) en una serie de máquinas conocidas como Scylla. En 1958, Scylla I fue la primera máquina que demostró claramente las reacciones de fusión termonuclear del deuterio de manera controlada. Se convirtió en una de las principales líneas de investigación sobre fusión durante la década de 1960. General Electric y el Laboratorio de Investigación Naval también experimentaron con el concepto y, más tarde, muchos laboratorios internacionales. Una serie de máquinas fue coronada por Scylla IV, que demostró temperaturas de hasta 80 millones  de K , más que suficiente para mantener un plasma en llamas. Durante estas pruebas, Scylla IV produjo miles de millones de reacciones de fusión.

Las máquinas Scylla también demostraron tiempos de confinamiento muy pobres, del orden de unos pocos microsegundos. Se creía que esto se debía a pérdidas en los extremos de los tubos lineales. Scyllac (Scylla-closed) fue diseñado para probar una versión toroidal que mejoraría el confinamiento mil veces. Un error de diseño hizo que Scyllac no pudiera acercarse ni de lejos al rendimiento deseado, y la Comisión de Energía Atómica de los Estados Unidos cerró el programa en 1977 para centrarse en el tokamak y el espejo magnético .

Parte de la falta de interés en theta desde la década de 1970 se debe a una variación del diseño conocida como configuración de campo invertido o FRC, que ha sido objeto de una importante exploración. En esta versión, los campos magnéticos inducidos se ven obligados a adoptar una forma cerrada que proporciona un mejor confinamiento. Las diferencias son suficientes para que las FRC se consideren un concepto independiente. Del mismo modo, el theta-pinch se observa a menudo en los sistemas de fusión de objetivos magnetizados , pero estos también difieren significativamente del concepto original.

Fundamentos de la fusión

La fusión nuclear se produce cuando los núcleos , protones y neutrones , se acercan lo suficiente como para que la fuerza nuclear los junte y forme un único núcleo más grande. A esta acción se opone la fuerza electrostática , que hace que las partículas cargadas eléctricamente con cargas similares, como los protones, se repelan entre sí. Para fusionarse, las partículas deben viajar lo suficientemente rápido como para superar esta barrera de Coulomb . La fuerza nuclear aumenta con el número de núcleos, y la barrera de Coulomb se reduce cuando se maximiza el número de neutrones en los núcleos, lo que lleva a que la tasa de fusión se maximice para los isótopos de elementos más ligeros como el hidrógeno y el helio con neutrones adicionales. [1]

Utilizando el electromagnetismo clásico , las energías necesarias para superar la barrera de Coulomb serían enormes. Los cálculos cambiaron considerablemente durante la década de 1920 a medida que los físicos exploraron la nueva ciencia de la mecánica cuántica . El artículo de 1928 de George Gamow sobre el efecto túnel cuántico demostró que las reacciones nucleares podían tener lugar a energías mucho más bajas que las predichas por la teoría clásica. Utilizando esta nueva teoría, en 1929 Fritz Houtermans y Robert Atkinson demostraron que las velocidades de reacción esperadas en el núcleo del Sol apoyaban la sugerencia de 1920 de Arthur Eddington de que el Sol se alimenta por fusión. [1] En 1934, Mark Oliphant , Paul Harteck y Ernest Rutherford fueron los primeros en lograr la fusión en la Tierra, utilizando un acelerador de partículas para disparar núcleos de deuterio en una lámina metálica que contenía deuterio, litio y otros elementos. [2] Esto les permitió medir la sección transversal nuclear de varias reacciones de fusión y determinaron que la reacción deuterio-deuterio se producía a la energía más baja, alcanzando un máximo de aproximadamente 100.000  electronvoltios (100 keV). [3]

Esta energía corresponde a la energía media de las partículas en un gas calentado a unos 10 mil millones de Kelvin (K). Los materiales calentados más allá de unos pocos miles de K se disocian en sus electrones y núcleos , produciendo un estado de materia similar al gas conocido como plasma . En cualquier gas, las partículas tienen un amplio rango de energías, normalmente siguiendo la estadística de Maxwell-Boltzmann . En una mezcla de este tipo, una pequeña cantidad de partículas tendrá una energía mucho mayor que el volumen. [4] Esto conduce a una posibilidad interesante: incluso a temperaturas medias muy por debajo de los 100 keV, algunas partículas dentro del gas tendrán aleatoriamente suficiente energía para sufrir fusión. Esas reacciones liberan enormes cantidades de energía. Si esa energía puede ser capturada de nuevo en el plasma, puede calentar otras partículas a esa energía también, haciendo que la reacción sea autosostenible. En 1944, Enrico Fermi calculó que esto ocurriría a unos 50 millones de K para un combustible de deuterio-tritio. [5] [6] [a]

Aprovechar esta posibilidad requiere que el plasma de combustible se mantenga unido el tiempo suficiente para que estas reacciones aleatorias tengan tiempo de ocurrir. Como cualquier gas caliente, el plasma tiene una presión interna y, por lo tanto, quiere expandirse de acuerdo con la ley de los gases ideales . [4] Para un reactor de fusión, el problema es mantener el plasma contenido contra esta presión; cualquier sustancia conocida se derretiría a estas temperaturas. [7] Como consiste en partículas cargadas que se mueven libremente, el plasma es conductor de electricidad . Esto lo hace sujeto a campos eléctricos y magnéticos. En un campo magnético, los electrones y los núcleos orbitan las líneas del campo magnético. [7] [8] [9] Un sistema de confinamiento simple es un tubo lleno de plasma colocado dentro del núcleo abierto de un solenoide . El plasma naturalmente quiere expandirse hacia afuera a las paredes del tubo, así como moverse a lo largo de él, hacia los extremos. El solenoide crea un campo magnético que corre por el centro del tubo, que las partículas orbitarán, impidiendo su movimiento hacia los lados. Desafortunadamente, esta disposición no confina el plasma a lo largo del tubo, y el plasma es libre de fluir hacia los extremos. Para una máquina puramente experimental, las pérdidas no son necesariamente un problema importante, pero un sistema de producción tendría que eliminar estas pérdidas finales. [10]

Efecto de pellizco

En los primeros días del programa de fusión, surgieron rápidamente tres diseños que abordaban estos problemas. El estelarizador era un dispositivo algo complejo pero tenía algunas cualidades atractivas. Los dispositivos de espejo magnético y de efecto pinzado eran drásticamente más simples; el primero consistía en un solenoide modificado y el segundo es efectivamente una versión de alta potencia de una lámpara fluorescente . El efecto pinzado, en particular, parecía una solución extremadamente simple al problema del confinamiento y se estaba estudiando activamente en laboratorios de los EE. UU., el Reino Unido y la URSS. [11]

Cuando se empezaron a probar estas máquinas en niveles de confinamiento más altos, rápidamente se hizo evidente un problema importante. Cuando se aplicaba la corriente y el plasma comenzaba a compactarse formando una columna, se volvía inestable, se retorcía y finalmente golpeaba los lados del tubo. Pronto se comprendió que esto se debía a pequeñas diferencias en la densidad del gas; cuando se aplicaba la descarga, las áreas donde la densidad era incluso ligeramente superior tenían una corriente más alta y, por lo tanto, más presión magnética. Esto hacía que esa área se compactara más rápidamente, lo que aumentaba aún más la densidad y una reacción en cadena conocida como "la torcedura" lo obligaba a salir del área de confinamiento. [11]

A principios de los años 50, todos estos esfuerzos eran secretos. Esto terminó en 1956, cuando Igor Kurchatov , director del proyecto soviético de la bomba atómica , se ofreció a dar una charla a sus homólogos del Reino Unido. Para gran sorpresa de todos, Kurchatov describió el programa soviético de fusión, hablando principalmente de pinchazos lineales y los grandes problemas que estaban teniendo con la estabilidad del plasma. Los británicos ya sabían que Estados Unidos tenía problemas similares, y también tenía los suyos propios. Ahora parecía que no había una ruta rápida hacia la fusión, y se desarrolló un esfuerzo para desclasificar todo el campo. Los tres países publicaron sus investigaciones en 1958 en la segunda reunión de Átomos para la Paz en Ginebra. [12]

Pellizco theta

Un enfoque para resolver los problemas de estabilidad observados en las máquinas de pinzado fue el concepto de "pinzamiento rápido". En este enfoque, la corriente eléctrica que generaba el pinzado se aplicaba en una única ráfaga breve. La ráfaga era demasiado breve para provocar el colapso de todo el plasma; en lugar de ello, solo se comprimían las capas externas, y tan rápidamente que se formaba una onda de choque . El objetivo era utilizar esta onda de choque para comprimir el plasma en lugar del pinzado normal que intentaba colapsar toda la columna de plasma. [13]

El espejo y el estelarizador no comprimían su plasma en gran medida y no parecían sufrir problemas de estabilidad. Sin embargo, estos dispositivos tenían un problema práctico. En el sistema de pinza, el colapso del plasma hacía que se calentara, lo que significa que la corriente proporcionaba tanto la fuerza de confinamiento como el calor necesarios para iniciar las reacciones de fusión. Con los otros dispositivos, se necesitaría alguna fuente externa de calor. Richard Post , líder del programa de espejos de EE. UU. en el Laboratorio Nacional Lawrence Livermore (LLNL), produjo una serie de espejos que usaban imanes externos para comprimir el plasma. [14]

En el Laboratorio de Investigación Naval (NRL), Alan Kolb vio el concepto de compresión del espejo y se le ocurrió la idea de combinarlo con la compresión por choque del método de pinzamiento rápido, obteniendo las ventajas de ambos. Su primer concepto consistía en un espejo con un anillo de metal en cada extremo. Una vez que se había formado un plasma en el espejo, se enviaba una única y enorme ráfaga de corriente a los dos anillos. La idea era provocar un pinzamiento rápido en cada extremo del tubo, creando ondas de choque que se moverían hacia adentro y se encontrarían en el medio del espejo. [13]

Mientras consideraban este diseño, se les presentó un enfoque completamente nuevo. En esta versión, la presión se inducía a través de una sola lámina ancha de cobre que envolvía el tubo. Cuando se activaba, la corriente fluía alrededor del exterior del tubo, creando un campo magnético en ángulo recto que recorría el eje longitudinal del tubo. Este campo, a su vez, inducía una corriente que fluía alrededor del exterior del plasma, o "zona límite". [15]

Según la ley de Lenz , esta corriente tendría una dirección que produciría un campo magnético en dirección opuesta a la que la creó. Esto tuvo el efecto de empujar el campo original fuera del plasma, hacia el de la lámina de cobre. Fue la interacción entre estos dos campos en el área entre el plasma y la pared del recipiente lo que creó la fuerza impulsora hacia adentro que comprimió el plasma. Como no había corriente en la masa del plasma, no estaría sujeto a las inestabilidades que se observaban en los otros dispositivos de compresión. [13]

Cuando el nuevo diseño se hizo conocido en los laboratorios de energía, James L. Tuck de Los Álamos lo bautizó como theta-pinch [16] para distinguirlo del enfoque pinch original. Los diseños pinch originales pasaron a conocerse retroactivamente como z-pinch. [13] Otros también se mostraron interesados ​​en el diseño; en General Electric (GE) se formó un pequeño equipo para considerar el concepto como la base para un reactor productor de energía. [17]

Éxito de la fusión

El ZETA británico entró en funcionamiento en agosto de 1957 y, a finales del mes siguiente, el equipo ya medía de forma constante explosiones de millones de neutrones. La visita de Kurchatov el año anterior había advertido de que no había que apresurarse a concluir que los neutrones del sistema eran el resultado de la fusión y que existían otras reacciones que podían producirlos. El equipo del ZETA no lo consideró con suficiente detenimiento y se convenció de que habían producido reacciones de fusión. Lo hicieron público el 25 de enero de 1958 y se convirtió inmediatamente en noticia mundial. [18] Sin embargo, trabajos posteriores realizados en abril demostraron claramente que los neutrones no provenían de la fusión, sino de inestabilidades en el plasma que no se podían ver en su equipo de pruebas. [19]

En el NRL, Kolb comenzó a construir una nueva versión de su máquina Pharos para probar el concepto de un solo anillo. [b] Al mismo tiempo, en Los Álamos, Tuck comenzó a construir un sistema con dos anillos, similar al espejo Kolb original. [20] Tuck, aficionado a los nombres mitológicos, llamó al diseño Scylla. [16] Scylla I comenzó a funcionar a principios de 1958 y pronto estaba emitiendo decenas de miles de neutrones por pulso. Fue en ese momento cuando Keith Boyer comenzó una modificación para utilizar una bobina de una sola vuelta como Pharos. Cuando se puso en marcha la nueva versión, comenzó a emitir decenas de millones de neutrones. [15]

Los acontecimientos que rodearon las afirmaciones de ZETA obligaron al equipo de Scylla a asegurarse absolutamente de que los neutrones provenían de la fusión, y el equipo pasó el verano de 1958 realizando todo tipo de mediciones independientes con este fin. En ese momento, el Pharos de Kolb también estaba produciendo neutrones. El objetivo era tener resultados definitivos de una manera u otra a tiempo para la reunión en Ginebra. [15] Desafortunadamente, simplemente no hubo tiempo suficiente; el equipo envió Scylla I a la feria en septiembre y mencionó que estaba generando alrededor de 20 millones de neutrones por disparo, [21] pero tuvo cuidado de no hacer ninguna afirmación sobre su origen. [22]

La evidencia final se proporcionó poco después del programa. Una amplia variedad de experimentos en el sistema demostraron que los iones se termalizaban a unos 15 millones de Kelvin, mucho más calientes que ZETA y lo suficientemente calientes como para explicar los neutrones si provenían de reacciones de fusión. Esta fue la primera evidencia clara de que las reacciones de fusión termonuclear del deuterio en el laboratorio eran posibles. [23] [24]

Dispositivos posteriores

Preocupado por el aumento constante de los costes del programa de fusión, Paul McDaniel, director de la División de Investigación de la Comisión de Energía Atómica de los Estados Unidos (AEC), decidió que el presupuesto del año fiscal 1963 debía cancelar uno de los muchos diseños que se estaban desarrollando en los laboratorios. Tuck había mantenido que todos los investigadores debían centrarse sólo en sistemas pequeños para demostrar la física, que no tenía sentido aumentar la escala a menos que se pudieran demostrar los conceptos básicos. Así, Los Álamos tenía una gran cantidad de máquinas pequeñas, lo que les dejaba sin un único concepto decisivo. McDaniel sufriría menos consecuencias políticas si cancelaba uno de los programas de Los Álamos. Esto enseñó a Tuck una lección importante: la forma de evitar la cancelación era ser demasiado grande para fracasar . Durante su testimonio ante el Congreso en 1964, declaró: "Resistimos la tentación de construir máquinas enormes o contratar personal numeroso. Esto suena muy virtuoso, pero ahora me he dado cuenta de que era suicida". [25] Tuck, Richard Taschek y el director de Los Álamos, Norris Bradbury, estaban convencidos de que el laboratorio necesitaba una máquina importante. [25]

Mientras tanto, el éxito de Scylla I condujo a una serie de posibles vías de desarrollo que comenzaron a explorarse a principios de la década de 1960. A corto plazo, un conjunto de mejoras menores produjo Scylla II, que era similar al original pero luego se actualizó de 35 kJ de potencia de condensador a 185. Entró en funcionamiento en 1959, pero se usó solo brevemente mientras se construía el Scylla III, mucho más grande, y entró en funcionamiento a fines de 1960. Las primeras operaciones fueron exitosas y condujeron rápidamente al Scylla IV, aún más grande, que comenzó a funcionar en enero de 1963. Scylla IV produjo excelentes resultados, alcanzando 80 millones de Kelvin y densidades de partículas de 2 x 10 16 [26] , muy dentro de la región práctica del reactor, y estaba produciendo miles de millones de reacciones por pulso. [23] Desafortunadamente, el sistema también demostró tiempos de confinamiento muy bajos, del orden de 2 microsegundos, demasiado cortos para un diseño de reactor práctico. [26]

Durante la década de 1960, el programa theta-pinch surgió como uno de los principales en el campo de la fusión. Se crearon nuevos equipos en Aldermaston y en el recientemente inaugurado Culham en el Reino Unido, en el Campus Garching y el Forschungszentrum Jülich en Alemania, en los Laboratorios Nacionales Frascati en Italia y en la Universidad de Nagoya , la Universidad de Osaka y la Universidad de Nihon en Japón. [27] [28] Estos experimentos demostraron que el sistema estaba sujeto a una nueva forma de inestabilidad, la inestabilidad m = 2, que hace que el plasma se adelgace desde su forma cilíndrica original hasta adoptar una forma similar a una barra. Esto dio lugar a numerosos experimentos con diferentes diseños para evitar la rotación del plasma que causaba esta inestabilidad. [24]

En esa época, General Electric se retiró. Como parecía que no era posible ningún avance en el rendimiento a corto plazo, seguir adelante con su investigación requeriría máquinas más grandes que no estaban dispuestos a construir utilizando únicamente fondos internos. Se publicó un análisis del campo bajo la dirección de Leslie Cook, que concluía que "la probabilidad de que se desarrolle una central eléctrica de fusión económicamente exitosa en el futuro previsible es pequeña". GE recurrió a AEC para obtener financiación, pero esta fue rechazada porque su programa no parecía ofrecer nada nuevo en comparación con Scylla IV. GE luego canceló su programa. [29]

Theta toroidal

Fred Ribe describe el concepto de Scyllac. El campo M&S original se encuentra en la parte superior derecha, el camino interior se alarga gracias a la serie de ondulaciones del campo. Los imanes necesarios para ello se encuentran en la parte inferior derecha.

Los investigadores estaban convencidos de que los cortos tiempos de confinamiento se debían a las pérdidas de partículas de los extremos abiertos del reactor. En 1965, Fred Ribe, que había sustituido a Tuck como líder del equipo Scylla, comenzó a examinar reactores prácticos basados ​​en el diseño de Scylla. Descubrieron que el sistema podía mejorarse utilizando la manta de reproducción como una especie de conductor magnético, lo que permitía que la corriente externa suministrada fuera mucho menos intensa, ya que se magnificaría a medida que viajara a través de la manta metálica. Para que el diseño funcionara con las tasas de pérdida en los extremos dadas, tendría que ser extremadamente largo: los cálculos sugerían que tendría que ser de 500 metros (1.600 pies) para alcanzar el confinamiento de 3 milisegundos requerido por el criterio de Lawson . [30] Esto, a su vez, exigiría una fuente de alimentación imposiblemente grande. [31]

El problema del flujo final se resuelve de forma más sencilla doblando el tubo experimental para formar una forma de toro (rosquilla o anillo). En este caso, las partículas que fluyen a lo largo del eje largo del dispositivo ya no chocan con nada y pueden circular eternamente. Sin embargo, desde los primeros días del esfuerzo de fusión se demostró que esta configuración no es estable: cuando se aplica un campo magnético a un recipiente de este tipo, debido puramente a la geometría, el campo en el interior de la curva es más fuerte que en el exterior, lo que genera fuerzas desiguales dentro del plasma que hacen que los iones y electrones se alejen del centro. [32] [30] Se habían introducido varias soluciones a este problema, en particular las máquinas de pinza originales. En ellas, la fuerza hacia adentro de la corriente de pinza era drásticamente más potente que la fuerza de deriva, por lo que no era un problema. Otra solución fue el estelarizador, que hacía circular las partículas de modo que pasaran tiempo en el interior y el exterior del tubo para equilibrar la deriva. [33]

En 1958, Meyer y Schmidt propusieron otra solución en Garching. Observaron que el requisito clave para la estabilidad del toroide era que la longitud total del recorrido en el interior y el exterior de la curva fuera la misma. El estelarador proporcionaba esto haciendo circular las partículas, añadiendo una transformada rotacional . Meyer y Schmidt propusieron hacer esto modificando los imanes para producir un campo que ya no fuera uniforme a medida que uno se movía alrededor del toro; en cambio, el campo se estrechaba y luego se ensanchaba para producir un campo no muy diferente a un eslabón de salchichas. El campo se curvaba más hacia adentro en la curva interior, haciéndola más larga, y por lo tanto la longitud total del recorrido en el interior y el exterior era la misma. [31]

A medida que las máquinas theta-pinch comenzaron a avanzar hacia la región donde las pérdidas en los extremos eran ahora una limitación para futuras investigaciones, el concepto pareció ofrecer una manera de mover theta-pinch a un diseño toroidal que todavía era lo suficientemente diferente del stellarator como para ser interesante. Esta solución no se había considerado muy profundamente dada la simplicidad del concepto de stellarator en comparación con el diseño de imán más complejo requerido para la versión corrugada de Meyer y Schmidt. [34] Estudios posteriores revelaron inestabilidades adicionales, pero la deriva prevista a partir de estas era lenta y podría abordarse utilizando estabilización dinámica. [31]

Como el equipo de Los Álamos deseaba una máquina grande para asegurar la financiación continua, propusieron una theta toroidal grande como su próximo dispositivo, no solo como un sistema experimental más grande, sino como una posible demostración de un sistema de producción de energía. [25] En 1965, LANL proponía una máquina de este tipo bajo el nombre de Scylla V. [35]

Estelarizador de beta alta

Amasa Stone Bishop había asumido recientemente la gestión de la fusión de la AEC de manos de Arthur Ruark y había formado un grupo de trabajo para revisar la propuesta de Scylla V, en el que participaban miembros de los equipos theta de NRL y GE. Llegaron a la conclusión de que no había pruebas convincentes de que las pérdidas de energía que se estaban observando se debieran a pérdidas en los extremos, y plantearon inquietudes sobre la eficacia de la estabilización dinámica, así como sobre la posibilidad de que los campos cambiantes que requería pudieran simplemente inducir nuevas inestabilidades. El grupo de trabajo sugirió encarecidamente construir una máquina lineal más, de 15 metros de largo, para probar los conceptos que se estaban introduciendo. [36] Sin embargo, al no haber otros proyectos, el sistema fue aprobado, pero con la condición de que se destinara a la investigación del régimen de beta alta, no como prototipo de reactor de potencia. Esto marcó el comienzo del traslado de la gestión de los objetivos generales del programa a Washington. [37]

Uno de los miembros del panel, Harold Grad , era un conocido experto en física y estabilidad del plasma. A su regreso a Nueva York, comenzó a leer todos los materiales publicados sobre el concepto de pinza theta y concluyó que un sistema de estabilización dinámica probablemente no funcionaría y sería extremadamente complejo incluso si lo hiciera. En su lugar, propuso utilizar imanes helicoidales como los que se están agregando a los estellaradores recientes, ya que estos parecían ser naturalmente estables. Se refirió al sistema resultante como un "estellarador de beta alta", siendo beta una medida de la fuerza magnética en el plasma, que sería mucho mayor en un dispositivo de pinza. [34]

Los Alamos se mostró sumamente interesado en el trabajo de Grad y le propuso que lo desarrollara por completo con miras a presentarlo en la siguiente reunión trienal de investigación sobre fusión, que se llevaría a cabo en agosto de 1968 en Novosibirsk . A medida que el equipo continuó trabajando, se revelaron varias inestabilidades nuevas y perturbadoras y quedó claro que los imanes helicoidales en última instancia no eran más estables que el concepto original de Meyer-Schmidt. Se tuvo que agregar otro conjunto de amortiguamiento dinámico, [38] esta vez uno que tenía que reaccionar dentro de un tiempo característico, T . [36]

Theta contra tokamak

Fue en la reunión de Novosibirsk donde la delegación soviética publicó nuevos resultados sobre sus dispositivos tokamak que demostraban mejoras significativas con respecto a todos los dispositivos anteriores. Al principio, los resultados fueron descartados por falta de instrumentación adecuada y se desató un furioso debate sobre si los resultados eran confiables. [39]

Los soviéticos idearon una solución convincente para demostrar si su diseño funcionaba. Durante la década de 1960, el Reino Unido había desarrollado la técnica de medir directamente la temperatura de las partículas en el plasma utilizando un sistema láser . Lev Artsimovich invitó al equipo a llevar su dispositivo al Instituto Kurchatov y medir de forma independiente el rendimiento. El sistema requirió meses de configuración y calibración, pero a principios del verano de 1969 quedó claro que el tokamak realmente funcionaba como se había descrito. [40]

Esto puso a los EE.UU. en la incómoda posición de estar rezagados en la carrera de la fusión. Al principio, los laboratorios se negaron a considerar la construcción de tokamaks, presentando una larga lista de razones por las que eran inferiores. En mayo de 1969, el director de la división de fusión de la AEC, Taschek, escribió a Bishop expresando su opinión de que los EE.UU. debían responder con sus propios dispositivos que tuvieran la mejor posibilidad de mostrar un rendimiento razonable, y que "es ineludible que sean el Scyllac y el 2X. Son mejores que todo lo que tenemos en los EE.UU." [36] [c] Aún preocupados por que el programa Scyllac estuviera tratando de resolver demasiados problemas a la vez, la AEC reiteró su sugerencia de que se construyera primero un dispositivo lineal. [36]

A finales de octubre de 1969, cuando los resultados del tokamak se harían públicos el mes siguiente, Estados Unidos comenzó su propio programa de tokamak. Esto colocó a Scyllac en la posición de tener que demostrar no sólo sus objetivos en términos de estabilidad, sino también competir contra estas máquinas, que ya habían demostrado un rendimiento excelente. Esto presentó la posibilidad de que la versión lineal pudiera arrojar rápidamente resultados con valores que compitieran con el tokamak. Como dijo Taschek a mediados de 1970, "puede haber algún mérito táctico y de impacto real en señalar que un pinchazo theta lineal... proporcionaría una importante contribución al derbi que no parece haber surgido en una escala de tiempo corta". [36]

Sílaba

El reactor de fusión Scyllac de círculo completo durante la construcción.

A pesar de que parecía haber un acuerdo sobre la conveniencia de construir primero una versión lineal de 15 m, Ribe decidió que sería mejor construir Syllac lo más rápido posible. Para ello, en febrero de 1969 esbozó un plan en el que se construiría un dispositivo lineal más corto de 10 metros (33 pies) al mismo tiempo que un sector de 120 grados de Scyllac que se utilizaría para aprender a construir la máquina en su conjunto. En 1970, había modificado aún más estos planes para reducir el dispositivo lineal a solo 5 metros (16 pies) con espejos de 2 metros (6 pies 7 pulgadas) en cada extremo para mejorar el tiempo de confinamiento. [36]

En 1972, Robert L. Hirsch se hizo cargo del programa de fusión de la AEC de manos de Bishop. Los recientes avances en el rendimiento del tokamak apuntaban a la posibilidad de un diseño de producción, por lo que Hirsch comenzó a reevaluar el programa en función tanto del rendimiento como de la economía. Si bien el tokamak tenía un rendimiento excelente, los espejos que se estaban desarrollando en Lawrence Livermore serían mucho menos costosos de construir y operar, y estos dos dispositivos se convirtieron en el foco de sus planes. Para mantener su diseño en funcionamiento, Los Alamos decidió avanzar rápidamente con la sección toroidal para demostrar que su enfoque también era digno de consideración. [41]

Los experimentos en el primer sector comenzaron en abril de 1971 y demostraron que la estabilidad general estaba allí, lo que provocó una gran celebración en el laboratorio. El siguiente paso fue agregar el sistema de estabilidad por retroalimentación. Para entonces, Ken Thomassen del MIT había realizado cálculos adicionales que mostraban que la retroalimentación no funcionaría en el radio del diseño actual. A fines de 1972, Ribe decidió abordar esto ampliando Scyllac de 4,8 metros (16 pies) de diámetro a 8 metros (26 pies), reduciendo la curvatura y, por lo tanto, el nivel requerido de retroalimentación. Esto redujo el parámetro crítico T a 0,9 microsegundos: cualquier valor por debajo de 1 funcionaría. [42]

En esa época, Robin Gribble, que era el principal responsable del programa de retroalimentación, fue asignado a otro proyecto en Los Álamos. A medida que se desarrollaba el programa, dos cambios en el diseño hicieron que el parámetro T aumentara. Al no haber nadie con responsabilidad directa sobre el lado de la retroalimentación del programa, esto pasó desapercibido. Los experimentos en Scylla IV y el segmento original finalizaron cuando todo el equipo se concentró en el nuevo diseño ampliado, por lo que no se descubrieron problemas adicionales. [42]

Syllac se inauguró en abril de 1974. En octubre, ya estaba claro que el sistema de retroalimentación no funcionaba. Fue en ese momento cuando recalcularon el valor de T y descubrieron que era 1,5. Peor aún, un trabajo posterior sobre la teoría subyacente sugirió que el valor de 1 no era lo suficientemente bueno y que se necesitaban valores más cercanos a 0,5. El golpe final fue que la estabilidad general observada en el segmento original en 1971 resultó ser ilusoria; en la máquina más grande, se vio que el plasma se desplazaba lentamente. El sistema de estabilidad apenas pudo detenerlo, y mucho menos corregir las inestabilidades más rápidas. [42]

Paradas lineales

El fracaso de Scyllac dejó a los EE.UU. con sólo su propio programa de tokamak centrado en Princeton y el programa de espejo en Livermore. Los Alamos intentó una solución más para salvar el sistema, volviendo a poner en servicio Scylla IV con tapones físicos en los extremos utilizando metales ligeros. Este Scylla IV-P mejoró el tiempo de confinamiento de 9 a 29 microsegundos, una mejora de tres veces. Pero esto no fue suficiente para llegar al rango de milisegundos requerido para un reactor de producción. Después de dos décadas de esfuerzo, los mejores resultados del programa theta fueron sólo una mejora marginal sobre los resultados de la serie Scylla original. [24]

FRC

Durante la década de 1960, varios equipos observaron que sus experimentos theta a veces mostraban tiempos de confinamiento mejorados. Esto ocurría cuando el campo magnético se estaba reconfigurando a medida que el pulso externo se relajaba hasta llegar a cero. En ese momento, este comportamiento se consideraba generalmente indeseable, aunque tenía la ventaja de hacer que la temperatura de los iones aumentara a medida que los campos se plegaban, y fue esta acción la que elevó las temperaturas hasta el punto en que se produjo la fusión. [43]

En 1972, John Bryan Taylor publicó una serie de artículos sobre el tema de la conservación del campo magnético y las inversiones de flujo que se habían observado en ZETA pero que no se habían apreciado en ese momento. Esto condujo al concepto de pinzamiento de campo invertido , que se desarrolló durante los años 70 y 80. El mismo mecanismo básico estaba causando la inversión de campo observada en los dispositivos theta, pero el resultado final fue un diseño diferente. [43]

A principios de los años 1970, el Instituto Kurchatov había demostrado un confinamiento estable durante largos períodos reduciendo la potencia de pinzamiento y añadiendo imanes adicionales al final del tubo lineal para ayudar a la inversión de campo. La publicación de su trabajo sobre estos plasmas de configuración de campo invertido (FRC) hizo que el tema ganara un interés significativo, con nuevos esfuerzos en los EE. UU. y Japón. Aunque técnicamente se trata de pinzamientos theta debido a su disposición, el concepto se considera distinto y un enfoque separado para la energía de fusión. [43]

Notas

  1. ^ El tritio era desconocido cuando se llevaron a cabo los experimentos iniciales de Oliphant sobre las velocidades de reacción; las reacciones DT ocurren a niveles de energía más bajos que la reacción DD con la que experimentó Oliphant.
  2. ^ Posteriormente, el NRL utilizó el nombre Pharos para un experimento de fusión totalmente no relacionado en la década de 1970.
  3. ^ 2X fue la última máquina de espejos en LLNL.

Referencias

Citas

  1. ^ desde Clery 2014, pág. 24.
  2. ^ Oliphant, Harteck y Rutherford 1934.
  3. ^ McCracken y Stott 2005, pág. 35.
  4. ^ desde Bishop 1958, pág. 7.
  5. ^ Asimov 1972, pág. 123.
  6. ^ McCracken y Stott 2005, págs. 36–38.
  7. ^ desde Thomson 1958, pág. 12.
  8. ^ Obispo 1958, pág. 17.
  9. ^ Clery 2014, pág. 25.
  10. ^ Thomson 1958, pág. 11.
  11. ^ desde Phillips 1983, pág. 65.
  12. ^ Herman 1990, pág. 45.
  13. ^ abcd Braams y Stott 2002, pág. 41.
  14. ^ Post, Richard (enero de 2011). "El enfoque del espejo magnético para la fusión". Fusión nuclear . 27 (10): 1579–1739. doi :10.1088/0029-5515/27/10/001. S2CID  120266348.
  15. ^ abc Bromberg 1982, pág. 84.
  16. ^ desde Dean 2013, pág. 227.
  17. ^ Bromberg 1982, pág. 136.
  18. ^ Pease, Roland (15 de enero de 2008). «La historia del 'Sputnik británico'». BBC . Consultado el 6 de mayo de 2017 .
  19. ^ Bromberg 1982, pág. 86.
  20. ^ Bromberg 1982, pág. 84, Figura 5.2.
  21. ^ Braams y Stott 2002, pág. 42.
  22. ^ Bromberg 1982, pág. 87.
  23. ^ desde Phillips 1983, pág. 66.
  24. ^ abc Braams y Stott 2002, pág. 83.
  25. ^ abc Bromberg 1982, pág. 145.
  26. ^ desde Bromberg 1982, pág. 143.
  27. ^ Braams y Stott 2002, pág. 82.
  28. ^ Tuck 1965, pág. 28.
  29. ^ Bromberg 1982, pág. 137.
  30. ^ desde Tuck 1965, pág. 38.
  31. ^ abc Bromberg 1982, pág. 144.
  32. ^ Bromberg 1982, pág. 16.
  33. ^ Bromberg 1982, pág. 17.
  34. ^ desde Bromberg 1982, pág. 222.
  35. ^ Tuck 1965, pág. 39.
  36. ^ abcdef Bromberg 1982, pág. 224.
  37. ^ Bromberg 1982, pág. 146.
  38. ^ Bromberg 1982, pág. 223.
  39. ^ Seife 2008, pág. 112.
  40. ^ Forrest, Michael (2016). "Láseres en los huertos de cerezos: un golpe científico y político épico en Moscú en el apogeo de la Guerra Fría: la verdadera historia de un científico nuclear".
  41. ^ Bromberg 1982, pág. 225.
  42. ^ abc Bromberg 1982, pág. 226.
  43. ^ abc Braams y Stott 2002, pág. 108.

Bibliografía

Lectura adicional