TEMPEST ( Telecommunications Electronics Materials Protected from Emanating Spurious Transmissions [1] ) es una especificación de la Agencia de Seguridad Nacional de los Estados Unidos y una certificación de la OTAN [2] [3] que se refiere al espionaje de los sistemas de información a través de emanaciones filtradas, incluidas señales de radio o eléctricas no intencionales, sonidos y vibraciones. [4] [5] TEMPEST cubre tanto los métodos para espiar a otros como la forma de proteger el equipo contra dicho espionaje. Los esfuerzos de protección también se conocen como seguridad de emisiones (EMSEC), que es un subconjunto de la seguridad de las comunicaciones (COMSEC). [6] Los métodos de recepción caen bajo el paraguas de la radiofrecuencia MASINT .
Los métodos de la NSA para espiar las emisiones de los ordenadores son secretos, pero algunos de los estándares de protección han sido publicados por la NSA o el Departamento de Defensa. [7] La protección de los equipos contra el espionaje se realiza mediante la distancia, el blindaje, el filtrado y el enmascaramiento. [8] Los estándares TEMPEST establecen elementos como la distancia entre los equipos y las paredes, la cantidad de blindaje en los edificios y los equipos, la distancia que separa los cables que transportan materiales clasificados de los no clasificados, [7] los filtros en los cables e incluso la distancia y el blindaje entre los cables o los equipos y las tuberías de los edificios. El ruido también puede proteger la información enmascarando los datos reales. [8]
Si bien gran parte de TEMPEST trata sobre la fuga de emanaciones electromagnéticas , también abarca sonidos y vibraciones mecánicas. [7] Por ejemplo, es posible registrar las pulsaciones de teclas de un usuario utilizando el sensor de movimiento dentro de los teléfonos inteligentes . [9] Las emisiones comprometedoras se definen como señales portadoras de inteligencia no intencionales que, si se interceptan y analizan ( ataque de canal lateral ), pueden revelar la información transmitida, recibida, manejada o procesada de otro modo por cualquier equipo de procesamiento de información. [10]
Durante la Segunda Guerra Mundial, Bell System suministró al ejército estadounidense el dispositivo mezclador 131-B2 que encriptaba las señales de teleimpresora mediante la operación XOR con material clave de cintas de un solo uso (el sistema SIGTOT ) o, antes, un generador de claves basado en rotor llamado SIGCUM . Utilizaba relés electromecánicos en su funcionamiento. Más tarde, Bell informó al Cuerpo de Señales que podían detectar picos electromagnéticos a distancia del mezclador y recuperar el texto sin formato. Al encontrarse con escepticismo sobre si el fenómeno que descubrieron en el laboratorio podría ser realmente peligroso, demostraron su capacidad para recuperar texto sin formato de un centro de cifrado del Cuerpo de Señales en Varick Street en el Bajo Manhattan. Ahora alarmados, el Cuerpo de Señales le pidió a Bell que investigara más a fondo. Bell identificó tres áreas problemáticas: señales radiadas, señales conducidas por cables que se extienden desde la instalación y campos magnéticos. Como posibles soluciones, sugirieron blindaje, filtrado y enmascaramiento.
Bell desarrolló un mezclador modificado, el 131-A1, con protección y filtrado, pero resultó difícil de mantener y demasiado caro de implementar. En lugar de ello, se advirtió a los comandantes pertinentes del problema y se les recomendó que controlaran una zona de 30 metros de diámetro alrededor de su centro de comunicaciones para evitar la interceptación encubierta, y así se dejó todo. Luego, en 1951, la CIA redescubrió el problema con el mezclador 131-B2 y descubrió que podían recuperar texto sin formato de la línea que transportaba la señal cifrada a un cuarto de milla de distancia. Se desarrollaron filtros para las líneas de señal y de energía, y el radio de control del perímetro recomendado se amplió a 61 metros, basándose más en lo que se podía esperar que lograran los comandantes que en cualquier criterio técnico.
A esto le siguió un largo proceso de evaluación de sistemas y desarrollo de posibles soluciones. Se descubrieron otros efectos comprometedores, como fluctuaciones en la línea eléctrica cuando los rotores se movían. La cuestión de explotar el ruido de los sistemas de cifrado electromecánicos se había planteado a finales de los años 40, pero ahora se volvió a evaluar como una posible amenaza. Las emanaciones acústicas podían revelar texto simple, pero solo si el dispositivo de captación estaba cerca de la fuente. No obstante, incluso los micrófonos mediocres servirían. La insonorización de la sala empeoró el problema al eliminar los reflejos y proporcionar una señal más limpia a la grabadora.
En 1956, el Laboratorio de Investigación Naval desarrolló un mezclador mejor que funcionaba con voltajes y corrientes mucho más bajos y, por lo tanto, radiaba mucho menos. Se incorporó a los sistemas de cifrado más nuevos de la NSA. Sin embargo, muchos usuarios necesitaban los niveles de señal más altos para hacer funcionar los teleimpresores a mayores distancias o donde se conectaban varios teleimpresores, por lo que los dispositivos de cifrado más nuevos incluían la opción de volver a cambiar la señal a la potencia más alta. La NSA comenzó a desarrollar técnicas y especificaciones para aislar las vías de comunicación sensibles mediante filtrado, blindaje, conexión a tierra y separación física: de aquellas líneas que transportaban texto simple sensible, de aquellas destinadas a transportar solo datos no sensibles, estas últimas a menudo se extendían fuera del entorno seguro. Este esfuerzo de separación se conoció como el Concepto Rojo/Negro . Una política conjunta de 1958 llamada NAG-1 estableció estándares de radiación para equipos e instalaciones basados en un límite de control de 50 pies (15 m). También especificó los niveles de clasificación de varios aspectos del problema TEMPEST. La política fue adoptada por Canadá y el Reino Unido al año siguiente. Seis organizaciones (la Marina, el Ejército, la Fuerza Aérea, la NSA, la CIA y el Departamento de Estado) debían aportar la mayor parte del esfuerzo para su implementación.
Las dificultades surgieron rápidamente. La informatización se estaba volviendo importante para procesar datos de inteligencia, y las computadoras y sus periféricos tuvieron que ser evaluados, donde muchos de ellos evidenciaron vulnerabilidades. La Friden Flexowriter , una máquina de escribir de E/S popular en ese momento, demostró ser uno de los emisores más fuertes, legible a distancias de hasta 3200 pies (0,98 km) en pruebas de campo. La Junta de Seguridad de las Comunicaciones de los Estados Unidos (USCSB) elaboró una Política de Flexowriter que prohibía su uso en el extranjero para información clasificada y limitaba su uso dentro de los EE. UU. al nivel confidencial , y luego solo dentro de una zona de seguridad de 400 pies (120 m), pero los usuarios encontraron la política onerosa y poco práctica. Más tarde, la NSA encontró problemas similares con la introducción de pantallas de tubo de rayos catódicos ( CRT ), que también eran radiadores potentes.
Hubo un proceso de varios años para pasar de las recomendaciones de políticas a las normas TEMPEST de aplicación más estricta. La Directiva 5200.19 resultante, coordinada con 22 agencias independientes, fue firmada por el Secretario de Defensa Robert McNamara en diciembre de 1964, pero aun así tardó meses en implementarse por completo. La implementación formal de la NSA entró en vigor en junio de 1966.
Mientras tanto, el problema de las emanaciones acústicas se volvió más crítico con el descubrimiento de unos 900 micrófonos en instalaciones estadounidenses en el extranjero, la mayoría detrás de la Cortina de Hierro . La respuesta fue construir recintos dentro de una habitación, algunos transparentes, apodados "peceras". Otras unidades [ aclaración necesaria ] estaban completamente protegidas [ aclaración necesaria ] para contener las emanaciones electrónicas, pero eran impopulares entre el personal que se suponía que trabajaba dentro; llamaban a los recintos "armarios de carne", y a veces simplemente dejaban sus puertas abiertas. No obstante, se instalaron en lugares críticos, como la embajada en Moscú, donde se instalaron dos: uno para uso del Departamento de Estado y otro para los agregados militares. Una unidad instalada en la NSA para su equipo de generación de claves costó $ 134.000.
Los estándares TEMPEST continuaron evolucionando en la década de 1970 y posteriormente, con nuevos métodos de prueba y pautas más matizadas que tenían en cuenta los riesgos en lugares y situaciones específicos. [11] : Vol I, Cap. 10 Durante la década de 1980, las necesidades de seguridad se encontraron a menudo con resistencia. Según David G. Boak de la NSA, "algunas de las cosas que todavía escuchamos hoy en nuestros propios círculos, cuando se reducen los rigurosos estándares técnicos en aras del dinero y el tiempo, recuerdan de manera aterradora al arrogante Tercer Reich con su criptomáquina Enigma". : ibid p. 19
Muchos detalles de las normas TEMPEST están clasificados , pero algunos elementos son públicos. Las normas Tempest actuales de los Estados Unidos y la OTAN definen tres niveles de requisitos de protección: [12]
Las normas adicionales incluyen:
La NSA y el Departamento de Defensa han desclasificado algunos elementos de TEMPEST después de las solicitudes de la Ley de Libertad de Información , pero los documentos ocultan muchos valores y descripciones clave. La versión desclasificada del estándar de prueba TEMPEST está muy censurada , con límites de emanación y procedimientos de prueba tachados. [ cita requerida ] [13] Una versión censurada del manual introductorio de Tempest NACSIM 5000 se publicó en diciembre de 2000. Además, el estándar actual de la OTAN SDIP-27 (antes de 2006 conocido como AMSG 720B, AMSG 788A y AMSG 784) todavía está clasificado.
A pesar de ello, algunos documentos desclasificados ofrecen información sobre el blindaje exigido por las normas TEMPEST. Por ejemplo, el Manual Militar 1195 incluye el cuadro de la derecha, que muestra los requisitos de blindaje electromagnético a diferentes frecuencias. Una especificación desclasificada de la NSA para cajas blindadas ofrece valores de blindaje similares, que exigen "una pérdida de inserción mínima de 100 dB de 1 kHz a 10 GHz". [14] Dado que gran parte de los requisitos actuales siguen siendo clasificados, no existen correlaciones disponibles públicamente entre este requisito de blindaje de 100 dB y las nuevas normas de blindaje basadas en zonas.
Además, la guía de instalación rojo-negro desclasificada de la NSA , NSTISSAM TEMPEST/2-95, proporciona muchos requisitos de distancia de separación y otros elementos. [15]
Las agencias de seguridad informática de varios países de la OTAN publican listas de laboratorios de pruebas acreditados y de equipos que han pasado estas pruebas:
El ejército de los Estados Unidos también tiene una instalación de pruebas TEMPEST, como parte del campo de pruebas electrónicas del ejército de los Estados Unidos, en Fort Huachuca , Arizona . Existen listas e instalaciones similares en otros países de la OTAN.
La certificación TEMPEST debe aplicarse a sistemas completos, no sólo a componentes individuales , ya que conectar un solo componente sin blindaje (como un cable o dispositivo) a un sistema que de otro modo sería seguro podría alterar drásticamente las características de RF del sistema.
Las normas TEMPEST exigen una " separación ROJA/NEGRA ", es decir, mantener la distancia o instalar un blindaje entre los circuitos y los equipos utilizados para manejar información confidencial o clasificada en texto plano que no esté cifrada (ROJO) y los circuitos y equipos seguros (NEGRO), estos últimos incluidos los que transportan señales cifradas. La fabricación de equipos aprobados por TEMPEST debe realizarse bajo un cuidadoso control de calidad para garantizar que las unidades adicionales se construyan exactamente igual que las unidades que se probaron. Cambiar incluso un solo cable puede invalidar las pruebas. [ cita requerida ]
Un aspecto de las pruebas TEMPEST que las distingue de los límites sobre emisiones espurias ( por ejemplo , FCC Parte 15 ) es el requisito de correlación mínima absoluta entre la energía radiada o las emisiones detectables y cualquier dato de texto simple que se esté procesando.
En 1985, Wim van Eck publicó el primer análisis técnico no clasificado de los riesgos de seguridad que entrañaban las emisiones de los monitores de ordenador . Este artículo causó cierta consternación en la comunidad de seguridad, que hasta entonces creía que ese tipo de vigilancia era un ataque muy sofisticado al que sólo podían acceder los gobiernos ; Van Eck logró espiar con éxito un sistema real, a una distancia de cientos de metros , utilizando un equipo que valía tan sólo 15 dólares y un televisor .
Como consecuencia de esta investigación, tales emanaciones a veces se denominan "radiación de Van Eck", y la técnica de espionaje Van Eck phreaking , aunque los investigadores del gobierno ya estaban al tanto del peligro, ya que Bell Labs notó esta vulnerabilidad para asegurar las comunicaciones por teleimpresora durante la Segunda Guerra Mundial y pudo producir el 75% del texto simple que se procesaba en una instalación segura desde una distancia de 80 pies (24 metros) [20] Además, la NSA publicó Tempest Fundamentals, NSA-82-89, NACSIM 5000, National Security Agency (Classified) el 1 de febrero de 1982. Además, la técnica Van Eck se demostró con éxito al personal no TEMPEST en Corea durante la Guerra de Corea en la década de 1950. [21]
Markus Kuhn ha descubierto varias técnicas de bajo costo para reducir las posibilidades de que las emanaciones de las pantallas de computadora puedan ser monitoreadas de forma remota. [22] Con pantallas CRT y cables de video analógicos , filtrar los componentes de alta frecuencia de las fuentes antes de reproducirlos en una pantalla de computadora atenuará la energía a la que se transmiten los caracteres de texto. [23] [24] Con las pantallas planas modernas, los cables de interfaz serial digital ( DVI ) de alta velocidad del controlador de gráficos son una fuente principal de emanaciones comprometedoras. Agregar ruido aleatorio a los bits menos significativos de los valores de píxel puede hacer que las emanaciones de las pantallas planas sean ininteligibles para los fisgones, pero no es un método seguro. Dado que DVI usa un cierto esquema de código de bits que intenta transportar una señal balanceada de 0 bits y 1 bits, puede que no haya mucha diferencia entre dos colores de píxel que difieren mucho en su color o intensidad. Las emanaciones pueden diferir drásticamente incluso si solo se cambia el último bit del color de un píxel. La señal que recibe el espía también depende de la frecuencia en la que se detectan las emanaciones. La señal se puede recibir en muchas frecuencias a la vez y la señal de cada frecuencia difiere en contraste y brillo en relación con un cierto color en la pantalla. Por lo general, la técnica de sofocar la señal ROJA con ruido no es efectiva a menos que la potencia del ruido sea suficiente para saturar el receptor del espía, abrumando así la entrada del receptor.
Los indicadores LED de los equipos informáticos pueden ser una fuente de emanaciones ópticas comprometedoras. [25] Una de estas técnicas implica la supervisión de las luces de un módem de acceso telefónico . Casi todos los módems hacen parpadear un LED para mostrar actividad, y es habitual que los destellos se tomen directamente de la línea de datos. Por tanto, un sistema óptico rápido puede ver fácilmente los cambios en los parpadeos de los datos que se transmiten por el cable.
Investigaciones recientes [26] han demostrado que es posible detectar la radiación correspondiente a una pulsación de tecla no sólo en teclados inalámbricos (radio), sino también en teclados tradicionales con cable [el teclado PS/2, por ejemplo, contiene un microprocesador que irradia cierta cantidad de energía de radiofrecuencia cuando responde a las pulsaciones de teclas], e incluso en teclados de ordenadores portátiles. A partir de los años 1970, las escuchas soviéticas en las máquinas de escribir IBM Selectric de la embajada estadounidense permitieron que el movimiento mecánico de las asas, con imanes adheridos, derivado de la pulsación de teclas, fuera detectado por magnetómetros implantados y convertido a través de electrónica oculta en una señal de radiofrecuencia digital. Cada transmisión de ocho caracteres proporcionaba a los soviéticos acceso a documentos sensibles, mientras se mecanografiaban, en instalaciones estadounidenses en Moscú y Leningrado. [27]
En 2014, los investigadores introdujeron "AirHopper", un patrón de ataque bifurcado que muestra la viabilidad de la exfiltración de datos desde una computadora aislada a un teléfono móvil cercano, utilizando señales de frecuencia FM. [28]
En 2015, se introdujo "BitWhisper", un canal de señalización encubierto entre computadoras con espacio de aire que utiliza manipulaciones térmicas. "BitWhisper" admite la comunicación bidireccional y no requiere hardware periférico dedicado adicional. [29] Más tarde en 2015, los investigadores introdujeron GSMem, un método para exfiltrar datos de computadoras con espacio de aire a través de frecuencias celulares. La transmisión, generada por un bus interno estándar, convierte la computadora en una pequeña antena transmisora celular. [30] En febrero de 2018, se publicó una investigación que describe cómo se pueden usar campos magnéticos de baja frecuencia para escapar de datos confidenciales de computadoras con espacio de aire y enjauladas en Faraday con malware con nombre en código 'ODINI' que puede controlar los campos magnéticos de baja frecuencia emitidos por las computadoras infectadas regulando la carga de los núcleos de la CPU. [31]
En 2018, los investigadores de Eurecom introdujeron en ACM y Black Hat una clase de ataque de canal lateral : "Screaming Channels". [32] Este tipo de ataque se dirige a chips de señal mixta (que contienen un circuito analógico y digital en el mismo chip de silicio ) con un transmisor de radio . Los resultados de esta arquitectura, que se encuentra a menudo en objetos conectados , es que la parte digital del chip filtrará algunos metadatos sobre sus cálculos en la parte analógica, lo que lleva a que la fuga de metadatos se codifique en el ruido de la transmisión de radio. Gracias a las técnicas de procesamiento de señales , los investigadores pudieron extraer claves criptográficas utilizadas durante la comunicación y descifrar el contenido. Los autores suponen que esta clase de ataque ya es conocida por las agencias de inteligencia gubernamentales desde hace muchos años .
{{cite journal}}
: CS1 maint: varios nombres: lista de autores ( enlace )Todos los implantes eran bastante sofisticados. Cada implante tenía un magnetómetro que convertía la energía mecánica de las pulsaciones de teclas en perturbaciones magnéticas locales. El paquete electrónico del implante respondía a estas perturbaciones, clasificaba los datos subyacentes y transmitía los resultados a un puesto de escucha cercano. Los datos se transmitían por radiofrecuencia. El implante se activaba por control remoto. [...] el movimiento de los ganchos determinaba qué carácter se había escrito porque cada carácter tenía un movimiento binario único correspondiente a los ganchos. La energía magnética captada por los sensores de la barra se convertía en una señal eléctrica digital. Las señales se comprimían en una palabra de selección de frecuencia de cuatro bits. El dispositivo podía almacenar hasta ocho caracteres de cuatro bits. Cuando el búfer estaba lleno, un transmisor de la barra enviaba la información a los sensores soviéticos.