La litografía computacional (también conocida como escalamiento computacional ) es el conjunto de enfoques matemáticos y algorítmicos diseñados para mejorar la resolución alcanzable mediante fotolitografía . La litografía computacional llegó a la vanguardia de las tecnologías de fotolitografía en 2008 cuando la industria de semiconductores enfrentó desafíos asociados con la transición a un proceso de microfabricación CMOS de 22 nanómetros y se ha convertido en un instrumento para reducir aún más los nodos de diseño y la topología de la fabricación de transistores semiconductores.
La litografía computacional consiste en el uso de ordenadores para simular la impresión de estructuras de microlitografía. Chris Mack, de la NSA, desarrolló PROLITH , Rick Dill, de IBM, y Andy Neureuther, de la Universidad de California, Berkeley, a principios de los años 1980. Estas herramientas se limitaban a la optimización del proceso de litografía, ya que los algoritmos se limitaban a unos pocos micrómetros cuadrados de resina. La corrección óptica de proximidad (OPC) de chip completo comercial, utilizando formas de modelo, fue implementada por primera vez por TMA (ahora una subsidiaria de Synopsys ) y Numerical Technologies (también parte de Synopsys) alrededor de 1997. [1]
Desde entonces, el mercado y la complejidad han crecido significativamente. Con el paso a la litografía de longitud de onda inferior en los nodos de 180 nm y 130 nm, las técnicas RET, como las funciones de asistencia y las máscaras de cambio de fase, comenzaron a usarse junto con OPC. Para la transición de los nodos de 65 nm a los de 45 nm, los clientes estaban preocupados no solo por que las reglas de diseño fueran insuficientes para garantizar la impresión sin puntos críticos que limitaran el rendimiento, sino también por que el tiempo de espera podría requerir miles de CPU o semanas de tiempo de ejecución. Este aumento exponencial previsto en la complejidad computacional para la síntesis de máscaras al pasar al nodo de proceso de 45 nm generó una importante inversión de capital de riesgo en diseño para empresas de fabricación emergentes. [2]
Empezaron a aparecer varias empresas de nueva creación que promocionaban sus propias soluciones disruptivas para este problema, y se promocionaron técnicas que iban desde la aceleración de hardware personalizada hasta algoritmos radicalmente nuevos como la litografía inversa para resolver los cuellos de botella que se avecinaban. A pesar de esta actividad, los proveedores de OPC existentes pudieron adaptarse y mantener a sus principales clientes, ya que RET y OPC se utilizaban juntos como para los nodos anteriores, pero ahora en más capas y con archivos de datos más grandes, y las preocupaciones sobre el tiempo de respuesta se resolvieron con nuevos algoritmos y mejoras en los procesadores básicos de múltiples núcleos. El término litografía computacional fue utilizado por primera vez por Brion Technology (ahora una subsidiaria de ASML ) en 2005 [3] para promocionar su plataforma de simulación de litografía de chip completo acelerada por hardware. Desde entonces, la industria ha utilizado el término para describir soluciones de síntesis de máscara de chip completo. A medida que los 45 nm entran en plena producción y se retrasa la introducción de la litografía EUV, se espera que los 32 nm y los 22 nm funcionen en la tecnología de escáneres de 193 nm existente.
En la actualidad, no solo están resurgiendo las preocupaciones sobre el rendimiento y las capacidades, sino que también se consideran nuevas técnicas de litografía computacional, como la optimización de máscara de origen (SMO), como una forma de lograr una mejor resolución específica para un diseño determinado. Hoy en día, todos los principales proveedores de síntesis de máscaras han elegido el término "litografía computacional" para describir y promover el conjunto de tecnologías de síntesis de máscaras necesarias para 22 nm.
La litografía computacional utiliza una serie de simulaciones numéricas para mejorar el rendimiento (resolución y contraste) de las fotomáscaras de última generación. Las técnicas combinadas incluyen la tecnología de mejora de la resolución (RET), la corrección de proximidad óptica (OPC), la optimización de la máscara de origen (SMO), etc. [4] Las técnicas varían en términos de viabilidad técnica y sensatez de ingeniería, lo que da como resultado la adopción de algunas y la investigación y desarrollo continuos de otras. [5]
Tecnologías de mejora de la resolución , utilizadas por primera vez en la generación de 90 nanómetros , que utilizan las matemáticas de la óptica de difracción para especificar fotomáscaras de desplazamiento de fase multicapa que utilizan patrones de interferencia en la fotomáscara que mejoran la resolución en la superficie de la oblea impresa.
La corrección de proximidad óptica utiliza métodos computacionales para contrarrestar los efectos de la borrosidad y la subexposición relacionadas con la difracción modificando las geometrías de la máscara con medios como: ajustar los anchos de línea dependiendo de la densidad de las geometrías circundantes (un trazo rodeado por un área abierta grande estará sobreexpuesto en comparación con el mismo trazo rodeado por un patrón denso), agregar tapas finales en forma de "hueso de perro" al final de las líneas para evitar el acortamiento de las líneas, corregir los efectos de proximidad del haz de electrones
El OPC se puede dividir en dos grandes grupos: basado en reglas y basado en modelos. [6] La tecnología de litografía inversa , que trata el OPC como un problema de imagen inversa, también es una técnica útil porque puede proporcionar patrones de máscara poco intuitivos. [7]
Más allá de los modelos utilizados para RET y OPC, la litografía computacional intenta mejorar la capacidad de fabricación y el rendimiento de los chips, por ejemplo, mediante el uso de la firma del escáner para ayudar a mejorar la precisión del modelo OPC: [8] características de polarización de la pupila de la lente, matriz de Jones de la lente paso a paso, parámetros ópticos de la pila de fotorresistencia , difusión a través de la fotorresistencia, variables de control de iluminación del paso a paso.
Esfuerzo computacional
El esfuerzo computacional que se necesita para realizar estos métodos es inmenso. Según una estimación, los cálculos necesarios para ajustar las geometrías OPC para tener en cuenta las variaciones de enfoque y exposición de un circuito integrado de última generación requerirán aproximadamente 100 años de CPU de tiempo de computación. [9] Esto no incluye el modelado de la polarización 3D de la fuente de luz ni de ninguno de los otros sistemas que se deben modelar en los flujos de fabricación de máscaras fotolitográficas computacionales de producción. Brion Technologies, una subsidiaria de ASML , comercializa un acelerador de hardware montado en bastidor dedicado a su uso en la realización de cálculos litográficos computacionales: un taller de fabricación de máscaras puede comprar una gran cantidad de sus sistemas para ejecutarlos en paralelo. Otros han afirmado que se ha logrado una aceleración significativa utilizando tarjetas gráficas comerciales reutilizadas para su alto rendimiento en paralelo. [10]
La mejora periódica de la resolución que se consigue mediante la fotolitografía ha sido una fuerza impulsora de la Ley de Moore . Las mejoras de resolución permiten imprimir geometrías más pequeñas en un circuito integrado . El tamaño mínimo de característica que puede imprimir un sistema de proyección que se utiliza habitualmente en fotolitografía viene dado aproximadamente por:
dónde
Históricamente, las mejoras de resolución en fotolitografía se han logrado mediante la progresión de fuentes de iluminación paso a paso a longitudes de onda cada vez más pequeñas, desde fuentes de "línea g" (436 nm) y "línea i" (365 nm) basadas en lámparas de mercurio , hasta los sistemas actuales basados en fuentes de láseres excimer ultravioleta profundo a 193 nm. Sin embargo, la progresión a fuentes de longitud de onda aún más finas se ha estancado por los problemas intratables asociados con la litografía ultravioleta extrema y la litografía de rayos X , lo que obliga a los fabricantes de semiconductores a extender los sistemas actuales de litografía óptica de 193 nm hasta que alguna forma de litografía de próxima generación resulte viable (aunque también se han comercializado steppers de 157 nm, han demostrado ser prohibitivos en costo a $ 50 millones cada uno). [11] Los esfuerzos para mejorar la resolución mediante el aumento de la apertura numérica han llevado al uso de la litografía de inmersión . Como las mejoras adicionales en la resolución a través de la reducción de la longitud de onda o aumentos en la apertura numérica se han vuelto técnicamente desafiantes o económicamente inviables, se ha prestado mucha atención a la reducción del factor k1. El factor k1 se puede reducir a través de mejoras de proceso, como las fotomáscaras de cambio de fase . Estas técnicas han permitido la fotolitografía en el nodo de tecnología de proceso CMOS de 32 nanómetros utilizando una longitud de onda de 193 nm (ultravioleta profundo). Sin embargo, con la hoja de ruta de ITRS que exige que el nodo de 22 nanómetros esté en uso en 2011, los investigadores de fotolitografía han tenido que desarrollar un conjunto adicional de mejoras para hacer que la tecnología de 22 nm sea manufacturable. [12] Si bien el aumento en el modelado matemático ha estado en marcha durante algún tiempo, el grado y el costo de esos cálculos han justificado el uso de un nuevo término para cubrir el panorama cambiante: litografía computacional.