stringtranslate.com

Electrónica digital

Electrónica digital

La electrónica digital es un campo de la electrónica que implica el estudio de señales digitales y la ingeniería de dispositivos que las utilizan o producen. Esto contrasta con la electrónica analógica que trabaja principalmente con señales analógicas . A pesar del nombre, los diseños de electrónica digital incluyen importantes consideraciones de diseño analógico.

Los circuitos electrónicos digitales generalmente se fabrican a partir de grandes conjuntos de puertas lógicas , a menudo empaquetadas en circuitos integrados . Los dispositivos complejos pueden tener representaciones electrónicas simples de funciones lógicas booleanas . [1]

Historia

El sistema numérico binario fue refinado por Gottfried Wilhelm Leibniz (publicado en 1705) y también estableció que al utilizar el sistema binario se podían unir los principios de la aritmética y la lógica. La lógica digital tal como la conocemos fue una creación de George Boole a mediados del siglo XIX. En una carta de 1886, Charles Sanders Peirce describió cómo se podían llevar a cabo operaciones lógicas mediante circuitos de conmutación eléctrica. [2] Con el tiempo, los tubos de vacío reemplazaron a los relés para las operaciones lógicas. La modificación de Lee De Forest de la válvula Fleming en 1907 podría usarse como compuerta AND . Ludwig Wittgenstein introdujo una versión de la tabla de verdad de 16 filas como la proposición 5.101 del Tractatus Logico-Philosophicus (1921). Walther Bothe , inventor del circuito de coincidencia , compartió el Premio Nobel de Física de 1954 por crear la primera puerta AND electrónica moderna en 1924.

Las computadoras mecánicas analógicas comenzaron a aparecer en el siglo I y luego se utilizaron en la época medieval para cálculos astronómicos. En la Segunda Guerra Mundial , las computadoras mecánicas analógicas se utilizaron para aplicaciones militares especializadas, como calcular la puntería de los torpedos. Durante esta época se desarrollaron las primeras computadoras digitales electrónicas, siendo el término digital propuesto por George Stibitz en 1942 . Originalmente tenían el tamaño de una habitación grande y consumían tanta energía como varios cientos de PC modernos . [3]

El Z3 fue un ordenador electromecánico diseñado por Konrad Zuse . Terminada en 1941, fue la primera computadora digital programable y totalmente automática en funcionamiento del mundo. [4] Su funcionamiento fue facilitado por la invención del tubo de vacío en 1904 por John Ambrose Fleming .

Al mismo tiempo que el cálculo digital reemplazó a los analógicos, los elementos de circuitos puramente electrónicos pronto reemplazaron a sus equivalentes mecánicos y electromecánicos. John Bardeen y Walter Brattain inventaron el transistor de contacto puntual en Bell Labs en 1947, seguidos por William Shockley que inventó el transistor de unión bipolar en Bell Labs en 1948. [5] [6]

En la Universidad de Manchester , un equipo bajo el liderazgo de Tom Kilburn diseñó y construyó una máquina utilizando transistores recientemente desarrollados en lugar de tubos de vacío. [7] Su " computadora transistorizada ", y la primera en el mundo, estaba operativa en 1953 , y una segunda versión se completó allí en abril de 1955. A partir de 1955, los transistores reemplazaron a los tubos de vacío en los diseños de computadoras, dando lugar a la " segunda generación" de computadoras. En comparación con los tubos de vacío, los transistores eran más pequeños, más fiables, tenían una vida útil indefinida y requerían menos energía que los tubos de vacío, por lo que emitían menos calor y permitían concentraciones de circuitos mucho más densas, hasta decenas de miles en un espacio relativamente compacto.

Mientras trabajaba en Texas Instruments en julio de 1958, Jack Kilby registró sus ideas iniciales sobre el circuito integrado (CI) y luego demostró con éxito el primer circuito integrado en funcionamiento el 12 de septiembre de 1958. [8] El chip de Kilby estaba hecho de germanio . Al año siguiente, Robert Noyce de Fairchild Semiconductor inventó el circuito integrado de silicio . La base del circuito integrado de silicio de Noyce fue el proceso planar , desarrollado a principios de 1959 por Jean Hoerni , quien a su vez se basó en el método de pasivación de superficies de silicio de Mohamed Atalla desarrollado en 1957. [9] Esta nueva técnica, el circuito integrado, permitió Fabricación rápida y de bajo costo de circuitos complejos al tener un conjunto de circuitos electrónicos en una pequeña placa ("chip") de material semiconductor , normalmente silicio.

El transistor de efecto de campo semiconductor de óxido metálico (MOSFET), también conocido como transistor MOS, fue inventado por Mohamed Atalla y Dawon Kahng en Bell Labs en 1959. [10] [11] [12] Las ventajas del MOSFET incluyen una alta escalabilidad , [13] asequibilidad, [14] bajo consumo de energía y alta densidad de transistores . [15] Su rápida velocidad de conmutación electrónica de encendido y apagado también lo hace ideal para generar trenes de pulsos , [16] la base de las señales digitales electrónicas , [17] [18] en contraste con los BJT que, más lentamente, generan señales analógicas que se asemejan a señales sinusoidales. ondas . [16] Junto con la integración a gran escala (LSI) de MOS, estos factores hacen del MOSFET un importante dispositivo de conmutación para circuitos digitales . [19] El MOSFET revolucionó la industria electrónica , [20] [21] y es el dispositivo semiconductor más común . [11] [22]

En los primeros días de los circuitos integrados , cada chip estaba limitado a unos pocos transistores y el bajo grado de integración significaba que el proceso de diseño era relativamente simple. Los rendimientos del sector manufacturero también fueron bastante bajos en comparación con los estándares actuales. La amplia adopción del transistor MOSFET a principios de la década de 1970 condujo a los primeros chips de integración a gran escala (LSI) con más de 10.000 transistores en un solo chip. [23] Tras la amplia adopción de CMOS , un tipo de lógica MOSFET, en la década de 1980, se podían colocar millones y luego miles de millones de MOSFET en un chip a medida que avanzaba la tecnología, [24] y los buenos diseños requerían una planificación minuciosa, lo que dio lugar a nuevos métodos de diseño . El número de dispositivos con transistores y la producción total aumentaron a niveles sin precedentes. Se estima que la cantidad total de transistores producidos hasta 2018 será1,3 × 10 22 (13 sextillones ). [25] 

La revolución inalámbrica (la introducción y proliferación de redes inalámbricas ) comenzó en la década de 1990 y fue posible gracias a la amplia adopción de amplificadores de potencia de RF basados ​​en MOSFET ( MOSFET de potencia y LDMOS ) y circuitos de RF ( RF CMOS ). [26] [27] [28] Las redes inalámbricas permitieron la transmisión digital pública sin necesidad de cables, lo que llevó a la televisión digital , GPS , radio satelital , Internet inalámbrico y teléfonos móviles durante las décadas de 1990 y 2000.

Propiedades

Una ventaja de los circuitos digitales en comparación con los circuitos analógicos es que las señales representadas digitalmente pueden transmitirse sin degradación causada por el ruido . [29] Por ejemplo, una señal de audio continua transmitida como una secuencia de unos y ceros se puede reconstruir sin errores, siempre que el ruido captado en la transmisión no sea suficiente para impedir la identificación de los unos y los ceros.

En un sistema digital, se puede obtener una representación más precisa de una señal utilizando más dígitos binarios para representarla. Si bien esto requiere más circuitos digitales para procesar las señales, cada dígito es manejado por el mismo tipo de hardware, lo que da como resultado un sistema fácilmente escalable . En un sistema analógico, una resolución adicional requiere mejoras fundamentales en las características de linealidad y ruido de cada paso de la cadena de señal .

Con los sistemas digitales controlados por computadora, se pueden agregar nuevas funciones mediante la revisión del software y no se necesitan cambios de hardware. A menudo, esto se puede hacer fuera de fábrica actualizando el software del producto. De esta manera, los errores de diseño del producto se pueden corregir incluso después de que el producto esté en manos del cliente.

El almacenamiento de información puede ser más fácil en los sistemas digitales que en los analógicos. La inmunidad al ruido de los sistemas digitales permite almacenar y recuperar datos sin degradación. En un sistema analógico, el ruido debido al envejecimiento y el desgaste degrada la información almacenada. En un sistema digital, siempre que el ruido total esté por debajo de cierto nivel, la información se puede recuperar perfectamente. Incluso cuando hay un ruido más significativo, el uso de la redundancia permite la recuperación de los datos originales siempre que no se produzcan demasiados errores.

En algunos casos, los circuitos digitales utilizan más energía que los circuitos analógicos para realizar las mismas tareas, produciendo así más calor, lo que aumenta la complejidad de los circuitos, como la inclusión de disipadores de calor. En sistemas portátiles o que funcionan con baterías, esto puede limitar el uso de sistemas digitales. Por ejemplo, los teléfonos móviles que funcionan con baterías suelen utilizar una interfaz analógica de baja potencia para amplificar y sintonizar las señales de radio de la estación base. Sin embargo, una estación base tiene energía de red y puede usar radios de software que consumen mucha energía, pero son muy flexibles . Estas estaciones base pueden reprogramarse fácilmente para procesar las señales utilizadas en los nuevos estándares celulares.

Muchos sistemas digitales útiles deben traducir señales analógicas continuas a señales digitales discretas. Esto provoca errores de cuantificación . El error de cuantificación se puede reducir si el sistema almacena suficientes datos digitales para representar la señal con el grado de fidelidad deseado . El teorema de muestreo de Nyquist-Shannon proporciona una guía importante sobre cuántos datos digitales se necesitan para representar con precisión una señal analógica determinada.

Si un solo dato digital se pierde o se malinterpreta, en algunos sistemas sólo puede producirse un pequeño error, mientras que en otros sistemas el significado de grandes bloques de datos relacionados puede cambiar por completo. Por ejemplo, un error de un solo bit en datos de audio almacenados directamente como modulación de código de pulso lineal provoca, en el peor de los casos, un único clic audible. Pero cuando se utiliza la compresión de audio para ahorrar espacio de almacenamiento y tiempo de transmisión, un error de un solo bit puede causar una interrupción mucho mayor.

Debido al efecto acantilado , puede resultar difícil para los usuarios saber si un sistema en particular está al borde del fallo o si puede tolerar mucho más ruido antes de fallar. La fragilidad digital se puede reducir diseñando un sistema digital que sea robusto . Por ejemplo, se puede insertar un bit de paridad u otro método de gestión de errores en la ruta de la señal. Estos esquemas ayudan al sistema a detectar errores y luego corregirlos o solicitar la retransmisión de los datos.

Construcción

Un reloj binario , cableado a mano en placas de pruebas.

Un circuito digital generalmente se construye a partir de pequeños circuitos electrónicos llamados puertas lógicas que pueden usarse para crear lógica combinacional . Cada puerta lógica está diseñada para realizar una función de lógica booleana cuando actúa sobre señales lógicas. Una puerta lógica generalmente se crea a partir de uno o más interruptores controlados eléctricamente, generalmente transistores , pero las válvulas termoiónicas han tenido un uso histórico. La salida de una puerta lógica puede, a su vez, controlar o alimentar más puertas lógicas.

Otra forma de circuito digital se construye a partir de tablas de búsqueda (muchas se venden como " dispositivos lógicos programables ", aunque existen otros tipos de PLD). Las tablas de búsqueda pueden realizar las mismas funciones que las máquinas basadas en puertas lógicas, pero se pueden reprogramar fácilmente sin cambiar el cableado. Esto significa que un diseñador a menudo puede reparar errores de diseño sin cambiar la disposición de los cables. Por lo tanto, en productos de pequeño volumen, los dispositivos lógicos programables suelen ser la solución preferida. Por lo general, los diseñan ingenieros que utilizan software de automatización de diseño electrónico .

Los circuitos integrados constan de múltiples transistores en un chip de silicio y son la forma menos costosa de crear una gran cantidad de puertas lógicas interconectadas. Los circuitos integrados generalmente están interconectados en una placa de circuito impreso , que es una placa que contiene componentes eléctricos y los conecta con pistas de cobre.

Diseño

Los ingenieros utilizan muchos métodos para minimizar la redundancia lógica con el fin de reducir la complejidad del circuito. La menor complejidad reduce el número de componentes y los posibles errores y, por lo tanto, normalmente reduce los costos. La redundancia lógica se puede eliminar mediante varias técnicas bien conocidas, como los diagramas de decisión binaria , el álgebra booleana , los mapas de Karnaugh , el algoritmo de Quine-McCluskey y el método informático heurístico . Estas operaciones normalmente se realizan dentro de un sistema de diseño asistido por computadora .

Los sistemas integrados con microcontroladores y controladores lógicos programables se utilizan a menudo para implementar lógica digital para sistemas complejos que no requieren un rendimiento óptimo. Estos sistemas suelen ser programados por ingenieros de software o por electricistas, utilizando lógica de escalera .

Representación

La relación entrada-salida de un circuito digital se puede representar como una tabla de verdad . Un circuito equivalente de alto nivel utiliza puertas lógicas , cada una representada por una forma diferente (estandarizada por IEEE / ANSI 91–1984). [30] Una representación de bajo nivel utiliza un circuito equivalente de interruptores electrónicos (normalmente transistores ).

La mayoría de los sistemas digitales se dividen en sistemas combinacionales y secuenciales . La salida de un sistema combinacional depende sólo de las entradas presentes. Sin embargo, un sistema secuencial tiene algunas de sus salidas retroalimentadas como entradas, por lo que su salida puede depender de entradas pasadas además de entradas presentes, para producir una secuencia de operaciones. Las representaciones simplificadas de su comportamiento llamadas máquinas de estados facilitan el diseño y las pruebas.

Los sistemas secuenciales se dividen en dos subcategorías más. Los sistemas secuenciales "síncronos" cambian de estado todos a la vez cuando una señal de reloj cambia de estado. Los sistemas secuenciales "asincrónicos" propagan cambios cada vez que cambian las entradas. Los sistemas secuenciales síncronos se crean utilizando flip-flops que almacenan los voltajes de entrada como un bit solo cuando cambia el reloj.

Sistemas sincrónicos

Un contador de anillo de 4 bits que utiliza flip-flops tipo D es un ejemplo de lógica síncrona. Cada dispositivo está conectado a la señal del reloj y se actualizan juntos.

La forma habitual de implementar una máquina de estados secuencial síncrona es dividirla en una pieza de lógica combinacional y un conjunto de flip-flops llamado registro de estado . El registro de estado representa el estado como un número binario. La lógica combinacional produce la representación binaria para el siguiente estado. En cada ciclo de reloj, el registro de estado captura la retroalimentación generada a partir del estado anterior de la lógica combinacional y la devuelve como una entrada invariable a la parte combinacional de la máquina de estados. La velocidad del reloj está limitada por el cálculo lógico que requiere más tiempo en la lógica combinacional.

Sistemas asíncronos

La mayor parte de la lógica digital es síncrona porque es más fácil crear y verificar un diseño síncrono. Sin embargo, la lógica asíncrona tiene la ventaja de que su velocidad no está limitada por un reloj arbitrario; en cambio, corre a la velocidad máxima de sus puertas lógicas. [a]

Sin embargo, la mayoría de los sistemas necesitan aceptar señales externas no sincronizadas en sus circuitos lógicos síncronos. Esta interfaz es inherentemente asíncrona y debe analizarse como tal. Ejemplos de circuitos asíncronos ampliamente utilizados incluyen flip-flops sincronizadores, interruptores antirrebote y árbitros .

Los componentes de lógica asincrónica pueden ser difíciles de diseñar porque se deben considerar todos los estados posibles, en todos los tiempos posibles. El método habitual consiste en construir una tabla del tiempo mínimo y máximo que puede existir cada uno de esos estados y luego ajustar el circuito para minimizar el número de dichos estados. El diseñador debe obligar al circuito a esperar periódicamente a que todas sus partes entren en un estado compatible (esto se denomina "autorresincronización"). Sin un diseño cuidadoso, es fácil producir accidentalmente una lógica asíncrona que sea inestable; es decir, la electrónica real tendrá resultados impredecibles debido a los retrasos acumulativos causados ​​por pequeñas variaciones en los valores de los componentes electrónicos.

Registrar sistemas de transferencia

Ejemplo de un circuito simple con salida alternante. El inversor forma la lógica combinacional en este circuito y el registro mantiene el estado.

Muchos sistemas digitales son máquinas de flujo de datos . Por lo general, se diseñan utilizando lógica de transferencia de registros síncronos y se escriben con lenguajes de descripción de hardware como VHDL o Verilog .

En la lógica de transferencia de registros, los números binarios se almacenan en grupos de flip-flops llamados registros . Una máquina de estados secuencial controla cuándo cada registro acepta nuevos datos de su entrada. Las salidas de cada registro son un haz de cables llamado bus que lleva ese número a otros cálculos. Un cálculo es simplemente una pieza de lógica combinacional. Cada cálculo dispone además de un bus de salida, pudiendo conectarse a las entradas de varios registros. A veces, una caja registradora tendrá un multiplexor en su entrada para que pueda almacenar un número de cualquiera de varios buses. [b]

Los sistemas asíncronos de transferencia de registros (como las computadoras) tienen una solución general. En la década de 1980, algunos investigadores descubrieron que casi todas las máquinas de transferencia de registros síncronas podían convertirse en diseños asíncronos utilizando la lógica de sincronización de primero en entrar, primero en salir. En este esquema, la máquina digital se caracteriza como un conjunto de flujos de datos. En cada paso del flujo, un circuito de sincronización determina cuándo las salidas de ese paso son válidas e indica a la siguiente etapa cuándo usar estas salidas. [ cita necesaria ]

Diseño de computadora

Microprocesador Intel 80486DX2

La máquina lógica de transferencia de registros de uso más general es una computadora . Esto es básicamente un ábaco binario automático . La unidad de control de una computadora suele estar diseñada como un microprograma ejecutado por un microsecuenciador . Un microprograma es muy parecido al rollo de un piano. Cada entrada de la tabla del microprograma controla el estado de cada bit que controla la computadora. Luego, el secuenciador cuenta y el conteo se dirige a la memoria o a la máquina lógica combinacional que contiene el microprograma. Los bits del microprograma controlan la unidad lógica aritmética , la memoria y otras partes de la computadora, incluido el propio microsecuenciador. De esta manera, la compleja tarea de diseñar los controles de una computadora se reduce a la tarea más simple de programar una colección de máquinas lógicas mucho más simples.

Casi todas las computadoras son síncronas. Sin embargo, también se han construido ordenadores asíncronos . Un ejemplo es el núcleo ASPIDA DLX . [32] ARM Holdings ofreció otro . [33] Sin embargo, no tienen ninguna ventaja de velocidad porque los diseños de computadoras modernas ya funcionan a la velocidad de su componente más lento, generalmente la memoria. Usan algo menos de energía porque no se necesita una red de distribución de relojes. Una ventaja inesperada es que las computadoras asíncronas no producen ruido de radio espectralmente puro. Se utilizan en algunos controladores de estaciones base de teléfonos móviles sensibles a la radio. Pueden ser más seguros en aplicaciones criptográficas porque sus emisiones eléctricas y de radio pueden ser más difíciles de decodificar. [33]

Arquitectura de Computadores

La arquitectura de computadoras es una actividad de ingeniería especializada que intenta ordenar los registros, la lógica de cálculo, los buses y otras partes de la computadora de la mejor manera posible para un propósito específico. Los arquitectos informáticos han trabajado mucho para reducir el costo y aumentar la velocidad de las computadoras, además de aumentar su inmunidad a los errores de programación. Un objetivo cada vez más común de los arquitectos informáticos es reducir la energía utilizada en los sistemas informáticos que funcionan con baterías, como los teléfonos inteligentes .

Problemas de diseño en circuitos digitales.

Los circuitos digitales están hechos de componentes analógicos. El diseño debe garantizar que la naturaleza analógica de los componentes no domine el comportamiento digital deseado. Los sistemas digitales deben gestionar el ruido y los márgenes de temporización, las inductancias y capacitancias parásitas.

Los malos diseños tienen problemas intermitentes, como fallos , pulsos extremadamente rápidos que pueden activar alguna lógica pero no otras, pulsos cortos que no alcanzan voltajes umbral válidos .

Además, cuando los sistemas digitales sincronizados interactúan con sistemas analógicos o sistemas controlados desde un reloj diferente, el sistema digital puede estar sujeto a metaestabilidad donde un cambio en la entrada viola el tiempo de configuración para un bloqueo de entrada digital.

Dado que los circuitos digitales están hechos de componentes analógicos, los circuitos digitales calculan más lentamente que los circuitos analógicos de baja precisión que utilizan una cantidad similar de espacio y energía. Sin embargo, el circuito digital calculará de forma más repetible debido a su alta inmunidad al ruido.

Herramientas de diseño automatizadas

Gran parte del esfuerzo de diseño de grandes máquinas lógicas se ha automatizado mediante la aplicación de la automatización del diseño electrónico (EDA).

Las descripciones de lógica simples al estilo de tablas de verdad a menudo se optimizan con EDA, que produce automáticamente sistemas reducidos de puertas lógicas o tablas de búsqueda más pequeñas que aún producen los resultados deseados. El ejemplo más común de este tipo de software es el minimizador de lógica heurística Espresso . La optimización de sistemas lógicos grandes se puede realizar utilizando el algoritmo Quine-McCluskey o diagramas de decisión binarios . Hay experimentos prometedores con algoritmos genéticos y optimizaciones de recocido .

Para automatizar costosos procesos de ingeniería, algunos EDA pueden tomar tablas de estado que describen máquinas de estados y producir automáticamente una tabla de verdad o una tabla de funciones para la lógica combinacional de una máquina de estados. La tabla de estados es un fragmento de texto que enumera cada estado, junto con las condiciones que controlan las transiciones entre ellos y sus señales de salida asociadas.

A menudo, los sistemas lógicos reales se diseñan como una serie de subproyectos, que se combinan mediante un flujo de herramientas . El flujo de herramientas generalmente se controla con la ayuda de un lenguaje de secuencias de comandos , un lenguaje informático simplificado que puede invocar las herramientas de diseño de software en el orden correcto. Los flujos de herramientas para grandes sistemas lógicos, como los microprocesadores , pueden tener miles de comandos y combinar el trabajo de cientos de ingenieros. Escribir y depurar flujos de herramientas es una especialidad de ingeniería establecida en empresas que producen diseños digitales. El flujo de herramientas generalmente termina en un archivo de computadora detallado o un conjunto de archivos que describen cómo construir físicamente la lógica. A menudo consiste en instrucciones sobre cómo dibujar los transistores y los cables en un circuito integrado o una placa de circuito impreso .

Partes de los flujos de herramientas se depuran verificando las salidas de la lógica simulada con las entradas esperadas. Las herramientas de prueba toman archivos de computadora con conjuntos de entradas y salidas y resaltan las discrepancias entre el comportamiento simulado y el comportamiento esperado. Una vez que se cree que los datos de entrada son correctos, aún se debe verificar la corrección del diseño en sí. Algunos flujos de herramientas verifican los diseños produciendo primero un diseño y luego escaneando el diseño para producir datos de entrada compatibles para el flujo de herramientas. Si los datos escaneados coinciden con los datos de entrada, entonces el flujo de herramientas probablemente no haya introducido errores.

Los datos de verificación funcional suelen denominarse vectores de prueba . Los vectores de prueba funcionales se pueden conservar y utilizar en fábrica para probar si la lógica recién construida funciona correctamente. Sin embargo, los patrones de prueba funcionales no descubren todos los fallos de fabricación. Las pruebas de producción suelen estar diseñadas mediante herramientas de software de generación automática de patrones de prueba . Estos generan vectores de prueba examinando la estructura de la lógica y generando sistemáticamente pruebas dirigidas a fallas potenciales particulares. De esta manera, la cobertura de fallas puede acercarse al 100%, siempre que el diseño sea comprobable adecuadamente (consulte la siguiente sección).

Una vez que un diseño existe y es verificado y comprobable, a menudo es necesario procesarlo para que también sea factible de fabricar. Los circuitos integrados modernos tienen características más pequeñas que la longitud de onda de la luz utilizada para exponer el fotoprotector. El software diseñado para la capacidad de fabricación agrega patrones de interferencia a las máscaras de exposición para eliminar los circuitos abiertos y mejorar el contraste de las máscaras.

Diseño para la capacidad de prueba

Hay varias razones para probar un circuito lógico. Cuando se desarrolla el circuito por primera vez, es necesario verificar que el circuito de diseño cumpla con las especificaciones funcionales y de sincronización requeridas. Cuando se fabrican varias copias de un circuito correctamente diseñado, es fundamental probar cada copia para garantizar que el proceso de fabricación no haya introducido ningún defecto. [34]

Una máquina lógica grande (digamos, con más de cien variables lógicas) puede tener un número astronómico de estados posibles. Obviamente, probar en fábrica cada estado de una máquina de este tipo es inviable, porque incluso si probar cada estado solo tomara un microsegundo, ¡hay más estados posibles que microsegundos desde que comenzó el universo!

Las máquinas lógicas grandes casi siempre se diseñan como conjuntos de máquinas lógicas más pequeñas. Para ahorrar tiempo, las submáquinas más pequeñas están aisladas mediante un diseño instalado permanentemente para circuitos de prueba y se prueban de forma independiente. Un esquema de prueba común proporciona un modo de prueba que fuerza a alguna parte de la máquina lógica a entrar en un ciclo de prueba . El ciclo de prueba suele ejercitar grandes partes independientes de la máquina.

La exploración de límites es un esquema de prueba común que utiliza comunicación en serie con equipos de prueba externos a través de uno o más registros de desplazamiento conocidos como cadenas de exploración . Los escaneos en serie tienen sólo uno o dos cables para transportar los datos y minimizan el tamaño físico y el gasto de la lógica de prueba que se utiliza con poca frecuencia. Una vez que todos los bits de datos de prueba están en su lugar, el diseño se reconfigura para estar en modo normal y se aplican uno o más pulsos de reloj para probar fallas (por ejemplo, atascado en nivel bajo o atascado en alto) y capturar el resultado de la prueba en flip-flops o pestillos en los registros de desplazamiento de exploración. Finalmente, el resultado de la prueba se traslada al límite del bloque y se compara con el buen resultado previsto de la máquina.

En un entorno de prueba de placa, las pruebas de serie a paralelo se han formalizado como el estándar JTAG .

Compensaciones

Costo

Dado que un sistema digital puede utilizar muchas puertas lógicas, el costo total de construir una computadora se correlaciona fuertemente con el costo de una puerta lógica. En la década de 1930, los primeros sistemas lógicos digitales se construyeron a partir de relés telefónicos porque eran económicos y relativamente confiables.

Los primeros circuitos integrados se construyeron para ahorrar peso y permitir que la computadora de guía Apollo controlara un sistema de guía inercial para una nave espacial. Las primeras compuertas lógicas de circuito integrado costaron cerca de 50 dólares, lo que en 2022 equivaldría a 495 dólares. Las puertas producidas en masa en circuitos integrados se convirtieron en el método menos costoso para construir lógica digital.

Con el auge de los circuitos integrados , reducir el número absoluto de chips utilizados representó otra forma de ahorrar costes. El objetivo de un diseñador no es sólo hacer el circuito más simple, sino también mantener la cuenta regresiva de los componentes. A veces, esto da como resultado diseños más complicados con respecto a la lógica digital subyacente, pero aún así reduce la cantidad de componentes, el tamaño de la placa e incluso el consumo de energía.

Fiabilidad

Otro motivo importante para reducir el número de componentes en las placas de circuito impreso es reducir la tasa de defectos de fabricación debido a conexiones soldadas fallidas y aumentar la confiabilidad. Las tasas de defectos y fallas tienden a aumentar junto con el número total de pasadores de componentes.

La falla de una sola puerta lógica puede causar que falle una máquina digital. Cuando se requiere confiabilidad adicional, se puede proporcionar lógica redundante. La redundancia agrega costos y consumo de energía en comparación con un sistema no redundante.

La confiabilidad de una puerta lógica se puede describir por su tiempo medio entre fallas (MTBF). Las máquinas digitales se volvieron útiles por primera vez cuando el MTBF de un interruptor aumentó por encima de unos pocos cientos de horas. Aun así, muchas de estas máquinas tenían procedimientos de reparación complejos y bien ensayados, y no funcionaban durante horas porque un tubo se quemaba o una polilla se quedaba atrapada en un relé. Las puertas lógicas de circuitos integrados transistorizados modernos tienen MTBF superiores a 82 mil millones de horas (8,2 × 10 10  h ). [35] Este nivel de confiabilidad es necesario porque los circuitos integrados tienen muchas puertas lógicas.

Distribución en abanico

Fan-out describe cuántas entradas lógicas se pueden controlar mediante una sola salida lógica sin exceder las clasificaciones de corriente eléctrica de las salidas de la puerta. [36] El mínimo despliegue práctico es de aproximadamente cinco. [ cita necesaria ] Las puertas lógicas electrónicas modernas que utilizan transistores CMOS para interruptores tienen una distribución más alta.

Velocidad

La velocidad de conmutación describe cuánto tiempo le toma a una salida lógica cambiar de verdadero a falso o viceversa. Una lógica más rápida puede realizar más operaciones en menos tiempo. La lógica digital electrónica moderna conmuta rutinariamente en5  GHz , y algunos sistemas de laboratorio conmutan a más de1  THz . [ cita necesaria ] .

familias lógicas

El diseño digital comenzó con una lógica de relé que es lenta. Ocasionalmente ocurriría una falla mecánica. Los despliegues eran típicamente alrededor de 10, limitados por la resistencia de las bobinas y la formación de arcos en los contactos debido a altos voltajes.

Posteriormente se utilizaron tubos de vacío . Eran muy rápidos, pero generaban calor y no eran fiables porque los filamentos se quemaban. Los ventiladores eran típicamente de 5 a 7, limitados por el calentamiento de la corriente de los tubos. En la década de 1950, se desarrollaron tubos de computadora especiales con filamentos que omitían elementos volátiles como el silicio. Estos funcionaron durante cientos de miles de horas.

La primera familia de lógica de semiconductores fue la lógica de resistencia-transistor . Esto era mil veces más confiable que los tubos, funcionaba a menor temperatura y consumía menos energía, pero tenía una distribución muy baja de 3. La lógica de diodo-transistor mejoró la distribución hasta aproximadamente 7 y redujo la potencia. Algunos diseños DTL utilizaron dos fuentes de alimentación con capas alternas de transistores NPN y PNP para aumentar la distribución.

La lógica transistor-transistor (TTL) fue una gran mejora con respecto a estas. En los primeros dispositivos, el despliegue mejoró a 10, y las variaciones posteriores lograron de manera confiable 20. TTL también fue rápido, y algunas variaciones lograron tiempos de conmutación tan bajos como 20 ns. TTL todavía se utiliza en algunos diseños.

La lógica de emisor acoplado es muy rápida pero utiliza mucha energía. Fue ampliamente utilizado para ordenadores de alto rendimiento, como el Illiac IV , compuesto por muchos componentes de escala media.

Con diferencia, los circuitos integrados digitales más comunes construidos en la actualidad utilizan lógica CMOS , que es rápida, ofrece alta densidad de circuito y baja potencia por puerta. Esto se utiliza incluso en ordenadores grandes y rápidos, como el IBM System z .

Desarrollos recientes

En 2009, los investigadores descubrieron que los memristores pueden implementar un almacenamiento de estado booleano y proporcionan una familia lógica completa con cantidades muy pequeñas de espacio y energía, utilizando procesos semiconductores CMOS familiares. [37]

El descubrimiento de la superconductividad ha permitido el desarrollo de la tecnología de circuitos cuánticos de flujo único rápido (RSFQ), que utiliza uniones Josephson en lugar de transistores. Más recientemente, se está intentando construir sistemas informáticos puramente ópticos capaces de procesar información digital utilizando elementos ópticos no lineales .

Ver también

Notas

  1. ^ Un ejemplo de una de las primeras computadoras digitales asíncronas fue la Jaincomp-B1 fabricada por Jacobs Instrument Company en 1951. [31]
  2. ^ Alternativamente, las salidas de varios elementos se pueden conectar a un bus a través de buffers que pueden apagar la salida de todos los dispositivos excepto uno.

Referencias

  1. ^ Nulo, Linda; Lobur, Julia (2006). Los fundamentos de la organización y arquitectura de computadoras . Editores Jones y Bartlett. pag. 121.ISBN _ 978-0-7637-3769-6. Podemos construir diagramas lógicos (que a su vez conducen a circuitos digitales) para cualquier expresión booleana...
  2. ^ Peirce, CS, "Carta de Peirce a A. Marquand ", fechada en 1886, Escritos de Charles S. Peirce , v. 5, 1993, págs. Vista previa de Google. Véase Burks, Arthur W. , "Revisión: Charles S. Peirce, Los nuevos elementos de las matemáticas ", Boletín de la Sociedad Matemática Estadounidense v. 84, n. 5 (1978), págs. 913–18, véase 917. PDF Eprint.
  3. ^ En 1946, ENIAC requería aproximadamente 174 kW. En comparación, una computadora portátil moderna puede consumir alrededor de 30 W; casi seis mil veces menos. "Consumo aproximado de energía de computadoras de escritorio y portátiles". Universidad de Pennsylvania. Archivado desde el original el 3 de junio de 2009 . Consultado el 20 de junio de 2009 .
  4. ^ "Un pionero de la informática redescubierto, 50 años después". Los New York Times . 20 de abril de 1994.
  5. ^ Lee, Thomas H. (2003). El diseño de circuitos integrados de radiofrecuencia CMOS (PDF) . Prensa de la Universidad de Cambridge . ISBN 9781139643771. Archivado (PDF) desde el original el 9 de octubre de 2022.
  6. ^ Puers, Robert; Baldí, Livio; Voorde, Marcel Van de; Nooten, Sebastiaan E. van (2017). Nanoelectrónica: materiales, dispositivos, aplicaciones, 2 volúmenes. John Wiley e hijos . pag. 14.ISBN _ 9783527340538.
  7. ^ Lavington, Simon (1998), Una historia de las computadoras de Manchester (2 ed.), Swindon: The British Computer Society, págs.
  8. ^ "El chip que construyó Jack". Instrumentos Texas. 2008 . Consultado el 29 de mayo de 2008 .
  9. ^ Bassett, Ross Knox (2007). Hacia la era digital: laboratorios de investigación, empresas de nueva creación y el auge de la tecnología MOS. Prensa de la Universidad Johns Hopkins. pag. 46.ISBN _ 9780801886393.
  10. ^ "1960 - Demostración del transistor semiconductor de óxido metálico (MOS)". El motor de silicio . Museo de Historia de la Computación .
  11. ^ ab "¿Quién inventó el transistor?". Museo de Historia de la Computación . 4 de diciembre de 2013 . Consultado el 20 de julio de 2019 .
  12. ^ "Triunfo del transistor MOS". YouTube . Museo de Historia de la Computación . 6 de agosto de 2010. Archivado desde el original el 11 de diciembre de 2021 . Consultado el 21 de julio de 2019 .
  13. ^ Motoyoshi, M. (2009). "A través de silicio (TSV)". Actas del IEEE . 97 (1): 43–48. doi :10.1109/JPROC.2008.2007462. ISSN  0018-9219. S2CID  29105721.
  14. ^ "La tortuga de transistores gana la carrera: revolución CHM". Museo de Historia de la Computación . Consultado el 22 de julio de 2019 .
  15. ^ "Los transistores mantienen viva la ley de Moore". EETimes . 12 de diciembre de 2018 . Consultado el 18 de julio de 2019 .
  16. ^ ab "Aplicación de MOSFET a los diseños de conmutación de energía actuales". Diseño Electrónico . 23 de mayo de 2016 . Consultado el 10 de agosto de 2019 .
  17. ^ B. SOMANATHAN NAIR (2002). Diseño lógico y electrónico digital . PHI Aprendizaje Pvt. Limitado. Ltd. pág. 289.ISBN _ 9788120319561. Las señales digitales son pulsos de ancho fijo, que ocupan sólo uno de dos niveles de amplitud.
  18. ^ José Migga Kizza (2005). Seguridad de la red informática . Medios de ciencia y negocios de Springer. ISBN 9780387204734.
  19. ^ 2000 Problemas resueltos en electrónica digital. Educación de Tata McGraw-Hill . 2005. pág. 151.ISBN _ 978-0-07-058831-8.
  20. ^ Chan, Yi-Jen (1992). Estudios de FET de heteroestructura InAIAs/InGaAs y GaInP/GaAs para aplicaciones de alta velocidad. Universidad de Michigan . pag. 1. El MOSFET de Si ha revolucionado la industria electrónica y, como resultado, impacta nuestra vida diaria en casi todas las formas imaginables.
  21. ^ Conceder, Duncan Andrew; Gowar, John (1989). MOSFETS de potencia: teoría y aplicaciones. Wiley . pag. 1.ISBN _ 9780471828679. El transistor de efecto de campo semiconductor de óxido metálico (MOSFET) es el dispositivo activo más utilizado en la integración a gran escala de circuitos integrados digitales (VLSI). Durante la década de 1970, estos componentes revolucionaron el procesamiento de señales electrónicas, los sistemas de control y las computadoras.
  22. ^ Golio, Mike; Golio, Janet (2018). Tecnologías activas y pasivas de RF y microondas. Prensa CRC . págs. 18-2. ISBN 9781420006728.
  23. ^ Hittinger, William C. (1973). "Tecnología de semiconductores de óxido metálico". Científico americano . 229 (2): 48–59. Código Bib : 1973SciAm.229b..48H. doi :10.1038/scientificamerican0873-48. ISSN  0036-8733. JSTOR  24923169.
  24. ^ Peter Clarke (14 de octubre de 2005). "Intel entra en la era de los procesadores de mil millones de transistores". Tiempos EE.UU.
  25. ^ "13 sextillones y contando: el largo y sinuoso camino hacia el artefacto humano fabricado con más frecuencia en la historia". Museo de Historia de la Computación . 2 de abril de 2018 . Consultado el 12 de octubre de 2020 .
  26. ^ Golio, Mike; Golio, Janet (2018). Tecnologías activas y pasivas de RF y microondas. Prensa CRC . págs. ix, I-1, 18-2. ISBN 9781420006728.
  27. ^ Rappaport, TS (noviembre de 1991). "La revolución inalámbrica". Revista de comunicaciones IEEE . 29 (11): 52–71. doi :10.1109/35.109666. S2CID  46573735.
  28. ^ "La revolución inalámbrica". El economista . 21 de enero de 1999 . Consultado el 12 de septiembre de 2019 .
  29. ^ Paul Horowitz y Winfield Hill, El arte de la electrónica, 2ª ed. Cambridge University Press, Cambridge, 1989 ISBN 0-521-37095-7 página 471 
  30. ^ Principal. Alaska (2007). Principios, dispositivos y aplicaciones de la electrónica digital. Chichester, Inglaterra.: John Wiley & Sons Ltd.
  31. ^ Simposio del Pentágono: Computadoras digitales electrónicas de uso general disponibles comercialmente y de precio moderado, Washington, DC, 14 de mayo de 1952
  32. ^ "Núcleo DLX asincrónico/sincronizado de ASODA". OpenCores.org . Consultado el 5 de septiembre de 2014 .
  33. ^ ab Clarke, Peter. "ARM ofrece el primer núcleo de procesador sin reloj". eetimes.com . Tecnología UBM (Universal Business Media) . Consultado el 5 de septiembre de 2014 .
  34. ^ Brown S y Vranesic Z. (2009). Fundamentos de Lógica Digital con Diseño VHDL. 3ª edición. Nueva York, Nueva York: Mc Graw Hill.
  35. ^ MIL-HDBK-217F aviso 2, sección 5.3, para circuitos integrados comerciales CMOS de 0,8 micrómetros y 100.000 puertas a 40 °C; Las tasas de falla en 2010 son mejores, porque el tamaño de las líneas ha disminuido a 0,045 micrómetros y se necesitan menos conexiones fuera del chip por puerta.
  36. ^ Kleitz, William. (2002). Fundamentos digitales y de microprocesadores: teoría y aplicación. 4ª edición. Upper Saddler Reviver, Nueva Jersey: Pearson/Prentice Hall
  37. ^ Lehtonen, Eero; Laiho, Mika (2009). Lógica de implicación con estado con memristores . Simposio internacional IEEE/ACM 2009 sobre arquitecturas a nanoescala . págs. 33–36. doi :10.1109/NANOARCH.2009.5226356. ISBN 978-1-4244-4957-6.

Otras lecturas

enlaces externos