Los dispositivos electrónicos de bajo consumo son dispositivos electrónicos, como los procesadores de los portátiles , que se han diseñado para utilizar menos energía eléctrica de lo habitual, a menudo con un cierto coste. En el caso de los procesadores de los portátiles, este gasto es la potencia de procesamiento; los procesadores de los portátiles suelen consumir menos energía que sus homólogos de sobremesa, a expensas de una menor potencia de procesamiento. [1]
Los primeros intentos de reducir la cantidad de energía que requiere un dispositivo electrónico estuvieron relacionados con el desarrollo del reloj de pulsera . Los relojes electrónicos requieren electricidad como fuente de energía, y algunos movimientos mecánicos y movimientos electromecánicos híbridos también requieren electricidad. Por lo general, la electricidad la proporciona una batería reemplazable . El primer uso de energía eléctrica en los relojes fue como sustituto del resorte real , para eliminar la necesidad de darle cuerda. El primer reloj alimentado eléctricamente, el Hamilton Electric 500 , fue lanzado en 1957 por la Hamilton Watch Company de Lancaster, Pensilvania .
Los primeros relojes de pulsera de cuarzo se fabricaron en 1967, utilizando manecillas analógicas para mostrar la hora. [2]
Las pilas de los relojes (en sentido estricto, las pilas están compuestas de varias celdas) están especialmente diseñadas para su propósito. Son muy pequeñas y proporcionan cantidades minúsculas de energía de forma continua durante períodos muy largos (varios años o más). En algunos casos, para reemplazar la pila es necesario acudir a un taller de reparación de relojes o a un distribuidor de relojes. En algunos relojes que funcionan con energía solar se utilizan pilas recargables .
El primer reloj electrónico digital fue un prototipo LED Pulsar producido en 1970. [3] Los relojes LED digitales eran muy caros y estaban fuera del alcance del consumidor común hasta 1975, cuando Texas Instruments comenzó a producir en masa relojes LED dentro de una caja de plástico.
La mayoría de los relojes con pantallas LED requerían que el usuario presionara un botón para ver la hora durante unos segundos, ya que los LED consumían tanta energía que no podían mantenerse en funcionamiento continuo. Los relojes con pantallas LED fueron populares durante unos años, pero pronto las pantallas LED fueron reemplazadas por pantallas de cristal líquido (LCD), que consumían menos energía de la batería y eran mucho más cómodas de usar, ya que la pantalla siempre estaba visible y no era necesario presionar un botón para ver la hora. Solo en la oscuridad, había que presionar un botón para iluminar la pantalla con una pequeña bombilla, que luego iluminaría los LED. [4]
La mayoría de los relojes electrónicos actuales utilizan osciladores de cuarzo de 32,768 KHz . [2]
A partir de 2013, los procesadores diseñados específicamente para relojes de pulsera son los procesadores de menor consumo fabricados hoy en día: generalmente procesadores de 4 bits y 32,768 kHz.
Cuando se desarrollaron los primeros ordenadores personales , el consumo de energía no era un problema. Sin embargo, con el desarrollo de los ordenadores portátiles , el requisito de que un ordenador funcionara con una batería hizo necesaria la búsqueda de un equilibrio entre la potencia de cálculo y el consumo de energía. Originalmente, la mayoría de los procesadores utilizaban tanto el núcleo como los circuitos de E/S a 5 voltios, como en el caso del Intel 8088 utilizado por el primer Compaq Portable . Más tarde, se redujo a 3,5, 3,3 y 2,5 voltios para reducir el consumo de energía. Por ejemplo, el voltaje del núcleo del Pentium P5 se redujo de 5 V en 1993 a 2,5 V en 1997.
Un voltaje más bajo conlleva un menor consumo total de energía, lo que hace que un sistema sea más económico de operar con cualquier tecnología de batería existente y pueda funcionar durante más tiempo. Esto es de vital importancia para los sistemas portátiles o móviles. El énfasis en el funcionamiento con batería ha impulsado muchos de los avances en la reducción del voltaje del procesador porque esto tiene un efecto significativo en la vida útil de la batería. El segundo beneficio importante es que con menos voltaje y, por lo tanto, menos consumo de energía, se producirá menos calor. Los procesadores que funcionan a menor temperatura se pueden empaquetar en sistemas de manera más compacta y durarán más. El tercer beneficio importante es que un procesador que funciona a menor temperatura con menos energía puede funcionar más rápido. Reducir el voltaje ha sido uno de los factores clave para permitir que la velocidad de reloj de los procesadores sea cada vez más alta. [5]
La densidad y velocidad de los elementos de computación de los circuitos integrados ha aumentado exponencialmente durante varias décadas, siguiendo una tendencia descrita por la Ley de Moore . Si bien se acepta generalmente que esta tendencia de mejora exponencial terminará, no está claro exactamente qué tan densos y rápidos serán los circuitos integrados cuando se alcance este punto. Se han demostrado dispositivos funcionales que se fabricaron con una longitud de canal de transistor MOSFET de 6,3 nanómetros utilizando materiales semiconductores convencionales, y se han construido dispositivos que utilizan nanotubos de carbono como puertas MOSFET, lo que da una longitud de canal de aproximadamente un nanómetro . La densidad y la potencia de cálculo de los circuitos integrados están limitadas principalmente por preocupaciones de disipación de energía.
El consumo total de energía de un nuevo ordenador personal ha aumentado a un ritmo de aproximadamente un 22% al año. [6] Este aumento en el consumo se produce a pesar de que la energía consumida por una sola puerta lógica CMOS para cambiar su estado ha disminuido exponencialmente de acuerdo con la ley de Moore, en virtud de la contracción. [6]
Un chip de circuito integrado contiene muchas cargas capacitivas , formadas tanto intencionalmente (como en el caso de la capacitancia de compuerta a canal) como involuntariamente (entre conductores que están cerca uno del otro pero no conectados eléctricamente). Cambiar el estado del circuito provoca un cambio en el voltaje a través de estas capacitancias parásitas , lo que implica un cambio en la cantidad de energía almacenada. A medida que las cargas capacitivas se cargan y descargan a través de dispositivos resistivos , se disipa una cantidad de energía comparable a la almacenada en el capacitor en forma de calor:
El efecto de la disipación de calor en el cambio de estado es limitar la cantidad de computación que se puede realizar dentro de un presupuesto de energía dado. Si bien la contracción del dispositivo puede reducir algunas capacitancias parásitas, la cantidad de dispositivos en un chip de circuito integrado ha aumentado más que suficiente para compensar la capacitancia reducida en cada dispositivo individual. Algunos circuitos, la lógica dinámica , por ejemplo, requieren una frecuencia de reloj mínima para funcionar correctamente, desperdiciando "energía dinámica" incluso cuando no realizan cálculos útiles. Otros circuitos, el más destacado, el RCA 1802 , pero también varios chips posteriores como el WDC 65C02 , el Intel 80C85 , el Freescale 68HC11 y algunos otros chips CMOS , utilizan una "lógica completamente estática" que no tiene una frecuencia de reloj mínima, pero puede "detener el reloj" y mantener su estado indefinidamente. Cuando se detiene el reloj, estos circuitos no usan energía dinámica, pero aún tienen un pequeño consumo de energía estática causado por la corriente de fuga.
A medida que las dimensiones del circuito se reducen, la corriente de fuga por debajo del umbral se hace más evidente. Esta corriente de fuga genera consumo de energía, incluso cuando no se produce ninguna conmutación (consumo de energía estático). En los chips modernos, esta corriente generalmente representa la mitad de la energía consumida por el CI.
La pérdida por fugas por debajo del umbral se puede reducir aumentando el voltaje de umbral y reduciendo el voltaje de suministro. Ambos cambios ralentizan significativamente el circuito. Para solucionar este problema, algunos circuitos modernos de bajo consumo utilizan voltajes de suministro duales para mejorar la velocidad en las rutas críticas del circuito y reducir el consumo de energía en las rutas no críticas. Algunos circuitos incluso utilizan transistores diferentes (con diferentes voltajes de umbral) en diferentes partes del circuito, en un intento de reducir aún más el consumo de energía sin una pérdida significativa de rendimiento.
Otro método que se utiliza para reducir el consumo de energía es el power gating : [7] el uso de transistores de suspensión para desactivar bloques enteros cuando no están en uso. Los sistemas que están inactivos durante largos períodos de tiempo y se "despiertan" para realizar una actividad periódica a menudo se encuentran en una ubicación aislada monitoreando una actividad. Estos sistemas generalmente funcionan con baterías o energía solar y, por lo tanto, reducir el consumo de energía es una cuestión de diseño clave para estos sistemas. Al apagar un bloque funcional pero con fugas hasta que se use, la corriente de fuga se puede reducir significativamente. Para algunos sistemas integrados que solo funcionan durante períodos cortos a la vez, esto puede reducir drásticamente el consumo de energía.
Existen otros dos enfoques para reducir la sobrecarga de energía de los cambios de estado. Uno es reducir el voltaje operativo del circuito, como en una CPU de voltaje dual , o reducir el cambio de voltaje involucrado en un cambio de estado (realizando solo un cambio de estado, cambiando el voltaje del nodo por una fracción del voltaje de suministro, señalización diferencial de bajo voltaje , por ejemplo). Este enfoque está limitado por el ruido térmico dentro del circuito. Hay un voltaje característico (proporcional a la temperatura del dispositivo y a la constante de Boltzmann ), que el voltaje de conmutación de estado debe superar para que el circuito sea resistente al ruido. Este suele ser del orden de 50 a 100 mV, para dispositivos clasificados para una temperatura externa de 100 grados Celsius (aproximadamente 4 kT , donde T es la temperatura interna del dispositivo en Kelvin y k es la constante de Boltzmann ).
El segundo enfoque consiste en intentar proporcionar carga a las cargas capacitivas a través de caminos que no sean principalmente resistivos. Este es el principio detrás de los circuitos adiabáticos . La carga se suministra desde una fuente de alimentación inductiva de voltaje variable o mediante otros elementos en un circuito de lógica reversible . En ambos casos, la transferencia de carga debe estar regulada principalmente por la carga no resistiva. Como regla práctica, esto significa que la tasa de cambio de una señal debe ser más lenta que la dictada por la constante de tiempo RC del circuito que se está controlando. En otras palabras, el precio de un consumo de energía reducido por unidad de cálculo es una velocidad absoluta de cálculo reducida. En la práctica, aunque se han construido circuitos adiabáticos, ha sido difícil para ellos reducir sustancialmente la potencia de cálculo en circuitos prácticos.
Por último, existen varias técnicas para reducir el número de cambios de estado asociados a un cálculo determinado. En el caso de los circuitos de lógica sincronizada, se utiliza la técnica de activación de reloj para evitar cambiar el estado de los bloques funcionales que no son necesarios para una operación determinada. Como alternativa más extrema, el enfoque de lógica asincrónica implementa circuitos de tal manera que no se requiere un reloj específico suministrado externamente. Si bien ambas técnicas se utilizan en diferentes grados en el diseño de circuitos integrados, parece haberse alcanzado el límite de aplicabilidad práctica de cada una de ellas. [ cita requerida ]
Existen diversas técnicas para reducir la cantidad de energía de la batería necesaria para obtener el rendimiento deseado en las comunicaciones inalámbricas . [8] Algunas redes de malla inalámbricas utilizan técnicas de transmisión de bajo consumo "inteligentes" que reducen la energía de la batería necesaria para transmitir. Esto se puede lograr mediante el uso de protocolos que tengan en cuenta el consumo de energía y sistemas de control de potencia conjunta.
En 2007, aproximadamente el 10% del presupuesto promedio de TI se gastó en energía, y se esperaba que los costos de energía para TI aumentaran al 50% para 2010. [9]
El peso y el costo de los sistemas de suministro de energía y refrigeración generalmente dependen de la potencia máxima posible que se pueda utilizar en un momento dado. Hay dos formas de evitar que un sistema se dañe permanentemente por calor excesivo. La mayoría de las computadoras de escritorio diseñan sistemas de energía y refrigeración en torno a la disipación de potencia de la CPU en el peor de los casos a la frecuencia máxima, la carga de trabajo máxima y el entorno más desfavorable. Para reducir el peso y el costo, muchas computadoras portátiles optan por utilizar un sistema de refrigeración mucho más liviano y de menor costo diseñado en torno a una potencia de diseño térmico mucho menor , que está un poco por encima de la frecuencia máxima esperada, la carga de trabajo típica y el entorno típico. Por lo general, estos sistemas reducen (regulan) la velocidad del reloj cuando la temperatura de la matriz de la CPU se eleva demasiado, lo que reduce la potencia disipada a un nivel que el sistema de refrigeración puede manejar.
Los costos de energía, que ahora representan alrededor del 10% del presupuesto promedio de TI, podrían aumentar al 50%... para 2010.