stringtranslate.com

overclocking

Configuración de BIOS de overclocking en una placa base ABIT NF7-S con un procesador AMD Athlon XP . La frecuencia del bus frontal (FSB) (reloj externo) se aumentó de 133  MHz a 148 MHz y el factor multiplicador del reloj de la CPU se cambió de 13,5 a 16,5. Esto corresponde a un overclocking del FSB del 11,3% y de la CPU del 36%.

En informática , el overclocking es la práctica de aumentar la frecuencia de reloj de una computadora para superar la certificada por el fabricante. Comúnmente, el voltaje de operación también aumenta para mantener la estabilidad operativa de un componente a velocidades aceleradas. Los dispositivos semiconductores operados a frecuencias y voltajes más altos aumentan el consumo de energía y el calor. [1] Un dispositivo overclockeado puede no ser confiable o fallar por completo si no se elimina la carga de calor adicional o los componentes de suministro de energía no pueden satisfacer las mayores demandas de energía. Muchas garantías de dispositivos establecen que el overclocking o la sobreespecificación [ se necesita aclaración ] anula cualquier garantía, pero algunos fabricantes permiten el overclocking siempre que se realice (relativamente) de forma segura. [ cita necesaria ]

Descripción general

El propósito del overclocking es aumentar la velocidad de funcionamiento de un componente determinado. Normalmente, en los sistemas modernos, el objetivo del overclocking no es aumentar el rendimiento de un chip o subsistema importante, como el procesador principal o el controlador de gráficos, sino también de otros componentes, como la memoria del sistema ( RAM ) o los buses del sistema (generalmente en la placa base ). , están comúnmente involucrados. Las compensaciones son un aumento en el consumo de energía (calor), el ruido del ventilador (refrigeración) y una vida útil más corta de los componentes específicos. La mayoría de los componentes están diseñados con un margen de seguridad para hacer frente a condiciones operativas fuera del control del fabricante; Algunos ejemplos son la temperatura ambiente y las fluctuaciones en el voltaje de funcionamiento. Las técnicas de overclocking en general tienen como objetivo negociar este margen de seguridad configurando el dispositivo para que funcione en el extremo superior del margen, en el entendido de que el usuario debe monitorear y controlar más estrictamente la temperatura y el voltaje. Algunos ejemplos son que la temperatura de funcionamiento debería controlarse más estrictamente con un mayor enfriamiento, ya que la pieza será menos tolerante al aumento de temperaturas a velocidades más altas. También se puede aumentar el voltaje de operación base para compensar caídas de voltaje inesperadas y fortalecer las señales de señalización y temporización, ya que es más probable que las excursiones de bajo voltaje causen mal funcionamiento a velocidades de operación más altas.

Si bien la mayoría de los dispositivos modernos son bastante tolerantes al overclocking, todos los dispositivos tienen límites finitos. Generalmente, para cualquier voltaje dado, la mayoría de las piezas tendrán una velocidad máxima "estable" en la que seguirán funcionando correctamente. Pasada esta velocidad, el dispositivo empieza a dar resultados incorrectos, lo que puede provocar fallos de funcionamiento y comportamientos esporádicos en cualquier sistema que dependa de él. Mientras que en el contexto de una PC el resultado habitual es un fallo del sistema, errores más sutiles pueden pasar desapercibidos, lo que durante un tiempo suficiente puede dar sorpresas desagradables como corrupción de datos (resultados calculados incorrectamente o, peor aún, escritura incorrecta en el almacenamiento ) o fallos del sistema. sólo durante ciertas tareas específicas (el uso general, como la navegación por Internet y el procesamiento de textos , parece estar bien, pero cualquier aplicación que desee gráficos avanzados bloquea el sistema. También puede existir la posibilidad de dañar el hardware).

En este punto, un aumento en el voltaje de operación de una pieza puede permitir más margen para mayores aumentos en la velocidad del reloj, pero el aumento de voltaje también puede aumentar significativamente la producción de calor, así como acortar aún más la vida útil. En algún momento, habrá un límite impuesto por la capacidad de suministrar al dispositivo suficiente energía, la capacidad del usuario para enfriar la pieza y la tolerancia máxima de voltaje del propio dispositivo antes de que alcance una falla destructiva . El uso excesivo de voltaje o una refrigeración inadecuada pueden degradar rápidamente el rendimiento de un dispositivo hasta el punto de fallar o, en casos extremos, destruirlo por completo .

La velocidad obtenida mediante el overclocking depende en gran medida de las aplicaciones y cargas de trabajo que se ejecutan en el sistema, y ​​de qué componentes está siendo overclockeado por el usuario; Se publican puntos de referencia para diferentes propósitos.

Subclocking

Por el contrario, el objetivo principal del underclocking es reducir el consumo de energía y la generación de calor resultante de un dispositivo, con las contrapartidas de velocidades de reloj más bajas y reducciones en el rendimiento. Reducir los requisitos de refrigeración necesarios para mantener el hardware a una temperatura operativa determinada tiene beneficios en cadena, como reducir la cantidad y la velocidad de los ventiladores para permitir un funcionamiento más silencioso y, en los dispositivos móviles, aumentar la duración de la batería por carga. Algunos fabricantes reducen la frecuencia de los componentes de los equipos que funcionan con baterías para mejorar su duración o implementan sistemas que detectan cuando un dispositivo está funcionando con batería y reducen la frecuencia del reloj.

Se intentaría hacer underclocking y undervolting en un sistema de escritorio para que funcione silenciosamente (como para un centro de entretenimiento en el hogar) y al mismo tiempo ofrecer potencialmente un rendimiento mayor que el que ofrecen actualmente las ofertas de procesadores de bajo voltaje. Esto usaría una pieza de "voltaje estándar" e intentaría funcionar con voltajes más bajos (mientras se intenta mantener las velocidades del escritorio) para cumplir con un objetivo de rendimiento/ruido aceptable para la compilación. Esto también era atractivo ya que el uso de un procesador de "voltaje estándar" en una aplicación de "bajo voltaje" evitaba pagar el sobreprecio tradicional por una versión de bajo voltaje oficialmente certificada. Sin embargo, al igual que con el overclocking, no hay garantía de éxito, y se debe considerar el tiempo que dedica el constructor a investigar determinadas combinaciones de sistema/procesador y, especialmente, el tiempo y el tedio de realizar muchas iteraciones de pruebas de estabilidad. La utilidad del underclocking (nuevamente como el overclocking) está determinada por las ofertas de procesadores, los precios y la disponibilidad en el momento específico de la construcción. El underclocking también se utiliza a veces para solucionar problemas .

Cultura entusiasta

El overclocking se ha vuelto más accesible y los fabricantes de placas base lo ofrecen como una característica de marketing en sus principales líneas de productos. Sin embargo, la práctica es más adoptada por los entusiastas que por los usuarios profesionales, ya que el overclocking conlleva el riesgo de reducir la confiabilidad, la precisión y dañar los datos y los equipos. Además, la mayoría de las garantías y acuerdos de servicio de los fabricantes no cubren los componentes overclockeados ni ningún daño incidental causado por su uso. Si bien el overclocking aún puede ser una opción para aumentar la capacidad informática personal y, por lo tanto, la productividad del flujo de trabajo para usuarios profesionales, no se puede subestimar la importancia de probar minuciosamente la estabilidad de los componentes antes de emplearlos en un entorno de producción.

El overclocking ofrece varios atractivos para los entusiastas del overclocking. El overclocking permite probar componentes a velocidades que el fabricante no ofrece actualmente, o a velocidades que solo se ofrecen oficialmente en versiones especializadas y de mayor precio del producto. Una tendencia general en la industria informática es que las nuevas tecnologías tienden a debutar primero en el mercado de alta gama y luego llegar al mercado general y de rendimiento. Si la parte de gama alta sólo se diferencia por una mayor velocidad de reloj, un entusiasta puede intentar overclockear una parte principal para simular la oferta de gama alta. Esto puede dar una idea de cómo funcionarán las tecnologías más allá del horizonte antes de que estén oficialmente disponibles en el mercado principal, lo que puede ser especialmente útil para otros usuarios que consideran si deben planificar con anticipación la compra o actualización a la nueva función cuando esté oficialmente disponible. liberado.

Algunos aficionados disfrutan construyendo, afinando y "Hot-Rodding" sus sistemas en competencias competitivas de evaluación comparativa, compitiendo con otros usuarios de ideas afines por puntajes altos en conjuntos de evaluaciones comparativas de computadoras estandarizadas. Otros comprarán un modelo de bajo costo de un componente de una línea de productos determinada e intentarán overclockear esa pieza para igualar el rendimiento original de un modelo más caro. Otro enfoque es hacer overclocking en componentes más antiguos para intentar seguir el ritmo de los crecientes requisitos del sistema y extender la vida útil de la parte más antigua o al menos retrasar la compra de hardware nuevo únicamente por razones de rendimiento. Otra razón para hacer overclocking en equipos más antiguos es que incluso si el overclocking estresa el equipo hasta el punto de fallar antes, se pierde poco, ya que ya está depreciado y habría sido necesario reemplazarlo en cualquier caso. [2]

Componentes

Técnicamente, cualquier componente que utilice un temporizador (o reloj) para sincronizar sus operaciones internas se puede overclockear. Sin embargo, la mayoría de los esfuerzos en componentes de computadora se centran en componentes específicos, como procesadores (también conocidos como CPU), tarjetas de video , conjuntos de chips de placa base y RAM . La mayoría de los procesadores modernos obtienen sus velocidades operativas efectivas multiplicando un reloj base (velocidad del bus del procesador) por un multiplicador interno dentro del procesador (el multiplicador de la CPU ) para alcanzar su velocidad final.

Los procesadores de computadora generalmente se overclockean manipulando el multiplicador de la CPU si esa opción está disponible, pero el procesador y otros componentes también se pueden overclockear aumentando la velocidad base del reloj del bus . Algunos sistemas permiten ajustes adicionales de otros relojes (como el reloj del sistema ) que influyen en la velocidad del reloj del bus que, nuevamente, es multiplicada por el procesador para permitir ajustes más precisos de la velocidad final del procesador.

La mayoría de los sistemas OEM no exponen al usuario los ajustes necesarios para cambiar la velocidad del reloj del procesador o el voltaje en el BIOS de la placa base del OEM, lo que excluye el overclocking (por razones de garantía y soporte). El mismo procesador instalado en una placa base diferente que ofrece ajustes permitirá al usuario cambiarlos.

Cualquier componente determinado finalmente dejará de funcionar de manera confiable después de cierta velocidad de reloj. Los componentes generalmente mostrarán algún tipo de comportamiento de mal funcionamiento u otra indicación de estabilidad comprometida que alerta al usuario que una velocidad determinada no es estable, pero siempre existe la posibilidad de que un componente falle permanentemente sin previo aviso, incluso si los voltajes se mantienen dentro de algunos límites previos. -valores seguros determinados. La velocidad máxima se determina haciendo overclocking hasta el punto de la primera inestabilidad y luego aceptando la última configuración estable más lenta. Sólo se garantiza que los componentes funcionarán correctamente hasta sus valores nominales; más allá de eso, diferentes muestras pueden tener diferente potencial de overclocking. El punto final de un overclock determinado está determinado por parámetros como multiplicadores de CPU disponibles, divisores de bus y voltajes ; la capacidad del usuario para gestionar cargas térmicas, técnicas de refrigeración; y varios otros factores de los propios dispositivos individuales, como el reloj del semiconductor y las tolerancias térmicas, la interacción con otros componentes y el resto del sistema.

Consideraciones

Hay varias cosas a considerar al hacer overclocking. El primero es garantizar que el componente reciba la potencia adecuada y un voltaje suficiente para funcionar a la nueva frecuencia de reloj . Suministrar energía con configuraciones inadecuadas o aplicar un voltaje excesivo puede dañar permanentemente un componente.

En un entorno de producción profesional, es probable que sólo se utilice el overclocking cuando el aumento de velocidad justifica el costo del soporte experto requerido, la confiabilidad posiblemente reducida, el consiguiente efecto en los contratos de mantenimiento y las garantías, y el mayor consumo de energía. Si se requiere una velocidad más rápida, suele ser más barato si se consideran todos los costos para comprar hardware más rápido.

Enfriamiento

Los disipadores de calor de alta calidad suelen estar hechos de cobre .

Todos los circuitos electrónicos producen calor generado por el movimiento de la corriente eléctrica. A medida que aumentan las frecuencias de reloj en los circuitos digitales y el voltaje aplicado, también aumenta el calor generado por los componentes que funcionan a niveles de rendimiento más altos. La relación entre las frecuencias de reloj y la potencia de diseño térmico (TDP) es lineal. Sin embargo, existe un límite para la frecuencia máxima que se denomina "muro". Para superar este problema, los overclockers aumentan el voltaje del chip para aumentar el potencial de overclocking. El voltaje aumenta significativamente el consumo de energía y, en consecuencia, la generación de calor (proporcionalmente al cuadrado del voltaje en un circuito lineal, por ejemplo); esto requiere más enfriamiento para evitar dañar el hardware por sobrecalentamiento. Además, algunos circuitos digitales se ralentizan a altas temperaturas debido a cambios en las características del dispositivo MOSFET . Por el contrario, el overclocker puede decidir disminuir el voltaje del chip mientras realiza el overclocking (un proceso conocido como undervolting), para reducir las emisiones de calor mientras el rendimiento sigue siendo óptimo.

Los sistemas de refrigeración originales están diseñados para la cantidad de energía producida durante el uso sin overclocking; Los circuitos overclockeados pueden requerir más refrigeración, como por ejemplo mediante ventiladores potentes , disipadores de calor más grandes , tubos de calor y refrigeración por agua . La masa, la forma y el material influyen en la capacidad de un disipador de calor para disipar el calor. Los disipadores de calor eficientes suelen estar hechos enteramente de cobre , que tiene una alta conductividad térmica , pero es caro. [3] El aluminio se utiliza más ampliamente; Tiene buenas características térmicas, aunque no tan buenas como el cobre, y es significativamente más barato. Los materiales más baratos como el acero no tienen buenas características térmicas. Se pueden utilizar tubos de calor para mejorar la conductividad. Muchos disipadores combinan dos o más materiales para lograr un equilibrio entre rendimiento y coste. [3]

Interior de una computadora refrigerada por agua, que muestra el bloque de agua , los tubos y la bomba de la CPU

La refrigeración por agua transporta el calor residual a un radiador . Los dispositivos de refrigeración termoeléctricos que en realidad refrigeran mediante el efecto Peltier pueden ayudar con los procesadores de alta potencia de diseño térmico (TDP) fabricados por Intel y AMD a principios del siglo XXI. Los dispositivos de enfriamiento termoeléctricos crean diferencias de temperatura entre dos placas al hacer pasar una corriente eléctrica a través de las placas. Este método de enfriamiento es muy efectivo, pero genera una cantidad significativa de calor en otros lugares que debe ser disipado, a menudo mediante un disipador térmico por convección o un sistema de enfriamiento por agua .

Se puede utilizar nitrógeno líquido para enfriar un sistema overclockeado, cuando se necesita una medida extrema de enfriamiento.

Otros métodos de enfriamiento son la convección forzada y el enfriamiento de transición de fase que se usa en refrigeradores y puede adaptarse para uso en computadoras. El nitrógeno líquido , el helio líquido y el hielo seco se utilizan como refrigerantes en casos extremos, [4] como en intentos de batir récords o experimentos únicos, en lugar de enfriar un sistema cotidiano. En junio de 2006, IBM y el Instituto de Tecnología de Georgia anunciaron conjuntamente un nuevo récord en la velocidad de reloj de los chips basados ​​en silicio (la velocidad a la que se puede cambiar un transistor, no la velocidad de reloj de la CPU [5] ) por encima de 500 GHz, que se logró mediante refrigeración. el chip a 4,5  K (-268,6  °C ; -451,6  °F ) utilizando helio líquido. [6] Establecido en noviembre de 2012, el récord mundial de frecuencia de CPU es 9008,82 MHz a diciembre de 2022. [7] Estos métodos extremos generalmente no son prácticos a largo plazo, ya que requieren rellenar depósitos de refrigerante vaporizador y se puede formar condensación en superficies frías. componentes. [4] Además, los transistores de efecto de campo de puerta de unión (JFET) basados ​​en silicio se degradarán por debajo de temperaturas de aproximadamente 100 K (-173 °C; -280 °F) y eventualmente dejarán de funcionar o se "congelarán" a 40 K ( −233 °C; −388 °F) ya que el silicio deja de ser semiconductor, [8] por lo que el uso de refrigerantes extremadamente fríos puede provocar que los dispositivos fallen. El soplete se utiliza para elevar temporalmente la temperatura debido a problemas de sobreenfriamiento cuando no es deseable. [9] [10]

El enfriamiento por inmersión, utilizado por la supercomputadora Cray-2 , implica hundir una parte del sistema informático directamente en un líquido enfriado que es térmicamente conductor pero tiene baja conductividad eléctrica . La ventaja de esta técnica es que no se puede formar condensación en los componentes. [11] Un buen líquido de inmersión es Fluorinert fabricado por 3M , que es caro. Otra opción es el aceite mineral , pero las impurezas como las del agua pueden hacer que conduzca electricidad. [11]

Los aficionados al overclocking han utilizado una mezcla de hielo seco y un disolvente con un punto de congelación bajo, como la acetona o el alcohol isopropílico . [12] Este baño de enfriamiento , de uso frecuente en laboratorios, alcanza una temperatura de -78 °C (-108 °F). [13] Sin embargo, se desaconseja esta práctica debido a sus riesgos de seguridad; los disolventes son inflamables y volátiles, y el hielo seco puede provocar congelación (por contacto con la piel expuesta) y asfixia (debido al gran volumen de dióxido de carbono que se genera cuando se sublima).

Estabilidad y corrección funcional.

Como un componente overclockeado funciona fuera de las condiciones de funcionamiento recomendadas por el fabricante, puede funcionar incorrectamente, lo que provoca inestabilidad en el sistema. Otro riesgo es la corrupción silenciosa de los datos debido a errores no detectados. Es posible que tales fallas nunca se diagnostiquen correctamente y, en cambio, se atribuyan incorrectamente a errores de software en las aplicaciones, los controladores de dispositivos o el sistema operativo. El uso overclockeado puede dañar permanentemente los componentes lo suficiente como para provocar que se comporten mal (incluso en condiciones normales de funcionamiento) sin volverse totalmente inutilizables.

Un estudio de campo a gran escala realizado en 2011 sobre fallas de hardware que causan fallas del sistema en PC y portátiles de consumo mostró un aumento de cuatro a 20 veces (dependiendo del fabricante de la CPU) en fallas del sistema debido a fallas de la CPU en computadoras overclockeadas durante un período de ocho meses. [14]

En general, los overclockers afirman que las pruebas pueden garantizar que un sistema overclockeado sea estable y funcione correctamente. Aunque existen herramientas de software para probar la estabilidad del hardware, generalmente es imposible para cualquier particular probar exhaustivamente la funcionalidad de un procesador. [15] Lograr una buena cobertura de fallas requiere un inmenso esfuerzo de ingeniería; Incluso con todos los recursos dedicados a la validación por parte de los fabricantes, no siempre se detectan componentes defectuosos e incluso fallos de diseño.

Una "prueba de esfuerzo" particular puede verificar sólo la funcionalidad de la secuencia de instrucciones específica utilizada en combinación con los datos y puede no detectar fallas en esas operaciones. Por ejemplo, una operación aritmética puede producir el resultado correcto pero indicadores incorrectos ; Si las banderas no están marcadas, el error no se detectará.

Para complicar aún más las cosas, en tecnologías de proceso como el silicio sobre aislante (SOI), los dispositivos muestran histéresis : el rendimiento de un circuito se ve afectado por los eventos del pasado, por lo que sin pruebas cuidadosamente específicas es posible que funcione una secuencia particular de cambios de estado. a velocidades overclockeadas en una situación pero no en otra, incluso si el voltaje y la temperatura son los mismos. A menudo, un sistema overclockeado que pasa las pruebas de estrés experimenta inestabilidades en otros programas. [dieciséis]

En los círculos de overclocking, se utilizan "pruebas de estrés" o "pruebas de tortura" para comprobar el funcionamiento correcto de un componente. Estas cargas de trabajo se seleccionan porque suponen una carga muy alta para el componente de interés (por ejemplo, una aplicación con uso intensivo de gráficos para probar tarjetas de vídeo o diferentes aplicaciones con uso intensivo de matemáticas para probar CPU generales). Las pruebas de estrés populares incluyen Prime95 , Everest , Superpi , OCCT, AIDA64, Linpack (a través de las GUI LinX e IntelBurnTest ), SiSoftware Sandra, BOINC , Intel Thermal Analysis Tool y Memtest86 . La esperanza es que cualquier problema de corrección funcional con el componente overclockeado se manifieste durante estas pruebas, y si no se detectan errores durante la prueba, entonces el componente se considera "estable". Dado que la cobertura de fallos es importante en las pruebas de estabilidad , las pruebas suelen realizarse durante largos períodos de tiempo, horas o incluso días. Una computadora overclockeada a veces se describe usando la cantidad de horas y el programa de estabilidad utilizado, como "prime 12 horas estables".

Factores que permiten el overclocking

La capacidad de overclocking surge en parte debido a la economía de los procesos de fabricación de CPU y otros componentes. En muchos casos, los componentes se fabrican mediante el mismo proceso y se prueban después de la fabricación para determinar sus clasificaciones máximas reales. Luego, los componentes se marcan con una clasificación elegida según las necesidades del mercado del fabricante de semiconductores. Si el rendimiento de fabricación es alto, se pueden producir más componentes de mayor calificación que los necesarios, y el fabricante puede marcar y vender componentes de mayor rendimiento como de menor calificación por razones de marketing. En algunos casos, la calificación máxima real del componente puede exceder incluso al componente con la calificación más alta vendido. Muchos dispositivos vendidos con una clasificación más baja pueden comportarse en todos los aspectos como dispositivos con una clasificación más alta, mientras que en el peor de los casos, el funcionamiento con una clasificación más alta puede ser más problemático.

En particular, los relojes más altos siempre deben significar una mayor generación de calor residual, ya que los semiconductores configurados en alto deben descargarse a tierra con más frecuencia. En algunos casos, esto significa que el principal inconveniente de la parte overclockeada es que disipa mucho más calor que los máximos publicados por el fabricante. El arquitecto de Pentium, Bob Colwell, llama al overclocking un "experimento incontrolado en el funcionamiento del sistema en el mejor de los casos". [17]

Medición de los efectos del overclocking

Los puntos de referencia se utilizan para evaluar el rendimiento y pueden convertirse en una especie de "deporte" en el que los usuarios compiten por las puntuaciones más altas. Como se mencionó anteriormente, la estabilidad y la corrección funcional pueden verse comprometidas durante el overclocking, y los resultados significativos de las pruebas comparativas dependen de la ejecución correcta de las pruebas comparativas. Debido a esto, las puntuaciones de las pruebas comparativas pueden calificarse con notas de estabilidad y corrección (por ejemplo, un overclocker puede informar una puntuación, señalando que la prueba comparativa solo se ejecuta hasta su finalización 1 de cada 5 veces, o que los signos de ejecución incorrecta, como la corrupción de la pantalla, son visibles mientras se ejecuta). el punto de referencia). Una prueba de estabilidad ampliamente utilizada es Prime95, que tiene una verificación de errores incorporada que falla si la computadora es inestable.

Usando sólo los puntajes de las pruebas comparativas, puede resultar difícil juzgar la diferencia que hace el overclocking en el rendimiento general de una computadora. Por ejemplo, algunos puntos de referencia prueban solo un aspecto del sistema, como el ancho de banda de la memoria , sin tener en cuenta cómo velocidades de reloj más altas en este aspecto mejorarán el rendimiento del sistema en su conjunto. Aparte de aplicaciones exigentes como codificación de vídeo, bases de datos de alta demanda e informática científica , el ancho de banda de la memoria no suele ser un cuello de botella , por lo que un gran aumento en el ancho de banda de la memoria puede pasar desapercibido para un usuario dependiendo de las aplicaciones utilizadas. Otros puntos de referencia, como 3DMark , intentan replicar las condiciones del juego.

Overclocking de fabricantes y proveedores

En ocasiones, el overclocking se ofrece como un servicio o característica legítimo para los consumidores, en el que un fabricante o minorista prueba la capacidad de overclocking de procesadores, memorias, tarjetas de video y otros productos de hardware. Varios fabricantes de tarjetas de video ofrecen ahora versiones overclockeadas de fábrica de sus aceleradores gráficos, completas con una garantía, generalmente a un precio intermedio entre el del producto estándar y un producto no overclockeado de mayor rendimiento.

Se especula que los fabricantes implementan mecanismos de prevención de overclocking, como el bloqueo del multiplicador de CPU, para evitar que los usuarios compren artículos de menor precio y los hagan overclocking. Estas medidas a veces se comercializan como un beneficio de protección al consumidor , pero a menudo son criticadas por los compradores.

Se venden y anuncian muchas placas base con amplias funciones de overclocking implementadas en el hardware y controladas por la configuración del BIOS . [18]

Bloqueo del multiplicador de CPU

El bloqueo del multiplicador de CPU es el proceso de configurar permanentemente el multiplicador de reloj de una CPU . Las CPU AMD están desbloqueadas en las primeras ediciones de un modelo y bloqueadas en ediciones posteriores, pero casi todas las CPU Intel están bloqueadas y son recientes [ ¿cuándo? ] Los modelos son muy resistentes al desbloqueo para evitar el overclocking por parte de los usuarios. AMD envía CPU desbloqueadas con sus chips de escritorio Opteron , FX , All Ryzen (excepto variantes 3D) y su línea Black Series, mientras que Intel usa los apodos de "Extreme Edition" y "K-Series". Intel suele tener una o dos CPU Extreme Edition en el mercado, así como CPU de las series X y K análogas a la Black Edition de AMD. AMD tiene la mayor parte de su gama de computadoras de escritorio en una Black Edition.

Los usuarios generalmente desbloquean las CPU para permitir el overclocking, pero a veces para permitir el underclocking para mantener la compatibilidad de la velocidad del bus frontal (en CPU más antiguas) con ciertas placas base. El desbloqueo generalmente invalida la garantía del fabricante y los errores pueden dañar o destruir una CPU. Bloquear el multiplicador de reloj de un chip no necesariamente impide que los usuarios realicen overclocking, ya que la velocidad del bus frontal o del multiplicador PCI (en las CPU más nuevas) aún se puede cambiar para proporcionar un aumento del rendimiento. Las CPU AMD Athlon y Athlon XP generalmente se desbloquean conectando puentes ( puntos en forma de puente ) en la parte superior de la CPU con pintura conductora o mina de lápiz . Otros modelos de CPU pueden requerir procedimientos diferentes.

El aumento de los relojes del bus frontal o del puente norte/PCI puede overclockear las CPU bloqueadas, pero esto desincroniza muchas frecuencias del sistema, ya que las frecuencias de RAM y PCI también se modifican.

Una de las formas más sencillas de desbloquear CPU AMD Athlon XP antiguas se denominaba método pin mod , porque era posible desbloquear la CPU sin modificar los puentes permanentemente. Un usuario podría simplemente colocar un cable (o algunos más para un nuevo multiplicador/Vcore) en el zócalo para desbloquear la CPU. Sin embargo, más recientemente, especialmente con la arquitectura Skylake de Intel, Intel tuvo un error con los procesadores Skylake (núcleo de sexta generación) donde el reloj base podía aumentarse más allá de 102,7 MHz; sin embargo, la funcionalidad de ciertas características no funcionaba. Intel tenía la intención de bloquear el overclocking del reloj base (BCLK) de los procesadores bloqueados al diseñar la arquitectura Skylake para evitar que los consumidores compren componentes más baratos y overclocking a niveles nunca antes vistos (ya que el BCLK de la CPU ya no estaba vinculado a los buses PCI), sin embargo, para LGA1151 , los procesadores "Skylake" de sexta generación pudieron ser overclockeados más allá de 102,7 MHz (que era el límite previsto por Intel y luego fue exigido mediante actualizaciones posteriores del BIOS). [ ¿ investigacion original? ] Todos los demás procesadores desbloqueados de LGA1151 y v2 (incluidos la séptima, octava y novena generación) y BGA1440 permiten overclocking BCLK (siempre que el OEM lo permita), mientras que todos los demás procesadores bloqueados de séptima, octava y novena generación no lo fueron. Capaz de pasar los 102,7 Mhz. Sin embargo, la décima generación podría alcanzar los 103 Mhz [19] en el BCLK.

Ventajas

Desventajas

General

Riesgos del overclocking

Limitaciones

El overclocking de componentes solo puede ser de beneficio notable si el componente se encuentra en la ruta crítica de un proceso, si es un cuello de botella. Si el acceso al disco o la velocidad de una conexión a Internet limitan la velocidad de un proceso, es poco probable que se note un aumento del 20% en la velocidad del procesador; sin embargo, hay algunos escenarios en los que aumentar la velocidad del reloj de un procesador realmente permite leer un SSD. y escrito más rápido. Hacer overclocking en una CPU no beneficiará notablemente a un juego cuando el rendimiento de una tarjeta gráfica es el "cuello de botella" del juego.

Tarjetas gráficas

La BFG GeForce 6800GSOC se envía con memoria y frecuencias de reloj más altas que la 6800GS estándar.

Las tarjetas gráficas también se pueden overclockear. Existen utilidades para lograr esto, como EVGA 's Precision, RivaTuner , AMD Overdrive (solo en tarjetas AMD ), MSI Afterburner, Zotac Firestorm y PEG Link Mode en placas base Asus . El overclocking de una GPU a menudo producirá un marcado aumento en el rendimiento en pruebas sintéticas, lo que generalmente se refleja en el rendimiento del juego. [23] A veces es posible ver que una tarjeta gráfica está siendo empujada más allá de sus límites antes de que se produzca algún daño permanente al observar artefactos en pantalla o fallas inesperadas del sistema. Es habitual toparse con uno de esos problemas a la hora de hacer overclocking en tarjetas gráficas; Ambos síntomas al mismo tiempo generalmente significan que la tarjeta está muy empujada más allá de sus límites de calor, frecuencia de reloj y/o voltaje; sin embargo, si se ven cuando no se está overclockeada, indican una tarjeta defectuosa. Después de reiniciar, la configuración de video se restablece a los valores estándar almacenados en el firmware de la tarjeta gráfica y ahora se deduce la velocidad máxima de esa tarjeta específica.

Algunos overclockers aplican un potenciómetro a la tarjeta gráfica para ajustar manualmente el voltaje (lo que normalmente invalida la garantía). Esto permite realizar ajustes más precisos, ya que el software de overclocking para tarjetas gráficas sólo puede llegar hasta cierto punto. Los aumentos excesivos de voltaje pueden dañar o destruir componentes de la tarjeta gráfica o toda la tarjeta gráfica (en la práctica).

Brillante

Alternativas

El flasheo y el desbloqueo se pueden utilizar para mejorar el rendimiento de una tarjeta de video , técnicamente sin hacer overclocking (pero es mucho más riesgoso que hacer overclocking solo a través de software).

Flashear se refiere al uso del firmware de una tarjeta diferente con el mismo núcleo (o a veces similar) y firmware compatible, lo que la convierte efectivamente en un modelo de tarjeta superior; puede ser difícil y puede ser irreversible. A vecesse puede encontrar software independiente para modificar los archivos de firmware, por ejemplo, NiBiTor (las series GeForce 6/7 están bien consideradas en este aspecto), sin utilizar firmware para un modelo de tarjeta de video mejor. Por ejemplo, las tarjetas de video con aceleradores 3D (la mayoría, a partir de 2011) tienen dos configuraciones de voltaje y frecuencia de reloj , una para 2D y otra para 3D, pero fueron diseñadas para funcionar con tres etapas de voltaje, la tercera está en algún lugar entre las dos antes mencionadas. sirviendo como respaldo cuando la tarjeta se sobrecalienta o como etapa intermedia al pasar del modo de operación 2D al 3D. Por lo tanto, podría ser prudente establecer esta etapa intermedia antes del overclocking "serio", específicamente debido a esta capacidad de respaldo; la tarjeta puede bajar a esta frecuencia de reloj , reduciendo en unos pocos (o a veces unas pocas docenas, dependiendo de la configuración) su eficiencia y enfriarse, sin salir del modo 3D (y luego regresar al reloj de alto rendimiento deseado). y ajustes de voltaje).

Algunas tarjetas tienen capacidades que no están directamente relacionadas con el overclocking. Por ejemplo, la GeForce 6600GT de Nvidia (versión AGP) tiene un monitor de temperatura utilizado internamente por la tarjeta, invisible para el usuario si se utiliza firmware estándar. La modificación del firmware puede mostrar una pestaña de "Temperatura".

Desbloquear se refiere a habilitar canalizaciones adicionales o sombreadores de píxeles . La 6800LE , la 6800GS y la 6800 ( solo modelos AGP ) fueron algunas de las primeras tarjetas en beneficiarse del desbloqueo. Si bien estos modelos tienen 8 o 12 canales habilitados, comparten el mismo núcleo de GPU de 16x6 que un 6800GT o Ultra, pero los canales y sombreadores más allá de los especificados están deshabilitados; Es posible que la GPU sea completamente funcional o que se hayan encontrado fallas que no afectan el funcionamiento con la especificación inferior. Las GPU que se encuentran completamente funcionales se pueden desbloquear con éxito, aunque no es posible estar seguro de que haya fallas no descubiertas; en el peor de los casos, la tarjeta puede quedar permanentemente inutilizable .

Ver también

Referencias

  1. Victoria Zhislina (19 de febrero de 2014). "¿Por qué ha dejado de crecer la frecuencia de la CPU?". Intel. Archivado desde el original el 21 de junio de 2017 . Consultado el 2 de agosto de 2017 .
  2. ^ Wainner, Scott; Richmond, Robert (2003). El libro del overclocking. Sin prensa de almidón. págs. 1–2. ISBN 978-1-886411-76-0.
  3. ^ ab Wainner, Scott; Richmond, Robert (2003). El libro del overclocking. Sin prensa de almidón. pag. 38.ISBN _ 978-1-886411-76-0.
  4. ^ ab Wainner, Scott; Richmond, Robert (2003). El libro del overclocking. Sin prensa de almidón. pag. 44.ISBN _ 978-1-886411-76-0.
  5. ^ Stokes, Jon (22 de junio de 2006). "¿El procesador de 500 GHz de IBM? No tan rápido ...". Ars Técnica . Archivado desde el original el 20 de octubre de 2017 . Consultado el 14 de junio de 2017 .
  6. ^ Toon, John (20 de junio de 2006). "Georgia Tech/IBM anuncian un nuevo récord de velocidad de chip". Instituto de Tecnología de Georgia. Archivado desde el original el 1 de julio de 2010 . Consultado el 2 de febrero de 2009 .
  7. ^ "Intel Core i9 13900K bate el récord mundial de frecuencia de CPU". Archivado desde el original el 2 de marzo de 2018 . Consultado el 9 de diciembre de 2022 .
  8. ^ "Electrónica de temperaturas extremas: tutorial - Parte 3". 2003. Archivado desde el original el 6 de marzo de 2012 . Consultado el 4 de noviembre de 2007 .
  9. ^ Wes Fenlon (9 de junio de 2017). "Overclocking de una CPU a 7 GHz con la ciencia del nitrógeno líquido". Jugador de PC . Consultado el 12 de noviembre de 2023 .
  10. ^ "El overclocking a 7 GHz requiere algo más que nitrógeno líquido". Engadget . 8 de agosto de 2019 . Consultado el 12 de noviembre de 2023 .
  11. ^ ab Wainner, Scott; Robert Richmond (2003). El libro del overclocking. Sin prensa de almidón. pag. 48.ISBN _ 978-1-886411-76-0.
  12. ^ "¡overclocking con hielo seco!". Foros de TechPowerUp . 13 de agosto de 2009. Archivado desde el original el 7 de diciembre de 2019 . Consultado el 7 de enero de 2020 .
  13. Baños de enfriamiento – ChemWiki Archivado el 28 de agosto de 2012 en Wayback Machine . Chemwiki.ucdavis.edu. Recuperado el 17 de junio de 2013.
  14. ^ Ciclos, celdas y platos: un análisis empírico de fallas de hardware en un millón de PC de consumo (PDF) . Actas de la sexta conferencia sobre sistemas informáticos (EuroSys '11). 2011, págs. 343–356. Archivado (PDF) desde el original el 14 de noviembre de 2012 . Consultado el 5 de diciembre de 2012 .
  15. ^ Tasirán, Serdar; Keutzer, Kurt (2001). "Métricas de cobertura para la validación funcional de diseños de hardware". Diseño y prueba de computadoras IEEE. CiteSeerX 10.1.1.62.9086 .  {{cite journal}}: Citar diario requiere |journal=( ayuda )
  16. ^ Chen, Raymond (12 de abril de 2005). "Lo viejo y nuevo: hay muchísimo overclocking por ahí". Archivado desde el original el 8 de marzo de 2007 . Consultado el 17 de marzo de 2007 .
  17. ^ Colwell, Bob (marzo de 2004). "El zen del overclocking". Computadora . Instituto de Ingenieros Eléctricos y Electrónicos . 37 (3): 9-12. doi :10.1109/MC.2004.1273994. S2CID  21582410.
  18. ^ "||ASUS Mundial". ASUS Global . Archivado desde el original el 10 de mayo de 2021 . Consultado el 10 de mayo de 2021 .
  19. ^ "Revisión de Intel Core i5-10400F: seis núcleos con HT por menos de $ 200". TechPowerUp . 28 de mayo de 2020. Archivado desde el original el 15 de diciembre de 2021 . Consultado el 15 de diciembre de 2021 .
  20. ^ "Ejecutivo de salud y seguridad del Reino Unido: las 10 mejores técnicas de control del ruido" (PDF) . Archivado (PDF) desde el original el 26 de noviembre de 2019 . Consultado el 30 de diciembre de 2011 .
  21. ^ "ID de artículo: 310064 - Última revisión: 7 de mayo de 2007 - Revisión: 6.2 Cómo solucionar problemas durante la instalación al actualizar de Windows 98 o Windows Millennium Edition a Windows XP". Archivado desde el original el 15 de mayo de 2009 . Consultado el 4 de septiembre de 2008 .
  22. ^ Darche, Philippe (2 de noviembre de 2020). Microprocesador 3: Conceptos básicos - Aspectos de hardware. John Wiley e hijos. ISBN 978-1-119-78800-3.
  23. ^ "Alt+Esc | Guía de overclocking de GTX 780". Archivado desde el original el 24 de junio de 2013 . Consultado el 18 de junio de 2013 .
Notas

enlaces externos

Overclocking y bases de datos de referencia