Una unidad de disco duro ( HDD ), disco duro , unidad de disco duro o disco fijo [a] es un dispositivo de almacenamiento de datos electromecánico que almacena y recupera datos digitales utilizando almacenamiento magnético con uno o más platos rígidos que giran rápidamente recubiertos con material magnético. Los platos están emparejados con cabezales magnéticos , generalmente dispuestos en un brazo actuador móvil , que leen y escriben datos en las superficies del plato. [1] Se accede a los datos de manera aleatoria , lo que significa que se pueden almacenar y recuperar bloques de datos individuales en cualquier orden. Los HDD son un tipo de almacenamiento no volátil , que retiene los datos almacenados cuando se apagan. [2] [3] [4] Los HDD modernos suelen tener la forma de una pequeña caja rectangular .
Las unidades de disco duro fueron introducidas por IBM en 1956, [5] y fueron el dispositivo de almacenamiento secundario dominante para computadoras de propósito general a principios de la década de 1960. Las HDD mantuvieron esta posición en la era moderna de servidores y computadoras personales , aunque los dispositivos informáticos personales producidos en gran volumen, como teléfonos móviles y tabletas , dependen de dispositivos de almacenamiento de memoria flash . Más de 224 empresas han producido HDD históricamente , aunque después de una extensa consolidación de la industria, la mayoría de las unidades son fabricadas por Seagate , Toshiba y Western Digital . Las HDD dominan el volumen de almacenamiento producido ( exabytes por año) para servidores. Aunque la producción está creciendo lentamente (en exabytes enviados [6] ), los ingresos por ventas y los envíos de unidades están disminuyendo, porque las unidades de estado sólido (SSD) tienen tasas de transferencia de datos más altas, mayor densidad de almacenamiento de área, confiabilidad algo mejor, [7] [8] y tiempos de acceso y latencia mucho más bajos. [9] [10] [11] [12]
Los ingresos por SSD, la mayoría de los cuales utilizan memoria flash NAND , superaron ligeramente a los de HDD en 2018. [13] Los productos de almacenamiento flash tuvieron más del doble de ingresos que las unidades de disco duro a partir de 2017. [update][ 14] Aunque los SSD tienen un costo por bit de cuatro a nueve veces mayor, [15] [16] están reemplazando a los HDD en aplicaciones donde la velocidad, el consumo de energía, el tamaño pequeño, la alta capacidad y la durabilidad son importantes. [11] [12] A partir de 2019 [update], el costo por bit de los SSD está cayendo y la prima de precio sobre los HDD se ha reducido. [16]
Las características principales de un HDD son su capacidad y rendimiento . La capacidad se especifica en prefijos de unidad correspondientes a potencias de 1000: una unidad de 1 terabyte (TB) tiene una capacidad de 1000 gigabytes , donde 1 gigabyte = 1000 megabytes = 1000000 kilobytes (1 millón) = 1000000000 bytes (1000 millones). Por lo general, parte de la capacidad de un HDD no está disponible para el usuario porque la utilizan el sistema de archivos y el sistema operativo de la computadora , y posiblemente la redundancia incorporada para la corrección y recuperación de errores. Puede haber confusión con respecto a la capacidad de almacenamiento, ya que los fabricantes de HDD indican las capacidades en gigabytes decimales (potencias de 1000), mientras que los sistemas operativos más utilizados informan las capacidades en potencias de 1024, lo que da como resultado un número menor al publicitado. El rendimiento se especifica como el tiempo necesario para mover los cabezales hasta una pista o cilindro (tiempo de acceso promedio), el tiempo que tarda el sector deseado en moverse debajo del cabezal ( latencia promedio , que es una función de la velocidad de rotación física en revoluciones por minuto ) y, finalmente, la velocidad a la que se transmiten los datos (tasa de datos).
Los dos formatos más comunes para los discos duros modernos son el de 3,5 pulgadas, para ordenadores de sobremesa, y el de 2,5 pulgadas, principalmente para portátiles. Los discos duros se conectan a los sistemas mediante cables de interfaz estándar, como SATA (Serial ATA), USB , SAS ( Serial Attached SCSI ) o PATA (Parallel ATA).
La primera unidad de disco duro de producción de IBM, el disco de almacenamiento 350 , se envió en 1957 como un componente del sistema IBM 305 RAMAC. Tenía aproximadamente el tamaño de dos refrigeradores grandes y almacenaba cinco millones de caracteres de seis bits (3,75 megabytes ) [18] en una pila de 52 discos (se utilizaron 100 superficies). [27] El 350 tenía un solo brazo con dos cabezales de lectura/escritura, uno hacia arriba y el otro hacia abajo, que se movían tanto horizontalmente entre un par de platos adyacentes como verticalmente desde un par de platos a un segundo conjunto. [28] [29] [30] Las variantes del IBM 350 fueron el IBM 355 , el IBM 7300 y el IBM 1405 .
En 1961, IBM anunció y en 1962 comercializó la unidad de almacenamiento en disco IBM 1301, [31] que sustituyó a la IBM 350 y a unidades similares. La 1301 constaba de uno (para el modelo 1) o dos (para el modelo 2) módulos, cada uno de los cuales contenía 25 platos, cada uno de ellos de aproximadamente 1 ⁄ 8 de pulgada (3,2 mm) de espesor y 24 pulgadas (610 mm) de diámetro. [32] Mientras que las unidades de disco IBM anteriores utilizaban solo dos cabezales de lectura/escritura por brazo, la 1301 utilizaba una matriz de 48 [l] cabezales (peine), cada matriz se movía horizontalmente como una sola unidad, se utilizaba un cabezal por superficie. Se admitían operaciones de lectura/escritura en modo cilindro y los cabezales volaban aproximadamente 250 micropulgadas (aproximadamente 6 μm) por encima de la superficie del plato. El movimiento de la matriz de cabezales dependía de un sistema sumador binario de actuadores hidráulicos que aseguraba un posicionamiento repetible. El gabinete 1301 tenía aproximadamente el tamaño de tres refrigeradores grandes colocados uno al lado del otro y almacenaba el equivalente a unos 21 millones de bytes de ocho bits por módulo. El tiempo de acceso era de aproximadamente un cuarto de segundo.
También en 1962, IBM presentó la unidad de disco modelo 1311 , que era del tamaño de una lavadora y almacenaba dos millones de caracteres en un paquete de discos extraíbles . Los usuarios podían comprar paquetes adicionales e intercambiarlos según fuera necesario, de forma muy similar a los rollos de cinta magnética . Los modelos posteriores de unidades de paquetes extraíbles, de IBM y otros, se convirtieron en la norma en la mayoría de las instalaciones informáticas y alcanzaron capacidades de 300 megabytes a principios de la década de 1980. Los discos duros no extraíbles se denominaban unidades de "disco fijo".
En 1963, IBM presentó el 1302, [33] con el doble de capacidad de pistas y el doble de pistas por cilindro que el 1301. El 1302 tenía uno (para el Modelo 1) o dos (para el Modelo 2) módulos, cada uno de los cuales contenía un peine separado para las primeras 250 pistas y las últimas 250 pistas.
Algunos discos duros de alto rendimiento se fabricaron con un cabezal por pista, por ejemplo , Burroughs B-475 en 1964, IBM 2305 en 1970, de modo que no se perdía tiempo moviendo físicamente los cabezales a una pista y la única latencia era el tiempo que tardaba el bloque de datos deseado en rotar hasta su posición debajo del cabezal. [34] Conocidas como unidades de disco de cabezal fijo o de cabezal por pista, eran muy caras y ya no se fabrican. [35]
En 1973, IBM introdujo un nuevo tipo de disco duro con el nombre en código " Winchester ". Su característica distintiva principal era que los cabezales de los discos no se retiraban completamente de la pila de platos de discos cuando se apagaba la unidad. En lugar de eso, los cabezales podían "aterrizar" en un área especial de la superficie del disco al detenerse la rotación, y "despegaban" nuevamente cuando el disco se encendía más tarde. Esto redujo enormemente el costo del mecanismo de accionamiento de los cabezales, pero impidió retirar solo los discos de la unidad como se hacía con los paquetes de discos de la época. En cambio, los primeros modelos de unidades de "tecnología Winchester" presentaban un módulo de disco extraíble, que incluía tanto el paquete de discos como el conjunto de cabezales, y dejaba el motor del actuador en la unidad al retirarlo. Las unidades "Winchester" posteriores abandonaron el concepto de medios extraíbles y volvieron a los platos no extraíbles.
En 1974, IBM introdujo el actuador de brazo oscilante, que se hizo posible porque los cabezales de grabación Winchester funcionan bien cuando se inclinan hacia las pistas grabadas. El diseño simple de la unidad IBM GV (Gulliver), [36] inventada en los laboratorios Hursley de IBM en el Reino Unido, se convirtió en la invención electromecánica de IBM con más licencia [37] de todos los tiempos; el actuador y el sistema de filtración se adoptaron en la década de 1980 para todos los discos duros y siguen siendo universales casi 40 años y 10 mil millones de brazos después.
Al igual que la primera unidad de disco extraíble, las primeras unidades "Winchester" utilizaban platos de 14 pulgadas (360 mm) de diámetro. En 1978, IBM presentó una unidad de brazo oscilante, la IBM 0680 (Piccolo), con platos de ocho pulgadas, explorando la posibilidad de que los platos más pequeños pudieran ofrecer ventajas. Le siguieron otras unidades de ocho pulgadas, que luego se convirtieron en 5+Unidades de 1 ⁄ 4 in (130 mm), dimensionadas para reemplazar las unidades de disquete contemporáneas . Estas últimas estaban destinadas principalmente al entonces incipiente mercado de las computadoras personales (PC).
Con el tiempo, a medida que las densidades de grabación aumentaron considerablemente, se descubrió que era óptimo reducir aún más el diámetro del disco a 3,5" y 2,5". Durante este período, los materiales con imanes de tierras raras potentes se volvieron asequibles y complementaron el diseño del actuador de brazo oscilante para hacer posible los factores de forma compactos de los discos duros modernos.
A principios de la década de 1980, los discos duros eran una característica adicional rara y muy costosa en las PC, pero a fines de esa década, su costo se había reducido hasta el punto en que eran estándar en todas las computadoras, excepto en las más baratas.
La mayoría de los discos duros de principios de los años 80 se vendían a los usuarios finales de PC como un subsistema externo adicional. El subsistema no se vendía con el nombre del fabricante de la unidad, sino con el nombre del fabricante del subsistema, como Corvus Systems y Tallgrass Technologies , o con el nombre del fabricante del sistema de PC, como Apple ProFile . El IBM PC/XT de 1983 incluía un disco duro interno de 10 MB y, poco después, los discos duros internos proliferaron en los ordenadores personales.
Los discos duros externos siguieron siendo populares durante mucho más tiempo en el Apple Macintosh . Muchos ordenadores Macintosh fabricados entre 1986 y 1998 contaban con un puerto SCSI en la parte posterior, lo que simplificaba la expansión externa. Los ordenadores Macintosh más antiguos y compactos no tenían bahías para discos duros accesibles para el usuario (de hecho, el Macintosh 128K , el Macintosh 512K y el Macintosh Plus no contaban con ninguna bahía para discos duros), por lo que en esos modelos, los discos SCSI externos eran la única opción razonable para ampliar cualquier almacenamiento interno.
Las mejoras de los discos duros han sido impulsadas por el aumento de la densidad de área , que se enumera en la tabla anterior. Las aplicaciones se expandieron a lo largo de la década de 2000, desde los ordenadores centrales de finales de la década de 1950 hasta la mayoría de las aplicaciones de almacenamiento masivo , incluidas las computadoras y las aplicaciones de consumo, como el almacenamiento de contenido de entretenimiento.
En las décadas de 2000 y 2010, NAND comenzó a suplantar a los HDD en aplicaciones que requieren portabilidad o alto rendimiento. El rendimiento de NAND está mejorando más rápido que los HDD, y las aplicaciones para HDD se están erosionando. En 2018, el disco duro más grande tenía una capacidad de 15 TB, mientras que el SSD de mayor capacidad tenía una capacidad de 100 TB. [38] A partir de 2018 [update], se pronosticó que los HDD alcanzarían capacidades de 100 TB alrededor de 2025, [39] pero a partir de 2019 [update], el ritmo esperado de mejora se redujo a 50 TB para 2026. [40] Los factores de forma más pequeños, de 1,8 pulgadas y menos, se descontinuaron alrededor de 2010. El costo del almacenamiento de estado sólido (NAND), representado por la ley de Moore , está mejorando más rápido que los HDD. NAND tiene una mayor elasticidad precio de la demanda que los HDD, y esto impulsa el crecimiento del mercado. [ 41] A finales de la década de 2000 y durante la década de 2010, el ciclo de vida del producto de los discos duros entró en una fase de madurez, y la desaceleración de las ventas puede indicar el comienzo de la fase de declive. [42]
Las inundaciones de Tailandia de 2011 dañaron las plantas de fabricación y afectaron negativamente el costo de las unidades de disco duro entre 2011 y 2013. [43]
En 2019, Western Digital cerró su última fábrica de HDD en Malasia debido a la disminución de la demanda, para centrarse en la producción de SSD. [44] Los tres fabricantes de HDD restantes han tenido una demanda decreciente de sus HDD desde 2014. [45]
Un disco duro moderno graba datos magnetizando una película delgada de material ferromagnético [m] en ambos lados de un disco. Los cambios secuenciales en la dirección de magnetización representan bits de datos binarios . Los datos se leen del disco detectando las transiciones en la magnetización. Los datos del usuario se codifican utilizando un esquema de codificación, como la codificación limitada por longitud de ejecución , [n] que determina cómo se representan los datos mediante las transiciones magnéticas.
Un diseño de disco duro típico consta de unhusillo que sostiene discos circulares planos, llamadosplatos, que contienen los datos grabados. Los platos están hechos de un material no magnético, generalmentealeación de aluminio,vidrioocerámica. Están recubiertos con una capa superficial de material magnético, normalmente de 10 a 20nmde profundidad, con una capa exterior de carbono para protección.[47][48][49]Como referencia, una hoja estándar de papel de copia tiene un grosor de 0,07 a 0,18 mm (70 000 a 180 000 nm)[50].
Los platos de los discos duros actuales giran a velocidades que varían de4200 rpm en dispositivos portátiles energéticamente eficientes, hasta 15 000 rpm para servidores de alto rendimiento. [52] Los primeros discos duros giraban a 1200 rpm [5] y, durante muchos años, 3600 rpm fue la norma. [53] A partir de noviembre de 2019 [update], los platos de la mayoría de los discos duros de consumo giran a 5400 o 7200 rpm.
La información se escribe y se lee en un disco a medida que gira pasando por dispositivos llamados cabezales de lectura y escritura que están ubicados para operar muy cerca de la superficie magnética, con una altura de vuelo que suele estar en el rango de decenas de nanómetros. El cabezal de lectura y escritura se utiliza para detectar y modificar la magnetización del material que pasa inmediatamente debajo de él.
En las unidades modernas, hay un cabezal para cada superficie de plato magnético en el eje, montado en un brazo común. Un brazo actuador (o brazo de acceso) mueve los cabezales en un arco (aproximadamente radialmente) a través de los platos mientras giran, lo que permite que cada cabezal acceda a casi toda la superficie del plato mientras gira. El brazo se mueve utilizando un actuador de bobina móvil o, en algunos diseños más antiguos, un motor paso a paso . Las primeras unidades de disco duro escribían datos a algunos bits constantes por segundo, lo que daba como resultado que todas las pistas tuvieran la misma cantidad de datos por pista, pero las unidades modernas (desde la década de 1990) utilizan la grabación de bits de zona , lo que aumenta la velocidad de escritura de la zona interna a la externa y, por lo tanto, almacena más datos por pista en las zonas externas.
En las unidades modernas, el pequeño tamaño de las regiones magnéticas crea el peligro de que su estado magnético pueda perderse debido a efectos térmicos — inestabilidad magnética inducida térmicamente que se conoce comúnmente como el " límite superparamagnético ". Para contrarrestar esto, los platos están recubiertos con dos capas magnéticas paralelas, separadas por una capa de tres átomos del elemento no magnético rutenio , y las dos capas están magnetizadas en orientación opuesta, reforzándose así entre sí. [54] Otra tecnología utilizada para superar los efectos térmicos para permitir mayores densidades de grabación es la grabación perpendicular (PMR), enviada por primera vez en 2005, [55] y a partir de 2007 [update], utilizada en ciertos HDD. [56] [57] [58] La grabación perpendicular puede ir acompañada de cambios en la fabricación de los cabezales de lectura/escritura para aumentar la fuerza del campo magnético creado por los cabezales. [59]
En 2004 se introdujo un medio de grabación de mayor densidad, que consta de capas magnéticas blandas y duras acopladas. La denominada tecnología de almacenamiento magnético con resorte de intercambio , también conocida como medio compuesto acoplado con intercambio , permite una buena capacidad de escritura debido a la naturaleza de asistencia a la escritura de la capa blanda. Sin embargo, la estabilidad térmica está determinada únicamente por la capa más dura y no está influenciada por la capa blanda. [60] [61]
El control de flujo MAMR (FC-MAMR) permite que un disco duro tenga una mayor capacidad de grabación sin la necesidad de nuevos materiales para los platos del disco duro. Los discos duros MAMR tienen un generador de par de giro (STO) de generación de microondas en los cabezales de lectura/escritura que permite grabar bits físicamente más pequeños en los platos, lo que aumenta la densidad del área. Normalmente, los cabezales de grabación de los discos duros tienen un polo llamado polo principal que se utiliza para escribir en los platos, y adyacente a este polo hay un espacio de aire y un blindaje. La bobina de escritura del cabezal rodea el polo. El dispositivo STO se coloca en el espacio de aire entre el polo y el blindaje para aumentar la fuerza del campo magnético creado por el polo; FC-MAMR técnicamente no utiliza microondas, pero utiliza tecnología empleada en MAMR. El STO tiene una capa de generación de campo (FGL) y una capa de inyección de espín (SIL), y la FGL produce un campo magnético utilizando electrones polarizados por espín que se originan en la SIL, que es una forma de energía de par de espín. [62]
Un HDD típico tiene dos motores eléctricos: un motor de husillo que hace girar los discos y un actuador (motor) que coloca el conjunto del cabezal de lectura/escritura sobre los discos giratorios. El motor del disco tiene un rotor externo unido a los discos; los devanados del estator están fijos en su lugar. Frente al actuador, en el extremo del brazo de soporte del cabezal, se encuentra el cabezal de lectura/escritura; unos cables delgados de circuito impreso conectan los cabezales de lectura/escritura a la electrónica del amplificador montada en el pivote del actuador. El brazo de soporte del cabezal es muy ligero, pero también rígido; en las unidades modernas, la aceleración en el cabezal alcanza los 550 g .
ElEl actuador es unimán permanenteybobina móvilque hace oscilar los cabezales hasta la posición deseada. Una placa de metal sostiene unimánde neodimio-hierro-boro(NIB) de alto flujo. Debajo de esta placa se encuentra la bobina móvil, a menudo denominada bobina móvil por analogía con la bobina delos altavoces, que está unida al eje del actuador, y debajo de ella hay un segundo imán NIB, montado en la placa inferior del motor (algunos accionamientos tienen solo un imán).
La bobina móvil en sí tiene forma de punta de flecha y está hecha de alambre magnético de cobre con doble revestimiento . La capa interna es aislante y la externa es termoplástica, que une la bobina después de enrollarla en una forma, lo que la hace autoportante. Las partes de la bobina a lo largo de los dos lados de la punta de flecha (que apuntan al centro del cojinete del actuador) interactúan entonces con el campo magnético del imán fijo. La corriente que fluye radialmente hacia afuera a lo largo de un lado de la punta de flecha y radialmente hacia adentro en el otro produce la fuerza tangencial . Si el campo magnético fuera uniforme, cada lado generaría fuerzas opuestas que se cancelarían entre sí. Por lo tanto, la superficie del imán es mitad polo norte y mitad polo sur, con la línea divisoria radial en el medio, lo que hace que los dos lados de la bobina vean campos magnéticos opuestos y produzcan fuerzas que se suman en lugar de cancelarse. Las corrientes a lo largo de la parte superior e inferior de la bobina producen fuerzas radiales que no giran la cabeza.
La electrónica del HDD controla el movimiento del actuador y la rotación del disco y transfiere datos hacia/desde un controlador de disco . La retroalimentación de la electrónica de la unidad se logra por medio de segmentos especiales del disco dedicados a la retroalimentación servo . Estos son círculos concéntricos completos (en el caso de la tecnología servo dedicada) o segmentos intercalados con datos reales (en el caso del servo integrado, también conocido como tecnología servo sectorial). La retroalimentación servo optimiza la relación señal-ruido de los sensores GMR ajustando el motor de bobina móvil para girar el brazo. Un sistema servo más moderno también emplea actuadores mili y/o micro para posicionar con mayor precisión los cabezales de lectura/escritura. [63] El giro de los discos utiliza motores de husillo con cojinetes de fluido. El firmware de disco moderno es capaz de programar lecturas y escrituras de manera eficiente en las superficies del plato y reasignar sectores del medio que han fallado.
Las unidades modernas hacen un uso extensivo de códigos de corrección de errores (ECC), en particular la corrección de errores Reed-Solomon . Estas técnicas almacenan bits adicionales, determinados por fórmulas matemáticas, para cada bloque de datos; los bits adicionales permiten corregir muchos errores de forma invisible. Los bits adicionales ocupan espacio en el disco duro, pero permiten emplear densidades de grabación más altas sin causar errores incorregibles, lo que da como resultado una capacidad de almacenamiento mucho mayor. [64] Por ejemplo, un disco duro típico de 1 TB con sectores de 512 bytes proporciona una capacidad adicional de aproximadamente 93 GB para los datos ECC . [65]
En las unidades más nuevas, a partir de 2009 [update], [66] los códigos de verificación de paridad de baja densidad (LDPC) estaban reemplazando a Reed-Solomon; los códigos LDPC permiten un rendimiento cercano al límite de Shannon y, por lo tanto, proporcionan la mayor densidad de almacenamiento disponible. [66] [67]
Las unidades de disco duro típicas intentan "reasignar" los datos en un sector físico que está fallando a un sector físico de repuesto proporcionado por el "grupo de sectores de repuesto" de la unidad (también llamado "grupo de reserva"), [68] mientras confían en el ECC para recuperar los datos almacenados mientras el número de errores en un sector defectuoso aún es lo suficientemente bajo. La función SMART ( Tecnología de automonitoreo, análisis e informes ) cuenta el número total de errores en todo el HDD corregidos por ECC (aunque no en todos los discos duros ya que los atributos SMART relacionados "ECC de hardware recuperado" y "Corrección ECC suave" no se admiten de manera consistente), y el número total de reasignaciones de sectores realizadas, ya que la ocurrencia de muchos de estos errores puede predecir una falla del HDD .
El "Formato No-ID", desarrollado por IBM a mediados de la década de 1990, contiene información sobre qué sectores están en mal estado y dónde se han ubicado los sectores reasignados. [69]
Solo una pequeña fracción de los errores detectados terminan siendo irremediables. Algunos ejemplos de tasas de errores de lectura de bits no corregidos son:
Dentro del modelo de un fabricante determinado, la tasa de error de bits no corregido suele ser la misma independientemente de la capacidad de la unidad. [70] [71] [72] [73]
El peor tipo de error son las corrupciones silenciosas de datos , que son errores no detectados por el firmware del disco o el sistema operativo del host; algunos de estos errores pueden ser causados por fallas en el funcionamiento del disco duro, mientras que otros se originan en otra parte de la conexión entre el disco y el host. [74]
La tasa de avance de la densidad de área fue similar a la ley de Moore (duplicación cada dos años) hasta 2010: 60% anual durante 1988-1996, 100% durante 1996-2003 y 30% durante 2003-2010. [76] En 1997, Gordon Moore calificó el aumento de "asombroso", [77] y luego observó que el crecimiento no puede continuar para siempre. [78] La mejora de los precios se desaceleró a -12% anual durante 2010-2017, [79] a medida que el crecimiento de la densidad de área se desaceleraba. La tasa de avance de la densidad de área se desaceleró a 10% anual durante 2010-2016, [80] y hubo dificultades para migrar de la grabación perpendicular a tecnologías más nuevas. [81]
A medida que el tamaño de la celda de bit disminuye, se pueden colocar más datos en un solo plato de unidad. En 2013, un disco duro de escritorio de producción de 3 TB (con cuatro platos) habría tenido una densidad de área de aproximadamente 500 Gbit/in2, lo que habría ascendido a una celda de bit que comprende aproximadamente 18 granos magnéticos (11 por 1,6 granos). [82] Desde mediados de la década de 2000, el progreso de la densidad de área se ha visto desafiado por un trilema superparamagnético que involucra el tamaño de grano, la fuerza magnética del grano y la capacidad del cabezal para escribir. [83] Para mantener una relación señal-ruido aceptable, se requieren granos más pequeños; los granos más pequeños pueden autoinvertirse ( inestabilidad electrotérmica ) a menos que se aumente su fuerza magnética, pero los materiales de cabezal de escritura conocidos son incapaces de generar un campo magnético lo suficientemente fuerte como para escribir el medio en el espacio cada vez más pequeño que ocupan los granos.
Se están desarrollando tecnologías de almacenamiento magnético para abordar este trilema y competir con las unidades de estado sólido (SSD) basadas en memoria flash . En 2013, Seagate presentó la grabación magnética en capas (SMR), [84] pensada como una especie de tecnología "provisional" entre la PMR y la grabación magnética asistida por calor (HAMR) que Seagate pretendía reemplazar . La SMR utiliza pistas superpuestas para aumentar la densidad de datos, a costa de la complejidad del diseño y de velocidades de acceso a los datos más bajas (en particular, velocidades de escritura y velocidades de acceso aleatorio de 4k). [85] [86]
Por el contrario, HGST (ahora parte de Western Digital ) se centró en desarrollar formas de sellar las unidades llenas de helio en lugar del aire filtrado habitual. Dado que la turbulencia y la fricción se reducen, se pueden lograr mayores densidades de área debido al uso de un ancho de pista menor, y la energía disipada debido a la fricción también es menor, lo que resulta en un menor consumo de energía. Además, se pueden colocar más platos en el mismo espacio de la carcasa, aunque es notoriamente difícil evitar que se escape el gas helio. [87] Por lo tanto, las unidades de helio están completamente selladas y no tienen un puerto de ventilación, a diferencia de sus contrapartes llenas de aire.
Otras tecnologías de grabación están en investigación o se han implementado comercialmente para aumentar la densidad del área, incluida la grabación magnética asistida por calor (HAMR) de Seagate. HAMR requiere una arquitectura diferente con medios rediseñados y cabezales de lectura/escritura, nuevos láseres y nuevos transductores ópticos de campo cercano. [88] Se espera que HAMR se envíe comercialmente a fines de 2024, [89] después de que problemas técnicos retrasaran su introducción por más de una década, desde proyecciones anteriores que databan de 2009. [90] [91] [92] [93] El sucesor planificado de HAMR, la grabación con patrones de bits (BPR), [94] ha sido eliminado de las hojas de ruta de Western Digital y Seagate. [95] La grabación magnética asistida por microondas (MAMR) de Western Digital, [96] [97] también conocida como grabación magnética asistida por energía (EAMR), se probó en 2020, y la primera unidad EAMR, la Ultrastar HC550, se envió a fines de 2020. [98] [99] [100] La grabación magnética bidimensional (TDMR) [82] [101] y los cabezales de magnetorresistencia gigante (CPP/GMR) de "corriente perpendicular al plano" han aparecido en artículos de investigación. [102] [103] [104]
Algunas unidades han adoptado brazos actuadores independientes duales para aumentar las velocidades de lectura/escritura y competir con los SSD. [105] Se ha propuesto un concepto de unidad de vacío accionada por 3D (3DHD) [106] y grabación magnética 3D. [107]
Dependiendo de los supuestos sobre la viabilidad y el cronograma de estas tecnologías, Seagate pronostica que la densidad del área crecerá un 20% por año durante el período 2020-2034. [40]
Los discos duros de mayor capacidad que se comercializarán en 2024 son de 32 TB. [19] La capacidad de un disco duro, según lo informado por un sistema operativo al usuario final, es menor que la cantidad indicada por el fabricante por varias razones, por ejemplo, el sistema operativo utiliza algo de espacio, utiliza algo de espacio para redundancia de datos, utiliza espacio para estructuras del sistema de archivos. La confusión de prefijos decimales y prefijos binarios también puede provocar errores.
Las unidades de disco duro modernas aparecen ante su controlador anfitrión como un conjunto contiguo de bloques lógicos, y la capacidad bruta de la unidad se calcula multiplicando el número de bloques por el tamaño del bloque. Esta información está disponible en la especificación del producto del fabricante y en la propia unidad mediante el uso de funciones del sistema operativo que invocan comandos de unidad de bajo nivel. [108] [109] Las unidades IBM y compatibles más antiguas, por ejemplo, IBM 3390 que utiliza el formato de registro CKD , tienen registros de longitud variable; dichos cálculos de capacidad de la unidad deben tener en cuenta las características de los registros. Algunos DASD más nuevos simulan CKD y se aplican las mismas fórmulas de capacidad.
La capacidad bruta de los discos duros orientados a sectores más antiguos se calcula como el producto del número de cilindros por zona de grabación, el número de bytes por sector (más comúnmente 512) y el recuento de zonas de la unidad. [ cita requerida ] Algunas unidades SATA modernas también informan capacidades de sector de cabezal de cilindro (CHS), pero estos no son parámetros físicos porque los valores informados están restringidos por las interfaces históricas del sistema operativo. El esquema C/H/S ha sido reemplazado por el direccionamiento de bloque lógico (LBA), un esquema de direccionamiento lineal simple que ubica bloques por un índice entero, que comienza en LBA 0 para el primer bloque y se incrementa a partir de entonces. [110] Cuando se utiliza el método C/H/S para describir unidades grandes modernas, el número de cabezales a menudo se establece en 64, aunque una unidad de disco duro moderna típica tiene entre uno y cuatro platos. En los discos duros modernos, la capacidad de repuesto para la gestión de defectos no está incluida en la capacidad publicada; Sin embargo, en muchos de los primeros discos duros, se reservaba una cierta cantidad de sectores como repuestos, lo que reducía la capacidad disponible para el sistema operativo. Además, muchos discos duros almacenan su firmware en una zona de servicio reservada, a la que normalmente no puede acceder el usuario y que no se incluye en el cálculo de la capacidad.
En el caso de los subsistemas RAID , los requisitos de integridad de datos y tolerancia a fallos también reducen la capacidad alcanzada. Por ejemplo, una matriz RAID 1 tiene aproximadamente la mitad de la capacidad total como resultado de la duplicación de datos, mientras que una matriz RAID 5 con n unidades pierde 1/n de capacidad (que equivale a la capacidad de una sola unidad) debido al almacenamiento de información de paridad. Los subsistemas RAID son unidades múltiples que parecen ser una o más unidades para el usuario, pero proporcionan tolerancia a fallos. La mayoría de los proveedores de RAID utilizan sumas de comprobación para mejorar la integridad de los datos a nivel de bloque. Algunos proveedores diseñan sistemas que utilizan discos duros con sectores de 520 bytes para contener 512 bytes de datos de usuario y ocho bytes de suma de comprobación, o utilizan sectores separados de 512 bytes para los datos de suma de comprobación. [111]
Algunos sistemas pueden utilizar particiones ocultas para la recuperación del sistema, lo que reduce la capacidad disponible para el usuario final sin conocimiento de utilidades especiales de partición de discos como diskpart en Windows . [112]
Los datos se almacenan en un disco duro en una serie de bloques lógicos. Cada bloque está delimitado por marcadores que identifican su inicio y fin, información de detección y corrección de errores y espacio entre bloques para permitir pequeñas variaciones de tiempo. Estos bloques a menudo contenían 512 bytes de datos utilizables, pero se han utilizado otros tamaños. A medida que aumentaba la densidad de unidades, una iniciativa conocida como Formato avanzado amplió el tamaño de los bloques a 4096 bytes de datos utilizables, con una reducción significativa resultante en la cantidad de espacio en disco utilizado para encabezados de bloques, datos de comprobación de errores y espaciado.
El proceso de inicialización de estos bloques lógicos en los platos del disco físico se denomina formateo de bajo nivel , que normalmente se realiza en la fábrica y normalmente no se modifica en el campo. [113] El formateo de alto nivel escribe estructuras de datos utilizadas por el sistema operativo para organizar los archivos de datos en el disco. Esto incluye escribir estructuras de particiones y sistemas de archivos en bloques lógicos seleccionados. Por ejemplo, parte del espacio del disco se utilizará para contener un directorio de nombres de archivos de disco y una lista de bloques lógicos asociados con un archivo en particular.
Algunos ejemplos de esquemas de asignación de particiones incluyen el registro de arranque maestro (MBR) y la tabla de particiones GUID (GPT). Algunos ejemplos de estructuras de datos almacenadas en el disco para recuperar archivos incluyen la tabla de asignación de archivos (FAT) en el sistema de archivos DOS y los inodos en muchos sistemas de archivos UNIX , así como otras estructuras de datos del sistema operativo (también conocidas como metadatos ). Como consecuencia, no todo el espacio de un HDD está disponible para los archivos de usuario, pero esta sobrecarga del sistema suele ser pequeña en comparación con los datos de usuario.
En los primeros días de la informática, la capacidad total de los discos duros se especificaba en siete a nueve dígitos decimales frecuentemente truncados con el modismo millones . [116] [33] En la década de 1970, la capacidad total de los discos duros era proporcionada por los fabricantes utilizando prefijos decimales del SI como megabytes (1 MB = 1.000.000 bytes), gigabytes (1 GB = 1.000.000.000 bytes) y terabytes (1 TB = 1.000.000.000.000 bytes). [114] [117] [118] [119] Sin embargo, las capacidades de memoria normalmente se citan utilizando una interpretación binaria de los prefijos, es decir, utilizando potencias de 1024 en lugar de 1000.
El software informa sobre la capacidad de la unidad de disco duro o de la memoria en diferentes formas utilizando prefijos decimales o binarios. La familia de sistemas operativos Microsoft Windows utiliza la convención binaria al informar sobre la capacidad de almacenamiento, por lo que un HDD ofrecido por su fabricante como una unidad de 1 TB es informado por estos sistemas operativos como un HDD de 931 GB. Mac OS X 10.6 (" Snow Leopard ") utiliza la convención decimal al informar sobre la capacidad del HDD. [120] El comportamiento predeterminado de la utilidad de línea de comandos df en Linux es informar sobre la capacidad del HDD como un número de unidades de 1024 bytes. [121]
La diferencia entre la interpretación de los prefijos decimales y binarios provocó cierta confusión entre los consumidores y dio lugar a demandas colectivas contra los fabricantes de discos duros . Los demandantes argumentaron que el uso de prefijos decimales engañó efectivamente a los consumidores, mientras que los demandados negaron cualquier irregularidad o responsabilidad, afirmando que su marketing y publicidad cumplían en todos los aspectos con la ley y que ningún miembro del grupo sufrió daños o lesiones. [122] [123] [124] En 2020, un tribunal de California dictaminó que el uso de prefijos decimales con un significado decimal no era engañoso. [125]
El primer disco duro de IBM, el IBM 350 , utilizaba una pila de cincuenta platos de 24 pulgadas, almacenaba 3,75 MB de datos (aproximadamente el tamaño de una imagen digital moderna) y era de un tamaño comparable al de dos refrigeradores grandes. En 1962, IBM presentó su modelo de disco 1311, que utilizaba seis platos de 14 pulgadas (tamaño nominal) en un paquete extraíble y era aproximadamente del tamaño de una lavadora. Este se convirtió en un tamaño de plato estándar durante muchos años, utilizado también por otros fabricantes. [126] El IBM 2314 utilizaba platos del mismo tamaño en un paquete de once de alto e introdujo el diseño de "unidad en un cajón", a veces llamado "horno de pizza", aunque el "cajón" no era la unidad completa. En la década de 1970, los HDD se ofrecían en gabinetes independientes de diferentes dimensiones que contenían de uno a cuatro HDD.
A partir de finales de los años 60, se empezaron a ofrecer unidades que encajaban completamente en un chasis que se podía montar en un bastidor de 19 pulgadas . Los modelos RK05 y RL01 de Digital fueron los primeros que utilizaban platos individuales de 14 pulgadas en paquetes extraíbles, y la unidad completa encajaba en un espacio de bastidor de 10,5 pulgadas de alto (seis unidades de bastidor). A mediados y finales de los años 80, el Fujitsu Eagle de tamaño similar , que utilizaba (casualmente) platos de 10,5 pulgadas, era un producto popular.
Con el aumento de las ventas de microcomputadoras con unidades de disquete (FDD) integradas , los discos duros que se ajustaran a los montajes de FDD se volvieron deseables. A partir del Shugart Associates SA1000 , los formatos de los discos duros inicialmente siguieron los de las unidades de disquete de 8 pulgadas, 5¼ pulgadas y 3½ pulgadas. Aunque se hace referencia a estos tamaños nominales, los tamaños reales para esas tres unidades son respectivamente 9,5", 5,75" y 4" de ancho. Debido a que no había unidades de disquete más pequeñas, los formatos de los discos duros más pequeños, como las unidades de 2½ pulgadas (en realidad 2,75" de ancho), se desarrollaron a partir de ofertas de productos o estándares de la industria.
A partir de 2019 [update], los discos duros de 2½ pulgadas y 3½ pulgadas son los tamaños más populares. Para 2009, todos los fabricantes habían interrumpido el desarrollo de nuevos productos para los factores de forma de 1,3 pulgadas, 1 pulgada y 0,85 pulgadas debido a la caída de los precios de la memoria flash , [127] [128] que no tiene partes móviles. Si bien los tamaños nominales están en pulgadas, las dimensiones reales se especifican en milímetros.
Los factores que limitan el tiempo de acceso a los datos de un disco duro están relacionados principalmente con la naturaleza mecánica de los discos giratorios y los cabezales móviles, entre ellos:
También puede producirse un retraso si los discos de la unidad se detienen para ahorrar energía.
La desfragmentación es un procedimiento que se utiliza para minimizar el retraso en la recuperación de datos moviendo los elementos relacionados a áreas físicamente próximas en el disco. [129] Algunos sistemas operativos de computadoras realizan la desfragmentación automáticamente. Aunque la desfragmentación automática tiene como objetivo reducir los retrasos en el acceso, el rendimiento se reducirá temporalmente mientras el procedimiento está en curso. [130]
El tiempo de acceso a los datos se puede mejorar aumentando la velocidad de rotación (reduciendo así la latencia) o reduciendo el tiempo empleado en la búsqueda. El aumento de la densidad de área aumenta el rendimiento al aumentar la velocidad de datos y la cantidad de datos bajo un conjunto de cabezales, lo que reduce potencialmente la actividad de búsqueda para una cantidad dada de datos. El tiempo de acceso a los datos no ha seguido el ritmo de los aumentos del rendimiento, que a su vez no han seguido el ritmo del crecimiento de la densidad de bits y la capacidad de almacenamiento.
A partir de 2010 [update], un HDD de escritorio típico de 7200 rpm tiene una tasa de transferencia de datos sostenida "de disco a búfer " de hasta 1030 Mbit/s . [131] Esta tasa depende de la ubicación de la pista; la tasa es más alta para los datos en las pistas externas (donde hay más sectores de datos por rotación) y más baja hacia las pistas internas (donde hay menos sectores de datos por rotación); y generalmente es algo más alta para las unidades de 10 000 rpm. Un estándar actual y ampliamente utilizado para la interfaz "de búfer a computadora" es SATA de 3,0 Gbit/s , que puede enviar alrededor de 300 megabytes/s (codificación de 10 bits) desde el búfer a la computadora y, por lo tanto, todavía está cómodamente por delante de las tasas de transferencia de disco a búfer actuales [ ¿a partir de? ] . La tasa de transferencia de datos (lectura/escritura) se puede medir escribiendo un archivo grande en el disco utilizando herramientas especiales de generación de archivos y luego leyendo el archivo. La velocidad de transferencia puede verse influenciada por la fragmentación del sistema de archivos y el diseño de los archivos. [129]
La velocidad de transferencia de datos del disco duro depende de la velocidad de rotación de los platos y de la densidad de grabación de datos. Debido a que el calor y la vibración limitan la velocidad de rotación, aumentar la densidad se convierte en el método principal para mejorar las velocidades de transferencia secuencial. Las velocidades más altas requieren un motor de husillo más potente, que genera más calor. Si bien la densidad de área aumenta al aumentar tanto el número de pistas en el disco como el número de sectores por pista, [132] solo este último aumenta la velocidad de transferencia de datos para una rpm determinada. Dado que el rendimiento de la velocidad de transferencia de datos solo rastrea uno de los dos componentes de la densidad de área, su rendimiento mejora a una velocidad menor. [133]
Otras consideraciones de rendimiento incluyen el precio ajustado a la calidad , el consumo de energía, el ruido audible y la resistencia a los golpes tanto en funcionamiento como en reposo.
Los discos duros actuales se conectan a una computadora a través de uno de varios tipos de bus , incluidos ATA paralelo , ATA serial , SCSI , SCSI conectado en serie (SAS) y canal de fibra . Algunas unidades, especialmente las unidades portátiles externas, utilizan IEEE 1394 o USB . Todas estas interfaces son digitales; la electrónica de la unidad procesa las señales analógicas de los cabezales de lectura/escritura. Las unidades actuales presentan una interfaz consistente con el resto de la computadora, independientemente del esquema de codificación de datos utilizado internamente y de la cantidad física de discos y cabezales dentro de la unidad.
Por lo general, un DSP en la electrónica dentro de la unidad toma los voltajes analógicos sin procesar del cabezal de lectura y utiliza PRML y corrección de errores Reed-Solomon [134] para decodificar los datos, luego envía esos datos a la interfaz estándar. Ese DSP también observa la tasa de errores detectada por la detección y corrección de errores , y realiza la reasignación de sectores defectuosos , la recopilación de datos para la tecnología de automonitoreo, análisis y generación de informes , y otras tareas internas.
Las interfaces modernas conectan el variador a la interfaz del host con un solo cable de datos/control. Cada variador también tiene un cable de alimentación adicional, normalmente directo a la unidad de suministro de energía. Las interfaces más antiguas tenían cables separados para las señales de datos y para las señales de control del variador.
Debido a la distancia extremadamente corta entre los cabezales y la superficie del disco, los discos duros son vulnerables a sufrir daños por un choque del cabezal , una falla del disco en la que el cabezal raspa la superficie del plato, desgastando a menudo la fina película magnética y provocando la pérdida de datos. Los choques del cabezal pueden ser causados por una falla electrónica, un corte repentino de energía, un golpe físico, contaminación de la carcasa interna de la unidad, desgaste, corrosión o platos y cabezales mal fabricados.
El sistema de husillo del HDD se basa en la densidad del aire dentro de la carcasa del disco para soportar los cabezales a su altura de vuelo adecuada mientras el disco gira. Los HDD requieren un cierto rango de densidades de aire para funcionar correctamente. La conexión con el entorno externo y la densidad se produce a través de un pequeño orificio en la carcasa (de aproximadamente 0,5 mm de ancho), generalmente con un filtro en el interior (el filtro de respiración ). [135] Si la densidad del aire es demasiado baja, entonces no hay suficiente sustentación para el cabezal volador, por lo que el cabezal se acerca demasiado al disco y existe el riesgo de que se estrelle el cabezal y se pierdan datos. Se necesitan discos sellados y presurizados especialmente fabricados para un funcionamiento confiable a gran altitud, por encima de aproximadamente 3000 m (9800 pies). [136] Los discos modernos incluyen sensores de temperatura y ajustan su funcionamiento al entorno operativo. Los orificios de ventilación se pueden ver en todas las unidades de disco; generalmente tienen una pegatina al lado, que advierte al usuario de no cubrir los orificios. El aire dentro de la unidad operativa también está en constante movimiento, arrastrado por la fricción con los platos giratorios. Este aire pasa a través de un filtro de recirculación (o "recirc") interno para eliminar cualquier contaminante restante de la fabricación, cualquier partícula o producto químico que pueda haber entrado de alguna manera en la carcasa y cualquier partícula o desgasificación generada internamente durante el funcionamiento normal. Una humedad muy alta presente durante períodos prolongados de tiempo puede corroer los cabezales y los platos. Una excepción a esto son los discos duros herméticamente sellados y llenos de helio que eliminan en gran medida los problemas ambientales que pueden surgir debido a los cambios de humedad o presión atmosférica. Estos discos duros fueron presentados por HGST en su primera implementación exitosa de gran volumen en 2013.
En particular, en el caso de los cabezales magnetorresistivos gigantes (GMR), un pequeño choque del cabezal debido a una contaminación (que no elimina la superficie magnética del disco) aún da como resultado un sobrecalentamiento temporal del cabezal, debido a la fricción con la superficie del disco, y puede hacer que los datos sean ilegibles durante un breve período hasta que la temperatura del cabezal se estabilice (la llamada "aspereza térmica", un problema que se puede solucionar parcialmente con un filtrado electrónico adecuado de la señal de lectura).
Cuando falla la placa lógica de un disco duro, a menudo se puede restaurar el funcionamiento de la unidad y recuperar los datos reemplazando la placa de circuito con una de un disco duro idéntico. En el caso de fallas en los cabezales de lectura y escritura, se pueden reemplazar utilizando herramientas especializadas en un entorno libre de polvo. Si los platos del disco no están dañados, se pueden transferir a un gabinete idéntico y los datos se pueden copiar o clonar en una nueva unidad. En caso de fallas en los platos del disco, puede ser necesario desmontarlos y crear imágenes de los platos del disco. [137] Para daños lógicos en los sistemas de archivos, se puede utilizar una variedad de herramientas, incluidas fsck en sistemas tipo UNIX y CHKDSK en Windows , para la recuperación de datos . La recuperación de daños lógicos puede requerir la extracción de archivos .
Una expectativa común es que las unidades de disco duro diseñadas y comercializadas para uso en servidores fallarán con menos frecuencia que las unidades de grado de consumidor que se usan generalmente en computadoras de escritorio. Sin embargo, dos estudios independientes realizados por la Universidad Carnegie Mellon [138] y Google [139] descubrieron que la "calificación" de una unidad no se relaciona con la tasa de fallas de la misma.
Un resumen de la investigación de 2011 sobre patrones de fallas de discos magnéticos y SSD realizado por Tom's Hardware resumió los hallazgos de la investigación de la siguiente manera: [140]
En 2019 [update], Backblaze, un proveedor de almacenamiento, informó una tasa de falla anualizada del dos por ciento por año para una granja de almacenamiento con 110 000 discos duros listos para usar con una confiabilidad que varía ampliamente entre modelos y fabricantes. [144] Backblaze informó posteriormente que la tasa de falla de los discos duros y SSD de antigüedad equivalente era similar. [7]
Para minimizar los costos y superar las fallas de los discos duros individuales, los proveedores de sistemas de almacenamiento confían en matrices de discos duros redundantes. Los discos duros que fallan se reemplazan de manera continua. [144] [90]
Estas unidades normalmente giran a 5400 rpm e incluyen:
El precio de los discos duros por byte disminuyó a una tasa del 40% anual durante el período 1988-1996, del 51% anual durante el período 1996-2003 y del 34% anual durante el período 2003-2010. [157] [76] La disminución del precio se desaceleró al 13% anual durante el período 2011-2014, a medida que se desaceleró el aumento de la densidad de área y las inundaciones de Tailandia de 2011 dañaron las instalaciones de fabricación [81] y se ha mantenido en el 11% anual durante el período 2010-2017. [158]
La Junta de la Reserva Federal ha publicado un índice de precios ajustado por calidad para sistemas de almacenamiento empresarial a gran escala que incluyen tres o más discos duros empresariales y controladores, bastidores y cables asociados. Los precios de estos sistemas de almacenamiento a gran escala disminuyeron a un ritmo del 30% anual durante el período 2004-2009 y del 22% anual durante el período 2009-2014. [76]
Más de 200 empresas han fabricado discos duros a lo largo del tiempo, pero las consolidaciones han concentrado la producción en solo tres fabricantes en la actualidad: Western Digital , Seagate y Toshiba . La producción se realiza principalmente en la cuenca del Pacífico.
Los envíos de unidades HDD alcanzaron un máximo de 651 millones de unidades en 2010 y han estado disminuyendo desde entonces hasta 166 millones de unidades en 2022. [159] Seagate, con el 43% de las unidades, tuvo la mayor participación de mercado. [160]
Los discos duros están siendo reemplazados por unidades de estado sólido (SSD) en mercados donde la mayor velocidad (hasta 7 gigabytes por segundo para unidades NVMe M.2 (NGFF) [161] y 2,5 gigabytes por segundo para unidades de tarjetas de expansión PCIe ) [162] ), la robustez y el menor consumo de energía de los SSD son más importantes que el precio, ya que el costo en bits de los SSD es de cuatro a nueve veces mayor que el de los HDD. [16] [15] A partir de 2016 , se informa que los HDD tienen una tasa de fallas de 2-9% por año, mientras que los SSD tienen menos fallas: 1-3% por año. [163] Sin embargo, los SSD tienen más errores de datos no corregibles que los HDD. [163][update]
Los SSD están disponibles en capacidades mayores (hasta 100 TB) [38] que los HDD más grandes, así como en densidades de almacenamiento más altas (los SSD de 100 TB y 30 TB están alojados en carcasas de HDD de 2,5 pulgadas con la misma altura que un HDD de 3,5 pulgadas), [164] [165] [166] [167] [168] aunque estos SSD tan grandes son muy caros.
Una demostración de laboratorio de un chip NAND 3D de 1,33 Tb con 96 capas (NAND comúnmente utilizada en unidades de estado sólido (SSD)) tenía 5,5 Tbit/in 2 a partir de 2019 [update]), [169] mientras que la densidad de área máxima para HDD es 1,5 Tbit/in 2 . La densidad de área de la memoria flash se duplica cada dos años, de forma similar a la ley de Moore (40 % anual) y más rápido que el 10-20 % anual de los HDD. A partir de 2018 [update], la capacidad máxima era de 16 terabytes para un HDD, [170] y 100 terabytes para un SSD. [171] Los HDD se utilizaron en el 70 % de las computadoras de escritorio y portátiles producidas en 2016, y los SSD se utilizaron en el 30 %. Según un pronóstico, la participación de los discos duros en el uso está disminuyendo y podría caer por debajo del 50 % en 2018-2019, porque los SSD están reemplazando a los discos duros de menor capacidad (menos de un terabyte) en computadoras de escritorio y portátiles y en reproductores de MP3. [172]
El mercado de chips de memoria flash basados en silicio (NAND), utilizados en unidades de estado sólido (SSD) y otras aplicaciones, está creciendo más rápido que el de los discos duros (HDD). Los ingresos mundiales por NAND crecieron un 16 % anual, de 22 000 millones de dólares a 57 000 millones de dólares durante el período 2011-2017, mientras que la producción creció un 45 % anual, de 19 exabytes a 175 exabytes. [173]
Una vez que controlamos la antigüedad y los días de uso de la unidad, los dos tipos de unidad eran similares y la diferencia ciertamente no era suficiente por sí sola para justificar el costo adicional de comprar una SSD en lugar de una HDD.
La unidad de disco IBM 350 tenía una capacidad de 3,75 MB.
Se proporcionan tres brazos de acceso mecánicamente independientes para cada unidad de archivo, y cada brazo se puede dirigir independientemente a cualquier pista del archivo.
Cada unidad de almacenamiento en disco tiene tres brazos de acceso mecánicamente independientes, todos los cuales pueden buscar al mismo tiempo.
La unidad de almacenamiento en disco puede tener dos brazos de acceso. Uno es estándar y el otro está disponible como característica especial.
El mercado total direccionable para unidades de disco crecerá de $21.8 mil millones en 2019.
Gordon Moore: ... la capacidad de la gente de los discos magnéticos para seguir aumentando la densidad es asombrosa; ha avanzado al menos tan rápido como la complejidad de los semiconductores.
No puede continuar para siempre. La naturaleza de las exponenciales es que las empujas hacia afuera y, eventualmente, ocurre un desastre.
Las inundaciones de 2011 en Tailandia casi duplicaron el costo de la capacidad de disco por GB durante un tiempo. Rosenthal escribe: "Las dificultades técnicas de migrar de PMR a HAMR significaron que ya en 2010 la tasa de Kryder se había desacelerado significativamente y no se esperaba que volviera a su tendencia en el futuro cercano. Las inundaciones reforzaron esto".
'La tasa de crecimiento anual compuesta (CAGR) de la PMR se está desacelerando desde un nivel histórico de más del 40 % hasta aproximadamente un 8-12 %' y 'CAGR de la HAMR = 20-40 % para 2015-2020'
La tecnología magnética en capas es el primer paso para alcanzar un disco duro de 20 terabytes en 2020
Una unidad de "grabación magnética en escamas" (SMR) es una unidad giratoria que compacta sus pistas tan estrechamente que no se puede sobrescribir una pista sin destruir también las pistas vecinas. El resultado es que sobrescribir datos requiere reescribir todo el conjunto de pistas estrechamente espaciadas; se trata de una compensación costosa, pero se considera que el beneficio (una densidad de almacenamiento mucho mayor) vale el costo en algunas situaciones.
Desafortunadamente, la producción en masa de discos duros reales con HAMR ya se ha retrasado varias veces y ahora resulta que los primeros discos duros basados en HAMR se lanzarán en 2018. ... Los discos duros HAMR contarán con una nueva arquitectura, requerirán nuevos medios, cabezales de lectura/escritura completamente rediseñados con un láser, así como un transductor óptico de campo cercano (NFT) especial y una serie de otros componentes que no se utilizan ni se producen en masa en la actualidad.
…Seagate espera comenzar a vender unidades HAMR en 2016.
El director de tecnología de Seagate, el Dr. John Morris, dijo a los analistas que Seagate ha construido 55.000 unidades HAMR y tiene como objetivo tener los discos listos para el muestreo de los clientes a fines de 2020.
La hoja de ruta más reciente de Seagate lleva los envíos de HAMR hasta 2020, por lo que ahora están disminuyendo más rápido que el tiempo real. Western Digital ha renunciado a HAMR y promete que la grabación magnética asistida por microondas (MAMR) estará disponible solo dentro de un año. BPM ha desaparecido de las hojas de ruta de ambas empresas.
…tecnología de grabación magnética asistida por microondas (MAMR)… los envíos de muestras se realizarán a finales de año.
Los LBA en una unidad lógica deben comenzar con cero y deben ser contiguos hasta el último bloque lógico en la unidad lógica.
Ejemplo de una unidad de disco duro externa preensamblada sin su carcasa que no se puede utilizar internamente en una computadora portátil o de escritorio debido a la interfaz integrada en su placa de circuito impreso
La mayoría de las unidades de disco utilizan sectores de 512 bytes. [...] Las unidades empresariales (SCSI/SAS/FC paralelas) admiten sectores "gruesos" de 520/528 bytes.