Una unidad de disco duro ( HDD ), disco duro , disco duro o disco fijo [a] es un dispositivo electromecánico de almacenamiento de datos que almacena y recupera datos digitales mediante almacenamiento magnético con uno o más platos rígidos que giran rápidamente y recubiertos con material magnético. Los platos están emparejados con cabezales magnéticos , generalmente dispuestos en un brazo actuador móvil , que leen y escriben datos en las superficies del plato. [1] Se accede a los datos de forma aleatoria , lo que significa que los bloques individuales de datos se pueden almacenar y recuperar en cualquier orden. Los discos duros son un tipo de almacenamiento no volátil que conserva los datos almacenados cuando se apagan. [2] [3] [4] Los discos duros modernos suelen tener la forma de una pequeña caja rectangular .
Las unidades de disco duro fueron introducidas por IBM en 1956 [5] y fueron el dispositivo de almacenamiento secundario dominante para las computadoras de uso general a principios de los años 1960. Los discos duros mantuvieron esta posición en la era moderna de los servidores y las computadoras personales , aunque los dispositivos informáticos personales producidos en gran volumen, como teléfonos móviles y tabletas , dependen de dispositivos de almacenamiento de memoria flash . Históricamente , más de 224 empresas han producido discos duros , aunque después de una amplia consolidación de la industria, la mayoría de las unidades son fabricadas por Seagate , Toshiba y Western Digital . Los discos duros dominan el volumen de almacenamiento producido ( exabytes por año) para servidores. Aunque la producción está creciendo lentamente (en exabytes enviados [6] ), los ingresos por ventas y los envíos de unidades están disminuyendo, porque las unidades de estado sólido (SSD) tienen tasas de transferencia de datos más altas, mayor densidad de almacenamiento área y confiabilidad algo mejor, [7] [ 8] y tiempos de latencia y acceso mucho menores. [9] [10] [11] [12]
Los ingresos de los SSD, la mayoría de los cuales utilizan memoria flash NAND , superaron ligeramente los de los HDD en 2018. [13] Los productos de almacenamiento flash tuvieron más del doble de ingresos que los discos duros en 2017 [update]. [14] Aunque los SSD tienen un costo por bit de cuatro a nueve veces mayor, [15] [16] están reemplazando a los HDD en aplicaciones donde la velocidad, el consumo de energía, el tamaño pequeño, la alta capacidad y la durabilidad son importantes. [11] [12] A partir de 2019 [update], el costo por bit de los SSD está cayendo y la prima de precio sobre los HDD se ha reducido. [16]
Las principales características de un HDD son su capacidad y rendimiento . La capacidad se especifica en prefijos de unidades correspondientes a potencias de 1000: una unidad de 1 terabyte (TB) tiene una capacidad de 1000 gigabytes , donde 1 gigabyte = 1 000 megabytes = 1 000 000 kilobytes (1 millón) = 1 000 000 000 bytes ( mil millones). Por lo general, parte de la capacidad de un disco duro no está disponible para el usuario porque es utilizada por el sistema de archivos y el sistema operativo de la computadora , y posiblemente por redundancia incorporada para corrección y recuperación de errores. Puede haber confusión con respecto a la capacidad de almacenamiento, ya que los fabricantes de discos duros expresan las capacidades en gigabytes decimales (potencias de 1000), mientras que los sistemas operativos más utilizados informan capacidades en potencias de 1024, lo que resulta en un número menor que el anunciado. El rendimiento se especifica como el tiempo necesario para mover los cabezales a una pista o cilindro (tiempo promedio de acceso), el tiempo que tarda el sector deseado en moverse debajo del cabezal ( latencia promedio , que es función de la velocidad de rotación física en revoluciones por minuto ), y finalmente, la velocidad a la que se transmiten los datos (data rate).
Los dos factores de forma más comunes para los discos duros modernos son de 3,5 pulgadas, para computadoras de escritorio, y de 2,5 pulgadas, principalmente para computadoras portátiles. Los discos duros se conectan a los sistemas mediante cables de interfaz estándar , como cables SATA (Serial ATA), USB , SAS ( Serial Attached SCSI ) o PATA (Parallel ATA).
La primera unidad de disco duro de IBM de producción, el almacenamiento en disco 350 , se envió en 1957 como un componente del sistema IBM 305 RAMAC. Tenía aproximadamente el tamaño de dos refrigeradores grandes y almacenaba cinco millones de caracteres de seis bits (3,75 megabytes ) [18] en una pila de 52 discos (100 superficies utilizadas). [27] El 350 tenía un solo brazo con dos cabezales de lectura/escritura, uno hacia arriba y el otro hacia abajo, que se movían horizontalmente entre un par de platos adyacentes y verticalmente desde un par de platos a un segundo conjunto. [28] [29] [30] Las variantes del IBM 350 fueron el IBM 355 , el IBM 7300 y el IBM 1405 .
En 1961, IBM anunció, y en 1962 envió, la unidad de almacenamiento en disco IBM 1301, [31] que reemplazó a la IBM 350 y unidades similares. El 1301 constaba de uno (para el modelo 1) o dos (para el modelo 2) módulos, cada uno con 25 platos, cada plato de aproximadamente 1 ⁄ 8 de pulgada (3,2 mm) de espesor y 24 pulgadas (610 mm) de diámetro. [32] Mientras que las unidades de disco anteriores de IBM usaban solo dos cabezales de lectura/escritura por brazo, el 1301 usaba una matriz de 48 [l] cabezas (peine), cada matriz se movía horizontalmente como una sola unidad, un cabezal por superficie utilizada. Se admitieron operaciones de lectura/escritura en modo cilíndrico y los cabezales volaron aproximadamente 250 micropulgadas (aproximadamente 6 μm) por encima de la superficie del plato. El movimiento del cabezal dependía de un sistema sumador binario de actuadores hidráulicos que aseguraba un posicionamiento repetible. El gabinete 1301 tenía aproximadamente el tamaño de tres refrigeradores grandes colocados uno al lado del otro y almacenaba el equivalente a aproximadamente 21 millones de bytes de ocho bits por módulo. El tiempo de acceso fue de aproximadamente un cuarto de segundo.
También en 1962, IBM presentó la unidad de disco modelo 1311 , que era aproximadamente del tamaño de una lavadora y almacenaba dos millones de caracteres en un paquete de discos extraíble . Los usuarios podían comprar paquetes adicionales e intercambiarlos según fuera necesario, como si fueran carretes de cinta magnética . Los modelos posteriores de unidades de disco extraíbles, de IBM y otros, se convirtieron en la norma en la mayoría de las instalaciones informáticas y alcanzaron capacidades de 300 megabytes a principios de los años 1980. Los discos duros no extraíbles se denominaban unidades de "disco fijo".
En 1963, IBM introdujo el 1302, [33] con el doble de capacidad de orugas y el doble de orugas por cilindro que el 1301. El 1302 tenía uno (para el Modelo 1) o dos (para el Modelo 2), cada uno de los cuales contenía un peine separado. para las primeras 250 pistas y las últimas 250 pistas.
Algunos HDD de alto rendimiento se fabricaron con un cabezal por pista, por ejemplo , Burroughs B-475 en 1964, IBM 2305 en 1970, de modo que no se perdía tiempo moviendo físicamente los cabezales a una pista y la única latencia era el tiempo deseado. bloque de datos para rotar a su posición debajo de la cabeza. [34] Conocidas como unidades de disco de cabezal fijo o cabezal por pista, eran muy caras y ya no se producen. [35]
En 1973, IBM introdujo un nuevo tipo de disco duro con el nombre en código " Winchester ". Su principal característica distintiva era que los cabezales de los discos no se retiraban completamente de la pila de platos de discos cuando se apagaba la unidad. En cambio, a las cabezas se les permitió "aterrizar" en un área especial de la superficie del disco al detener el giro, "despegando" nuevamente cuando el disco se encendió más tarde. Esto redujo en gran medida el costo del mecanismo actuador del cabezal, pero impidió retirar solo los discos de la unidad como se hacía con los paquetes de discos de la época. En cambio, los primeros modelos de unidades de "tecnología Winchester" presentaban un módulo de disco extraíble, que incluía tanto el paquete de discos como el conjunto del cabezal, dejando el motor actuador en la unidad al retirarlo. Más tarde, las unidades "Winchester" abandonaron el concepto de medios extraíbles y volvieron a los platos no extraíbles.
En 1974, IBM introdujo el actuador de brazo oscilante, que fue posible gracias a que los cabezales de grabación Winchester funcionan bien cuando están inclinados hacia las pistas grabadas. El diseño simple de la unidad IBM GV (Gulliver), [36] inventado en los Hursley Labs de IBM en el Reino Unido, se convirtió en la invención electromecánica con mayor licencia de IBM [37] de todos los tiempos; el actuador y el sistema de filtración se adoptaron en la década de 1980 y finalmente para todos. HDD, y siguen siendo universales casi 40 años y 10 mil millones de armas después.
Al igual que la primera unidad de paquete extraíble, las primeras unidades "Winchester" utilizaban platos de 14 pulgadas (360 mm) de diámetro. En 1978, IBM introdujo una unidad de brazo oscilante, la IBM 0680 (Piccolo), con platos de ocho pulgadas, explorando la posibilidad de que los platos más pequeños pudieran ofrecer ventajas. Siguieron otras unidades de ocho pulgadas, luego 5+Unidades de 1 ⁄ 4 pulgadas (130 mm), de tamaño adecuado para reemplazar las unidades de disquete contemporáneas . Estos últimos estaban destinados principalmente al entonces incipiente mercado de ordenadores personales (PC).
Con el tiempo, a medida que las densidades de grabación aumentaron considerablemente, se descubrió que las reducciones adicionales en el diámetro del disco a 3,5 "y 2,5" eran óptimas. Los potentes materiales magnéticos de tierras raras se volvieron asequibles durante este período y complementaron el diseño del actuador del brazo oscilante para hacer posibles los factores de forma compactos de los discos duros modernos.
Cuando comenzó la década de 1980, los discos duros eran una característica adicional rara y muy costosa en las PC, pero a fines de la década de 1980, su costo se había reducido hasta el punto de que eran estándar en todas las computadoras excepto en las más baratas.
A principios de la década de 1980, la mayoría de los discos duros se vendían a usuarios finales de PC como un subsistema externo complementario. El subsistema no se vendió con el nombre del fabricante de la unidad, sino con el nombre del fabricante del subsistema, como Corvus Systems y Tallgrass Technologies , o bajo el nombre del fabricante del sistema de PC, como Apple ProFile . El IBM PC/XT de 1983 incluía un disco duro interno de 10 MB y, poco después, los discos duros internos proliferaron en las computadoras personales.
Los discos duros externos siguieron siendo populares durante mucho más tiempo en Apple Macintosh . Muchas computadoras Macintosh fabricadas entre 1986 y 1998 presentaban un puerto SCSI en la parte posterior, lo que simplificaba la expansión externa. Las computadoras Macintosh compactas más antiguas no tenían compartimentos para discos duros accesibles para el usuario (de hecho, Macintosh 128K , Macintosh 512K y Macintosh Plus no tenían ningún compartimento para discos duros), por lo que en esos modelos, los discos SCSI externos eran la única opción razonable. para ampliar cualquier almacenamiento interno.
Las mejoras en los discos duros se han visto impulsadas por el aumento de la densidad de área , que se enumera en la tabla anterior. Las aplicaciones se expandieron a lo largo de la década de 2000, desde las computadoras centrales de finales de la década de 1950 hasta la mayoría de las aplicaciones de almacenamiento masivo , incluidas computadoras y aplicaciones de consumo, como el almacenamiento de contenido de entretenimiento.
En las décadas de 2000 y 2010, NAND comenzó a reemplazar a los HDD en aplicaciones que requerían portabilidad o alto rendimiento. El rendimiento de NAND está mejorando más rápido que el de los HDD y las aplicaciones para HDD se están erosionando. En 2018, el disco duro más grande tenía una capacidad de 15 TB, mientras que el SSD de mayor capacidad tenía una capacidad de 100 TB. [38] En 2018 [update], se pronosticaba que los discos duros alcanzarían una capacidad de 100 TB alrededor de 2025, [39] pero a partir de 2019 [update], el ritmo esperado de mejora se redujo a 50 TB para 2026. [40] Factores de forma más pequeños, 1,8 pulgadas e inferiores, se suspendieron alrededor de 2010. El costo del almacenamiento de estado sólido (NAND), representado por la ley de Moore , está mejorando más rápido que los HDD. NAND tiene una mayor elasticidad precio de la demanda que los HDD, y esto impulsa el crecimiento del mercado. [41] A finales de la década de 2000 y 2010, el ciclo de vida del producto HDD entró en una fase de madurez, y la desaceleración de las ventas puede indicar el inicio de la fase de declive. [42]
Las inundaciones de Tailandia de 2011 dañaron las plantas de fabricación y afectaron negativamente los costos de los discos duros entre 2011 y 2013. [43]
En 2019, Western Digital cerró su última fábrica de HDD en Malasia debido a la disminución de la demanda, para centrarse en la producción de SSD. [44] Los tres fabricantes de discos duros restantes han tenido una demanda cada vez menor de sus discos duros desde 2014. [45]
Un HDD moderno registra datos magnetizando una fina película de material ferromagnético [m] en ambos lados del disco. Los cambios secuenciales en la dirección de la magnetización representan bits de datos binarios . Los datos se leen del disco detectando las transiciones en la magnetización. Los datos del usuario se codifican utilizando un esquema de codificación, como la codificación de longitud limitada , [n] que determina cómo se representan los datos mediante las transiciones magnéticas.
Un diseño típico de HDD consta de unHusillo que sostiene discos circulares planos, llamadosplatos, que contienen los datos grabados. Los platos están hechos de un material no magnético, generalmentealeación de aluminio,vidrioocerámica. Están recubiertos con una capa poco profunda de material magnético, normalmente de 10 a 20nmde profundidad, con una capa exterior de carbono para protección.[47][48][49]Como referencia, una hoja de papel de copia estándar tiene un grosor de 0,07 a 0,18 mm (70 000 a 180 000 nm)[50].
Los platos de los discos duros contemporáneos giran a velocidades que varían de4200 rpm en dispositivos portátiles de bajo consumo, hasta 15.000 rpm para servidores de alto rendimiento. [52] Los primeros discos duros giraban a 1200 rpm [5] y, durante muchos años, 3600 rpm fue la norma. [53] A partir de noviembre de 2019 [update], los platos de la mayoría de los discos duros de consumo giran a 5400 o 7200 rpm.
La información se escribe y se lee en un plato a medida que gira junto a dispositivos llamados cabezales de lectura y escritura que están colocados para operar muy cerca de la superficie magnética, con una altura de vuelo a menudo en el rango de decenas de nanómetros. El cabezal de lectura y escritura se utiliza para detectar y modificar la magnetización del material que pasa inmediatamente debajo de él.
En las unidades modernas, hay un cabezal para cada superficie del plato magnético en el eje, montado en un brazo común. Un brazo actuador (o brazo de acceso) mueve los cabezales en un arco (aproximadamente radialmente) a través de los platos mientras giran, permitiendo que cada cabezal acceda a casi toda la superficie del plato mientras gira. El brazo se mueve mediante un actuador de bobina móvil o, en algunos diseños más antiguos, un motor paso a paso . Las primeras unidades de disco duro escribían datos a una velocidad constante de bits por segundo, lo que daba como resultado que todas las pistas tuvieran la misma cantidad de datos por pista, pero las unidades modernas (desde la década de 1990) utilizan la grabación de bits de zona , lo que aumenta la velocidad de escritura de la zona interior a la exterior y, por lo tanto, almacenar más datos por pista en las zonas exteriores.
En los accionamientos modernos, el pequeño tamaño de las regiones magnéticas crea el peligro de que su estado magnético se pierda debido a efectos térmicos : inestabilidad magnética inducida térmicamente que se conoce comúnmente como " límite superparamagnético ". Para contrarrestar esto, los platos están recubiertos con dos capas magnéticas paralelas, separadas por una capa de tres átomos del elemento no magnético rutenio , y las dos capas están magnetizadas en orientación opuesta, reforzándose así entre sí. [54] Otra tecnología utilizada para superar los efectos térmicos y permitir mayores densidades de grabación es la grabación perpendicular (PMR), enviada por primera vez en 2005, [55] y a partir de 2007 [update], utilizada en ciertos HDD. [56] [57] [58] La grabación perpendicular puede ir acompañada de cambios en la fabricación de los cabezales de lectura/escritura para aumentar la fuerza del campo magnético creado por los cabezales. [59]
En 2004, se introdujo un medio de grabación de mayor densidad, que constaba de capas magnéticas duras y blandas acopladas. La llamada tecnología de almacenamiento magnético de medios de resorte de intercambio , también conocida como medios compuestos acoplados de intercambio , permite una buena capacidad de escritura debido a la naturaleza de asistencia de escritura de la capa suave. Sin embargo, la estabilidad térmica está determinada únicamente por la capa más dura y no influenciada por la capa blanda. [60] [61]
El control de flujo MAMR (FC-MAMR) permite que un disco duro tenga una mayor capacidad de grabación sin la necesidad de nuevos materiales para el plato del disco duro. Los discos duros MAMR tienen un generador de torsión de giro (STO) que genera microondas en los cabezales de lectura/escritura, lo que permite grabar bits físicamente más pequeños en los platos, lo que aumenta la densidad del área. Normalmente, los cabezales de grabación de discos duros tienen un polo llamado polo principal que se utiliza para escribir en los platos, y adyacente a este polo hay un espacio de aire y un escudo. La bobina de escritura del cabezal rodea el poste. El dispositivo STO se coloca en el espacio de aire entre el polo y el escudo para aumentar la fuerza del campo magnético creado por el polo; FC-MAMR técnicamente no utiliza microondas, pero utiliza tecnología empleada en MAMR. El STO tiene una capa de generación de campo (FGL) y una capa de inyección de espín (SIL), y el FGL produce un campo magnético utilizando electrones polarizados por espín que se originan en el SIL, que es una forma de energía de par de espín. [62]
Un disco duro típico tiene dos motores eléctricos: un motor de husillo que hace girar los discos y un actuador (motor) que posiciona el conjunto del cabezal de lectura/escritura a través de los discos giratorios. El motor de disco tiene un rotor externo unido a los discos; los devanados del estator están fijos en su lugar. Frente al actuador, al final del brazo de soporte del cabezal, se encuentra el cabezal de lectura y escritura; Unos delgados cables de circuito impreso conectan los cabezales de lectura y escritura a la electrónica del amplificador montada en el pivote del actuador. El brazo reposacabezas es muy ligero pero también rígido; En los vehículos modernos, la aceleración en la cabeza alcanza los 550 g .
ElEl actuador es unimán permanenteyde bobina móvilque hace girar los cabezales a la posición deseada. Una placa de metal sostiene unimánde alto flujode neodimio-hierro-boro. Debajo de esta placa está la bobina móvil, a menudo denominada bobina móvil por analogía con la bobina delos altavoces, que está unida al cubo del actuador, y debajo hay un segundo imán NIB, montado en la placa inferior del motor (algunos Las unidades tienen un solo imán).
La bobina móvil en sí tiene forma de punta de flecha y está hecha de alambre magnético de cobre doblemente recubierto . La capa interior es aislante y la exterior es termoplástica, que une la bobina después de enrollarla en un molde, haciéndola autoportante. Las porciones de la bobina a lo largo de los dos lados de la punta de flecha (que apuntan al centro del cojinete del actuador) interactúan con el campo magnético del imán fijo. La corriente que fluye radialmente hacia afuera a lo largo de un lado de la punta de flecha y radialmente hacia adentro por el otro produce la fuerza tangencial . Si el campo magnético fuera uniforme, cada lado generaría fuerzas opuestas que se anularían entre sí. Por lo tanto, la superficie del imán es mitad polo norte y mitad polo sur, con la línea divisoria radial en el medio, lo que hace que los dos lados de la bobina vean campos magnéticos opuestos y produzcan fuerzas que se suman en lugar de cancelarse. Las corrientes a lo largo de la parte superior e inferior de la bobina producen fuerzas radiales que no hacen girar el cabezal.
La electrónica del HDD controla el movimiento del actuador y la rotación del disco y transfiere datos hacia/desde un controlador de disco . La retroalimentación de la electrónica del variador se logra mediante segmentos especiales del disco dedicados a la retroalimentación servo . Se trata de círculos concéntricos completos (en el caso de la tecnología de servo dedicada) o de segmentos intercalados con datos reales (en el caso de la tecnología de servo integrada, también conocida como tecnología de servo sectorial). La servorretroalimentación optimiza la relación señal-ruido de los sensores GMR ajustando el motor de la bobina móvil para girar el brazo. Un servosistema más moderno también emplea mili y/o microactuadores para posicionar con mayor precisión los cabezales de lectura/escritura. [63] El giro de los discos utiliza motores de husillo con fluido. El firmware de disco moderno es capaz de programar lecturas y escrituras de manera eficiente en las superficies del plato y reasignar sectores de los medios que han fallado.
Las unidades modernas hacen un uso extensivo de códigos de corrección de errores (ECC), en particular la corrección de errores Reed-Solomon . Estas técnicas almacenan bits adicionales, determinados por fórmulas matemáticas, para cada bloque de datos; Los bits adicionales permiten corregir muchos errores de forma invisible. Los bits adicionales ocupan espacio en el disco duro, pero permiten emplear densidades de grabación más altas sin causar errores incorregibles, lo que da como resultado una capacidad de almacenamiento mucho mayor. [64] Por ejemplo, un disco duro típico de 1 TB con sectores de 512 bytes proporciona una capacidad adicional de aproximadamente 93 GB para los datos ECC . [65]
En las unidades más nuevas, a partir de 2009 [update], [66] los códigos de verificación de paridad de baja densidad (LDPC) estaban reemplazando a Reed-Solomon; Los códigos LDPC permiten un rendimiento cercano al límite de Shannon y, por tanto, proporcionan la mayor densidad de almacenamiento disponible. [66] [67]
Las unidades de disco duro típicas intentan "reasignar" los datos de un sector físico que falla a un sector físico de repuesto proporcionado por el "grupo de sectores de repuesto" de la unidad (también llamado "grupo de reserva"), [68] mientras dependen del ECC para recupere los datos almacenados mientras la cantidad de errores en un sector defectuoso aún sea lo suficientemente baja. La función SMART ( Tecnología de autocontrol, análisis e informes ) cuenta el número total de errores en todo el disco duro reparado por ECC (aunque no en todos los discos duros, ya que los atributos SMART relacionados "Hardware ECC recuperado" y "Corrección suave de ECC" son no se admite de manera consistente) y el número total de reasignaciones de sectores realizadas, ya que la aparición de muchos de estos errores puede predecir una falla del disco duro .
El "Formato No-ID", desarrollado por IBM a mediados de la década de 1990, contiene información sobre qué sectores están defectuosos y dónde se han ubicado los sectores reasignados. [69]
Sólo una pequeña fracción de los errores detectados terminan siendo no corregibles. Ejemplos de tasas de error de lectura de bits no corregidas especificadas incluyen:
Dentro del modelo de un determinado fabricante, la tasa de errores de bits no corregidos suele ser la misma independientemente de la capacidad de la unidad. [70] [71] [72] [73]
El peor tipo de errores son las corrupciones silenciosas de datos , que son errores no detectados por el firmware del disco o el sistema operativo host; Algunos de estos errores pueden deberse a un mal funcionamiento de la unidad de disco duro, mientras que otros se originan en otra parte de la conexión entre la unidad y el host. [74]
La tasa de avance de la densidad territorial fue similar a la ley de Moore (duplicándose cada dos años) hasta 2010: 60% anual durante 1988-1996, 100% durante 1996-2003 y 30% durante 2003-2010. [76] Hablando en 1997, Gordon Moore calificó el aumento de "asombroso", [77] aunque observó más tarde que el crecimiento no puede continuar para siempre. [78] La mejora de los precios se desaceleró al −12% anual durante 2010-2017, [79] a medida que se desaceleró el crecimiento de la densidad territorial. La tasa de avance de la densidad de área se desaceleró al 10% anual durante 2010-2016, [80] y hubo dificultades para migrar del registro perpendicular a tecnologías más nuevas. [81]
A medida que disminuye el tamaño de la celda de bits, se pueden colocar más datos en un solo plato de unidad. En 2013, un disco duro de escritorio de producción de 3 TB (con cuatro platos) habría tenido una densidad de área de aproximadamente 500 Gbit/in2, lo que habría equivalente a una celda de bits compuesta por aproximadamente 18 granos magnéticos (11 por 1,6 granos). [82] Desde mediados de la década de 2000, el progreso de la densidad de área ha sido desafiado por un trilema superparamagnético que involucra el tamaño del grano, la fuerza magnética del grano y la capacidad de la cabeza para escribir. [83] Para mantener una relación señal-ruido aceptable, se requieren granos más pequeños; Los granos más pequeños pueden retroceder automáticamente ( inestabilidad electrotérmica ) a menos que se aumente su fuerza magnética, pero los materiales de cabezales de escritura conocidos no pueden generar un campo magnético lo suficientemente fuerte como para escribir el medio en el espacio cada vez más pequeño que ocupan los granos.
Se están desarrollando tecnologías de almacenamiento magnético para abordar este trilema y competir con las unidades de estado sólido (SSD) basadas en memoria flash . En 2013, Seagate introdujo la grabación magnética con tejas (SMR), [84] concebida como una especie de tecnología "provisional" entre PMR y la grabación magnética asistida por calor (HAMR), sucesora prevista de Seagate. SMR utiliza pistas superpuestas para aumentar la densidad de datos, a costa de la complejidad del diseño y velocidades de acceso a datos más bajas (en particular velocidades de escritura y velocidades de acceso aleatorio de 4k). [85] [86]
Por el contrario, HGST (ahora parte de Western Digital ) se centró en desarrollar formas de sellar unidades llenas de helio en lugar del habitual aire filtrado. Dado que se reducen la turbulencia y la fricción , se pueden lograr mayores densidades de área debido al uso de un ancho de vía más pequeño, y la energía disipada debido a la fricción también es menor, lo que resulta en un menor consumo de energía. Además, se pueden colocar más platos en el mismo espacio del recinto, aunque es muy difícil evitar que se escape el gas helio. [87] Por lo tanto, los propulsores de helio están completamente sellados y no tienen un puerto de ventilación, a diferencia de sus homólogos llenos de aire.
Se están investigando otras tecnologías de grabación o se han implementado comercialmente para aumentar la densidad del área, incluida la grabación magnética asistida por calor (HAMR) de Seagate. HAMR requiere una arquitectura diferente con medios rediseñados y cabezales de lectura/escritura, nuevos láseres y nuevos transductores ópticos de campo cercano. [88] Se espera que HAMR se envíe comercialmente a finales de 2020 o 2021. [89] [90] Los problemas técnicos retrasaron la introducción de HAMR una década, respecto a proyecciones anteriores de 2009, [91] 2015, [92] 2016, [93 ] y la primera mitad de 2019. Algunas unidades han adoptado brazos actuadores duales independientes para aumentar las velocidades de lectura/escritura y competir con las SSD. [94] El sucesor planeado de HAMR, la grabación con patrones de bits (BPR), [95] ha sido eliminado de las hojas de ruta de Western Digital y Seagate. [96] La grabación magnética asistida por microondas (MAMR) de Western Digital, [97] [98] también conocida como grabación magnética asistida por energía (EAMR), se probó en 2020, con la primera unidad EAMR, la Ultrastar HC550, enviada en finales de 2020. [99] [100] [101] Grabación magnética bidimensional (TDMR) [82] [102] y cabezas de magnetorresistencia gigante de "corriente perpendicular al plano" (CPP/GMR) han aparecido en artículos de investigación. [103] [104] [105] Se han propuesto un concepto de accionamiento de vacío accionado por 3D (3DHD) [106] y grabación magnética 3D. [107]
Dependiendo de los supuestos sobre la viabilidad y el calendario de estas tecnologías, Seagate pronostica que la densidad del área crecerá un 20% anual durante el período 2020-2034. [40]
Los discos duros de mayor capacidad que se comercializarán en 2024 son 32 TB. [108] La capacidad de una unidad de disco duro, según lo informa un sistema operativo al usuario final, es menor que la cantidad indicada por el fabricante por varias razones, por ejemplo, el sistema operativo utiliza algo de espacio, el uso de algo de espacio para redundancia de datos , uso de espacio para estructuras de sistemas de archivos. La confusión de prefijos decimales y prefijos binarios también puede provocar errores.
Las unidades de disco duro modernas aparecen ante su controlador host como un conjunto contiguo de bloques lógicos, y la capacidad bruta de la unidad se calcula multiplicando el número de bloques por el tamaño del bloque. Esta información está disponible en las especificaciones del producto del fabricante y en la propia unidad mediante el uso de funciones del sistema operativo que invocan comandos de bajo nivel de la unidad. [109] [110] Las unidades IBM más antiguas y compatibles, por ejemplo IBM 3390 que utilizan el formato de registro CKD , tienen registros de longitud variable; dichos cálculos de capacidad de unidad deben tener en cuenta las características de los registros. Algunos DASD más nuevos simulan la ERC y se aplican las mismas fórmulas de capacidad.
La capacidad bruta de los HDD más antiguos orientados a sectores se calcula como el producto de la cantidad de cilindros por zona de grabación, la cantidad de bytes por sector (más comúnmente 512) y el recuento de zonas de la unidad. [ cita necesaria ] Algunas unidades SATA modernas también informan capacidades del sector de culata (CHS), pero estos no son parámetros físicos porque los valores informados están limitados por las interfaces históricas del sistema operativo. El esquema C/H/S ha sido reemplazado por el direccionamiento de bloques lógicos (LBA), un esquema de direccionamiento lineal simple que ubica bloques mediante un índice entero, que comienza en LBA 0 para el primer bloque y aumenta a partir de entonces. [111] Cuando se utiliza el método C/H/S para describir unidades grandes modernas, el número de cabezales suele establecerse en 64, aunque una unidad de disco duro moderna típica tiene entre uno y cuatro platos. En los HDD modernos, la capacidad sobrante para la gestión de defectos no está incluida en la capacidad publicada; sin embargo, en muchos de los primeros discos duros, una cierta cantidad de sectores estaban reservados como repuestos, lo que reducía la capacidad disponible para el sistema operativo. Además, muchos discos duros almacenan su firmware en una zona de servicio reservada, a la que normalmente el usuario no puede acceder y no se incluye en el cálculo de la capacidad.
Para los subsistemas RAID , los requisitos de integridad de datos y tolerancia a fallos también reducen la capacidad realizada. Por ejemplo, una matriz RAID 1 tiene aproximadamente la mitad de la capacidad total como resultado de la duplicación de datos, mientras que una matriz RAID 5 con n unidades pierde 1/n de capacidad (lo que equivale a la capacidad de una sola unidad) debido al almacenamiento de información de paridad. . Los subsistemas RAID son unidades múltiples que parecen ser una o más unidades para el usuario, pero brindan tolerancia a fallas. La mayoría de los proveedores de RAID utilizan sumas de verificación para mejorar la integridad de los datos a nivel de bloque. Algunos proveedores diseñan sistemas que utilizan discos duros con sectores de 520 bytes para contener 512 bytes de datos de usuario y ocho bytes de suma de verificación, o utilizan sectores separados de 512 bytes para los datos de suma de verificación. [112]
Algunos sistemas pueden usar particiones ocultas para la recuperación del sistema, lo que reduce la capacidad disponible para el usuario final sin conocimiento de utilidades especiales de partición de disco como diskpart en Windows . [113]
Los datos se almacenan en un disco duro en una serie de bloques lógicos. Cada bloque está delimitado por marcadores que identifican su inicio y final, información de detección y corrección de errores y espacio entre bloques para permitir variaciones menores de tiempo. Estos bloques a menudo contenían 512 bytes de datos utilizables, pero se han utilizado otros tamaños. A medida que aumentó la densidad de la unidad, una iniciativa conocida como Formato Avanzado amplió el tamaño del bloque a 4096 bytes de datos utilizables, lo que resultó en una reducción significativa en la cantidad de espacio en disco utilizado para los encabezados de los bloques, los datos de verificación de errores y el espaciado.
El proceso de inicialización de estos bloques lógicos en los platos del disco físico se denomina formateo de bajo nivel , que generalmente se realiza en fábrica y normalmente no se modifica en el campo. [114] El formateo de alto nivel escribe estructuras de datos utilizadas por el sistema operativo para organizar archivos de datos en el disco. Esto incluye escribir estructuras de particiones y sistemas de archivos en bloques lógicos seleccionados. Por ejemplo, parte del espacio en disco se utilizará para contener un directorio de nombres de archivos de disco y una lista de bloques lógicos asociados con un archivo en particular.
Ejemplos de esquema de mapeo de particiones incluyen el registro de arranque maestro (MBR) y la tabla de particiones GUID (GPT). Ejemplos de estructuras de datos almacenadas en disco para recuperar archivos incluyen la Tabla de asignación de archivos (FAT) en el sistema de archivos DOS y los inodos en muchos sistemas de archivos UNIX , así como otras estructuras de datos del sistema operativo (también conocidas como metadatos ). Como consecuencia, no todo el espacio en un disco duro está disponible para los archivos del usuario, pero esta sobrecarga del sistema suele ser pequeña en comparación con los datos del usuario.
En los primeros días de la informática, la capacidad total de los discos duros se especificaba con siete a nueve dígitos decimales, frecuentemente truncados con el modismo millones . [117] [33] En la década de 1970, la capacidad total de los discos duros la proporcionaban los fabricantes utilizando prefijos decimales del SI , como megabytes (1 MB = 1.000.000 bytes), gigabytes (1 GB = 1.000.000.000 bytes) y terabytes (1 TB = 1.000.000.000.000 bytes). ). [115] [118] [119] [120] Sin embargo, las capacidades de memoria generalmente se citan usando una interpretación binaria de los prefijos, es decir, usando potencias de 1024 en lugar de 1000.
El software informa la capacidad de la unidad de disco duro o de la memoria en diferentes formas utilizando prefijos decimales o binarios. La familia de sistemas operativos Microsoft Windows utiliza la convención binaria al informar la capacidad de almacenamiento, por lo que estos sistemas operativos informan que un HDD ofrecido por su fabricante como una unidad de 1 TB es un HDD de 931 GB. Mac OS X 10.6 (" Snow Leopard ") utiliza una convención decimal al informar la capacidad del disco duro. [121] El comportamiento predeterminado de la utilidad de línea de comandos df en Linux es informar la capacidad del HDD como una cantidad de unidades de 1024 bytes. [122]
La diferencia entre la interpretación del prefijo decimal y binario causó cierta confusión entre los consumidores y dio lugar a demandas colectivas contra los fabricantes de HDD . Los demandantes argumentaron que el uso de prefijos decimales efectivamente engañaba a los consumidores, mientras que los demandados negaron cualquier irregularidad o responsabilidad, afirmando que su marketing y publicidad cumplían en todos los aspectos con la ley y que ningún miembro del grupo sufrió daños o lesiones. [123] [124] [125] En 2020, un tribunal de California dictaminó que el uso de prefijos decimales con un significado decimal no era engañoso. [126]
La primera unidad de disco duro de IBM, la IBM 350 , utilizaba una pila de cincuenta platos de 24 pulgadas, almacenaba 3,75 MB de datos (aproximadamente el tamaño de una imagen digital moderna) y era de un tamaño comparable a dos refrigeradores grandes. En 1962, IBM presentó su disco modelo 1311 , que utilizaba seis platos de 14 pulgadas (tamaño nominal) en un paquete extraíble y era aproximadamente del tamaño de una lavadora. Este se convirtió en un tamaño de plato estándar durante muchos años, utilizado también por otros fabricantes. [127] El IBM 2314 utilizó platos del mismo tamaño en un paquete de once de alto e introdujo el diseño de "unidad en un cajón", a veces llamado "horno de pizza", aunque el "cajón" no era la unidad completa. En la década de 1970, los discos duros se ofrecían en gabinetes independientes de diferentes dimensiones que contenían de uno a cuatro discos duros.
A partir de finales de la década de 1960, se ofrecieron unidades que encajaban completamente en un chasis que se montaba en un bastidor de 19 pulgadas . Los RK05 y RL01 de Digital fueron los primeros ejemplos que utilizaron platos individuales de 14 pulgadas en paquetes extraíbles, y toda la unidad cabía en un espacio de rack de 10,5 pulgadas de alto (seis unidades de rack). A mediados y finales de la década de 1980, el Fujitsu Eagle de tamaño similar , que usaba (casualmente) platos de 10,5 pulgadas, era un producto popular.
Con el aumento de las ventas de microcomputadoras que tenían unidades de disquete (FDD) incorporadas , se volvieron deseables los HDD que se ajustaran a los soportes FDD. A partir del Shugart Associates SA1000 , los factores de forma de HDD siguieron inicialmente a los de las unidades de disquete de 8, 5¼ y 3½ pulgadas. Aunque se hace referencia a estos tamaños nominales, los tamaños reales de esas tres unidades son respectivamente 9,5", 5,75" y 4" de ancho. Debido a que no había unidades de disquete más pequeñas, los factores de forma de HDD más pequeños, como unidades de 2½ pulgadas (en realidad, 2,75") de ancho) desarrollados a partir de ofertas de productos o estándares de la industria.
A partir de 2019 [update], los discos duros de 2½ pulgadas y 3½ pulgadas son los tamaños más populares. En 2009, todos los fabricantes habían interrumpido el desarrollo de nuevos productos para los factores de forma de 1,3 pulgadas, 1 pulgada y 0,85 pulgadas debido a la caída de los precios de la memoria flash , [128] [129] que no tiene partes móviles. Mientras que los tamaños nominales están en pulgadas, las dimensiones reales se especifican en milímetros.
Los factores que limitan el tiempo para acceder a los datos en un HDD están relacionados principalmente con la naturaleza mecánica de los discos giratorios y los cabezales móviles, que incluyen:
También puede producirse un retraso si los discos de la unidad se detienen para ahorrar energía.
La desfragmentación es un procedimiento utilizado para minimizar el retraso en la recuperación de datos moviendo elementos relacionados a áreas físicamente próximas del disco. [130] Algunos sistemas operativos de computadora realizan la desfragmentación automáticamente. Aunque la desfragmentación automática tiene como objetivo reducir los retrasos en el acceso, el rendimiento se reducirá temporalmente mientras el procedimiento esté en curso. [131]
El tiempo para acceder a los datos se puede mejorar aumentando la velocidad de rotación (reduciendo así la latencia) o reduciendo el tiempo dedicado a la búsqueda. El aumento de la densidad de área aumenta el rendimiento al aumentar la velocidad de datos y la cantidad de datos bajo un conjunto de cabezales, lo que reduce potencialmente la actividad de búsqueda para una cantidad determinada de datos. El tiempo para acceder a los datos no ha ido a la par de los aumentos del rendimiento, que a su vez no han ido a la par del crecimiento de la densidad de bits y la capacidad de almacenamiento.
A partir de 2010 [update], un disco duro de escritorio típico de 7200 rpm tiene una velocidad de transferencia de datos "disco a búfer " sostenida de hasta 1030 Mbit/s . [132] Esta tarifa depende de la ubicación de la pista; la tasa es mayor para los datos en las pistas exteriores (donde hay más sectores de datos por rotación) y menor hacia las pistas interiores (donde hay menos sectores de datos por rotación); y generalmente es algo mayor para las unidades de 10.000 rpm. Un estándar actual y ampliamente utilizado para la interfaz "búfer a computadora" es SATA de 3,0 Gbit/s , que puede enviar alrededor de 300 megabytes/s (codificación de 10 bits) desde el búfer a la computadora y, por lo tanto, todavía está cómodamente por delante. de hoy [ a partir de? ] tasas de transferencia de disco a búfer. La velocidad de transferencia de datos (lectura/escritura) se puede medir escribiendo un archivo grande en el disco utilizando herramientas especiales de generación de archivos y luego volviendo a leer el archivo. La velocidad de transferencia puede verse influenciada por la fragmentación del sistema de archivos y el diseño de los archivos. [130]
La velocidad de transferencia de datos del HDD depende de la velocidad de rotación de los platos y de la densidad de grabación de datos. Debido a que el calor y la vibración limitan la velocidad de rotación, el avance de la densidad se convierte en el método principal para mejorar las tasas de transferencia secuencial. Las velocidades más altas requieren un motor de husillo más potente, lo que genera más calor. Mientras que la densidad de área avanza aumentando tanto el número de pistas en el disco como el número de sectores por pista, [133] sólo este último aumenta la velocidad de transferencia de datos para unas rpm determinadas. Dado que el rendimiento de la tasa de transferencia de datos sigue solo uno de los dos componentes de la densidad de área, su rendimiento mejora a una tasa menor. [134]
Otras consideraciones de rendimiento incluyen el precio ajustado a la calidad , el consumo de energía, el ruido audible y la resistencia a golpes tanto en funcionamiento como en reposo.
Los discos duros actuales se conectan a una computadora a través de uno de varios tipos de bus , incluidos ATA paralelo , ATA serie , SCSI , SCSI conectado en serie (SAS) y Fibre Channel . Algunas unidades, especialmente las unidades portátiles externas, utilizan IEEE 1394 o USB . Todas estas interfaces son digitales; La electrónica del variador procesa las señales analógicas de los cabezales de lectura/escritura. Las unidades actuales presentan una interfaz coherente con el resto de la computadora, independientemente del esquema de codificación de datos utilizado internamente y del número físico de discos y cabezales dentro de la unidad.
Normalmente, un DSP en la electrónica dentro del variador toma los voltajes analógicos sin procesar del cabezal de lectura y utiliza PRML y la corrección de errores de Reed-Solomon [135] para decodificar los datos y luego los envía a la interfaz estándar. Ese DSP también vigila la tasa de errores detectada mediante la detección y corrección de errores , y realiza reasignación de sectores defectuosos , recopilación de datos para tecnología de autocontrol, análisis y generación de informes , y otras tareas internas.
Las interfaces modernas conectan el variador a la interfaz del host con un único cable de datos/control. Cada unidad también tiene un cable de alimentación adicional, generalmente directo a la unidad de fuente de alimentación. Las interfaces más antiguas tenían cables separados para señales de datos y para señales de control de accionamiento.
Debido al espacio extremadamente estrecho entre los cabezales y la superficie del disco, los discos duros son vulnerables a sufrir daños por un choque del cabezal : una falla del disco en la que el cabezal raspa la superficie del plato, lo que a menudo desgasta la delgada película magnética y provoca la pérdida de datos. pérdida. Los choques de cabezales pueden ser causados por fallas electrónicas, cortes de energía repentinos, golpes físicos, contaminación de la carcasa interna de la unidad, desgaste, corrosión o platos y cabezales mal fabricados.
El sistema de eje del disco duro depende de la densidad del aire dentro de la carcasa del disco para sostener los cabezales a su altura de vuelo adecuada mientras el disco gira. Los discos duros requieren un cierto rango de densidades de aire para funcionar correctamente. La conexión con el ambiente externo y la densidad se produce a través de un pequeño orificio en la carcasa (de aproximadamente 0,5 mm de ancho), generalmente con un filtro en el interior (el filtro de ventilación ). [136] Si la densidad del aire es demasiado baja, entonces no hay suficiente sustentación para el cabezal volador, por lo que el cabezal se acerca demasiado al disco y existe el riesgo de que el cabezal se bloquee y se pierdan datos. Se necesitan discos presurizados y sellados especialmente fabricados para un funcionamiento fiable a gran altitud, por encima de unos 3.000 m (9.800 pies). [137] Los discos modernos incluyen sensores de temperatura y ajustan su funcionamiento al entorno operativo. Se pueden ver orificios de ventilación en todas las unidades de disco; por lo general, tienen una etiqueta al lado que advierte al usuario que no cubra los orificios. El aire dentro del motor operativo también se mueve constantemente, siendo arrastrado por la fricción con los platos giratorios. Este aire pasa a través de un filtro de recirculación interna (o "recirculación") para eliminar cualquier contaminante sobrante de la fabricación, cualquier partícula o producto químico que de alguna manera pueda haber ingresado al gabinete y cualquier partícula o desgasificación generada internamente durante el funcionamiento normal. Una humedad muy alta presente durante períodos prolongados puede corroer los cabezales y los platos. Una excepción a esto son los HDD llenos de helio, sellados herméticamente, que eliminan en gran medida los problemas ambientales que pueden surgir debido a la humedad o los cambios de presión atmosférica. HGST introdujo estos discos duros en su primera implementación exitosa de gran volumen en 2013.
Para los cabezales magnetorresistivos gigantes (GMR) en particular, un choque menor del cabezal debido a la contaminación (que no elimina la superficie magnética del disco) aún provoca que el cabezal se sobrecaliente temporalmente, debido a la fricción con la superficie del disco, y puede hacer que los datos sean ilegibles. durante un breve período hasta que la temperatura del cabezal se estabilice (la llamada "asperidad térmica", un problema que puede solucionarse parcialmente mediante un filtrado electrónico adecuado de la señal de lectura).
Cuando falla la placa lógica de un disco duro, a menudo se puede restablecer el funcionamiento de la unidad y recuperar los datos reemplazando la placa de circuito por una de un disco duro idéntico. En el caso de fallas en los cabezales de lectura y escritura, se pueden reemplazar utilizando herramientas especializadas en un ambiente libre de polvo. Si los platos del disco no están dañados, se pueden transferir a una carcasa idéntica y los datos se pueden copiar o clonar en una nueva unidad. En caso de fallas en los platos del disco, es posible que sea necesario desmontarlos y obtener imágenes de los platos. [138] Para daños lógicos a los sistemas de archivos, se pueden utilizar una variedad de herramientas, incluido fsck en sistemas similares a UNIX y CHKDSK en Windows , para la recuperación de datos . La recuperación de un daño lógico puede requerir el tallado de archivos .
Una expectativa común es que las unidades de disco duro diseñadas y comercializadas para uso en servidores fallarán con menos frecuencia que las unidades de consumo que generalmente se usan en computadoras de escritorio. Sin embargo, dos estudios independientes realizados por la Universidad Carnegie Mellon [139] y Google [140] encontraron que el "grado" de una unidad no se relaciona con la tasa de falla de la misma.
Un resumen de la investigación de 2011 sobre patrones de falla de discos magnéticos y SSD realizada por Tom's Hardware resumió los hallazgos de la investigación de la siguiente manera: [141]
A partir de 2019 [update], Backblaze, un proveedor de almacenamiento, informó una tasa de falla anualizada del dos por ciento por año para una granja de almacenamiento con 110.000 discos duros disponibles en el mercado y la confiabilidad varía ampliamente entre modelos y fabricantes. [145] Backblaze informó posteriormente que la tasa de fallas para HDD y SSD de edad equivalente era similar. [7]
Para minimizar los costos y superar las fallas de los discos duros individuales, los proveedores de sistemas de almacenamiento confían en matrices de discos duros redundantes. Los discos duros que fallan se reemplazan de forma continua. [145] [91]
Estas unidades normalmente giran a 5400 rpm e incluyen:
El precio por byte del disco duro disminuyó a un ritmo del 40% anual durante 1988-1996, del 51% anual durante 1996-2003 y del 34% anual durante 2003-2010. [158] [76] La disminución de precios se desaceleró al 13% anual durante 2011-2014, a medida que el aumento de la densidad del área se desaceleró y las inundaciones de Tailandia de 2011 dañaron las instalaciones de fabricación [81] y se han mantenido en un 11% anual durante 2010-2017. [159]
La Junta de la Reserva Federal ha publicado un índice de precios ajustado por calidad para sistemas de almacenamiento empresarial a gran escala, incluidos tres o más discos duros empresariales y controladores, bastidores y cables asociados. Los precios de estos sistemas de almacenamiento a gran escala disminuyeron a un ritmo del 30% anual durante 2004-2009 y del 22% anual durante 2009-2014. [76]
Más de 200 empresas han fabricado discos duros a lo largo del tiempo, pero las consolidaciones han concentrado la producción en solo tres fabricantes en la actualidad: Western Digital , Seagate y Toshiba . La producción se concentra principalmente en la costa del Pacífico.
Los envíos de unidades HDD alcanzaron un máximo de 651 millones de unidades en 2010 y han ido disminuyendo desde entonces a 166 millones de unidades en 2022. [160] Seagate, con el 43% de las unidades, tenía la mayor participación de mercado. [161]
Las unidades de disco duro están siendo reemplazadas por unidades de estado sólido (SSD) en mercados donde la velocidad más alta (hasta 7 gigabytes por segundo para unidades NVMe M.2 (NGFF) [162] y 2,5 gigabytes por segundo para unidades de tarjetas de expansión PCIe ) [163 ] ), la robustez y la menor potencia de los SSD son más importantes que el precio, ya que el coste en bits de los SSD es de cuatro a nueve veces mayor que el de los HDD. [16] [15] A partir de 2016 , se informa que los discos duros tienen una tasa de fallas del 2 al 9 % por año, mientras que los SSD tienen menos fallas: del 1 al 3 % por año. [164] Sin embargo, los SSD tienen más errores de datos no corregibles que los HDD. [164][update]
Los SSD ofrecen mayores capacidades (hasta 100 TB) [38] que los HDD más grandes y/o mayores densidades de almacenamiento (los SSD de 100 TB y 30 TB están alojados en cajas de HDD de 2,5 pulgadas pero con la misma altura que un HDD de 3,5 pulgadas). [165] [166] [167] [168] [169] aunque su costo sigue siendo prohibitivo.
Una demostración de laboratorio de un chip NAND 3D de 1,33 Tb con 96 capas (NAND comúnmente utilizado en unidades de estado sólido (SSD)) tenía 5,5 Tbit/ in2 en 2019 [update], [170] mientras que la densidad de área máxima para HDD es de 1,5 Tbit /en 2 . La densidad de área de la memoria flash se duplica cada dos años, de forma similar a la ley de Moore (40% anual) y más rápido que el 10-20% anual de los HDD. A partir de 2018 [update], la capacidad máxima era de 16 terabytes para un HDD, [171] y 100 terabytes para un SSD. [172] Los HDD se utilizaron en el 70 % de las computadoras de escritorio y portátiles producidas en 2016, y los SSD se utilizaron en el 30 %. La proporción de uso de HDD está disminuyendo y podría caer por debajo del 50% en 2018-2019 según un pronóstico, porque los SSD están reemplazando a los HDD de menor capacidad (menos de un terabyte) en computadoras de escritorio, portátiles y reproductores de MP3. [173]
El mercado de chips de memoria flash basados en silicio (NAND), utilizados en SSD y otras aplicaciones, está creciendo más rápido que el de los HDD. Los ingresos mundiales de NAND crecieron un 16 % anual, de 22 mil millones de dólares a 57 mil millones de dólares, entre 2011 y 2017, mientras que la producción creció un 45 % anual, de 19 exabytes a 175 exabytes. [174]
Una vez que controlamos la antigüedad y los días de conducción, los dos tipos de unidades eran similares y la diferencia ciertamente no era suficiente por sí sola para justificar el costo adicional de comprar una SSD frente a una HDD.
La unidad de disco IBM 350 tenía 3,75 MB
Se proporcionan tres brazos de acceso mecánicamente independientes para cada unidad de archivo, y cada brazo puede dirigirse independientemente a cualquier pista del archivo.
Cada unidad de almacenamiento en disco tiene tres brazos de acceso mecánicamente independientes, todos los cuales se pueden buscar en al mismo tiempo.
La unidad de almacenamiento en disco puede tener dos brazos de acceso. Uno es estándar y el otro está disponible como característica especial.
El mercado total direccionable de unidades de disco crecerá desde 21.800 millones de dólares en 2019.
Gordon Moore: ... la capacidad de la gente del disco magnético para seguir aumentando la densidad es asombrosa: se ha movido al menos tan rápido como la complejidad del semiconductor.
No puede continuar para siempre. La naturaleza de los exponenciales es que si los expulsas, eventualmente ocurre un desastre.
Las inundaciones tailandesas de 2011 casi duplicaron el costo de la capacidad del disco por GB durante un tiempo. Rosenthal escribe: 'Las dificultades técnicas de migrar de PMR a HAMR significaron que ya en 2010 la tasa Kryder se había desacelerado significativamente y no se esperaba que volviera a su tendencia en el futuro cercano. Las inundaciones reforzaron esto”.
'PMR CAGR desacelerando desde el histórico 40+% hasta ~8-12%' y 'HAMR CAGR = 20-40% para 2015-2020'
La tecnología Shingled Magnetic es el primer paso para alcanzar un disco duro de 20 Terabytes en 2020
Una unidad de 'grabación magnética en tiras' (SMR) es una unidad giratoria que empaqueta sus pistas tan juntas que una pista no se puede sobrescribir sin destruir también las pistas vecinas. El resultado es que para sobrescribir datos es necesario reescribir todo el conjunto de pistas poco espaciadas; Se trata de una compensación costosa, pero se considera que el beneficio (una densidad de almacenamiento mucho mayor) vale la pena en algunas situaciones.
Desafortunadamente, la producción en masa de discos duros reales con HAMR ya se ha retrasado varias veces y ahora resulta que los primeros discos duros basados en HAMR saldrán en 2018. ... Los discos duros HAMR contarán con una nueva arquitectura, requerirán nuevos medios , cabezales de lectura/escritura completamente rediseñados con un láser, así como un transductor óptico de campo cercano (NFT) especial y una serie de otros componentes que no se utilizan ni se producen en masa en la actualidad.
El Dr. John Morris, director de tecnología de Seagate, dijo a los analistas que Seagate ha construido 55.000 unidades HAMR y pretende tener los discos listos para el muestreo de los clientes a finales de 2020.
…Seagate espera comenzar a vender unidades HAMR en 2016.
La hoja de ruta más reciente de Seagate impulsa los envíos de HAMR hasta 2020, por lo que ahora están disminuyendo más rápido que en tiempo real. Western Digital ha renunciado a HAMR y promete que la grabación magnética asistida por microondas (MAMR) estará a sólo un año de distancia. BPM ha abandonado las hojas de ruta de ambas empresas.
…tecnología de grabación magnética asistida por microondas (MAMR)…los envíos de muestras deben entregarse antes de fin de año.
los LBA en una unidad lógica comenzarán con cero y serán contiguos hasta el último bloque lógico de la unidad lógica.
Ejemplo de una unidad de disco duro externa preensamblada sin su carcasa que no se puede usar internamente en una computadora portátil o de escritorio debido a la interfaz integrada en su placa de circuito impreso
La mayoría de las unidades de disco utilizan sectores de 512 bytes. [...] Enterprise (Parallel SCSI/SAS/FC) admiten sectores "gruesos" de 520/528 bytes.