La densidad es una medida de la cantidad de bits de información que se pueden almacenar en un espacio físico determinado de un medio de almacenamiento informático . Existen tres tipos de densidad: longitud ( densidad lineal ) de pista , área de la superficie ( densidad de área ) o en un volumen determinado ( densidad volumétrica ).
En general, es más conveniente contar con una mayor densidad, ya que permite almacenar más datos en el mismo espacio físico. Por lo tanto, la densidad tiene una relación directa con la capacidad de almacenamiento de un medio determinado. La densidad también suele afectar el rendimiento dentro de un medio en particular, así como el precio.
Las unidades de estado sólido utilizan memoria flash para almacenar medios no volátiles . Son la última forma de almacenamiento producido en masa y rivalizan con los medios de disco magnético . Los datos de los medios de estado sólido se guardan en un grupo de memoria flash NAND. La propia memoria NAND está formada por lo que se denomina transistores de compuerta flotante . A diferencia de los diseños de transistores utilizados en DRAM , que deben actualizarse varias veces por segundo, la memoria flash NAND está diseñada para conservar su estado de carga incluso cuando no está encendida. Las unidades de mayor capacidad disponibles comercialmente son las unidades de la serie DC Nimbus Data Exadrive©, que vienen en capacidades que van desde los 16 TB hasta los 100 TB . Nimbus afirma que, para su tamaño, la SSD de 100 TB tiene una relación de ahorro de espacio de 6:1 en comparación con un HDD nearline [1]
Las unidades de disco duro almacenan datos en la polarización magnética de pequeños parches del revestimiento de la superficie de un disco. La densidad de área máxima se define por el tamaño de las partículas magnéticas en la superficie, así como el tamaño del "cabezal" utilizado para leer y escribir los datos. En 1956, el primer disco duro, el IBM 350 , tenía una densidad de área de 2000 bit / in2 . Desde entonces, el aumento de la densidad ha coincidido con la Ley de Moore , alcanzando 1 Tbit/ in2 en 2014. [2] En 2015, Seagate presentó un disco duro con una densidad de 1,34 Tbit/ in2 , [3] más de 600 millones de veces la del IBM 350. Se espera que la tecnología de grabación actual pueda escalar "factiblemente" a al menos 5 Tbit /in2 en un futuro próximo. [3] [4] Se están desarrollando nuevas tecnologías como la grabación magnética asistida por calor (HAMR) y la grabación magnética asistida por microondas (MAMR) y se espera que permitan que continúen los aumentos en la densidad del área magnética. [5]
Los discos ópticos almacenan datos en pequeñas cavidades en una superficie de plástico que luego se cubre con una fina capa de metal reflectante. Los discos compactos (CD) ofrecen una densidad de aproximadamente 0,90 Gbit/in2 , utilizando cavidades de 0,83 micrómetros de largo y 0,5 micrómetros de ancho, dispuestas en pistas espaciadas 1,6 micrómetros entre sí. Los discos DVD son esencialmente un CD de mayor densidad, que utiliza más superficie del disco, cavidades más pequeñas (0,64 micrómetros) y pistas más estrechas (0,74 micrómetros), lo que ofrece una densidad de aproximadamente 2,2 Gbit/in2 . Los discos HD DVD y Blu-ray de una sola capa ofrecen densidades de alrededor de 7,5 Gbit/in2 y 12,5 Gbit/in2 , respectivamente.
Cuando se introdujeron en 1982, los CD tenían densidades considerablemente más altas que las unidades de disco duro , pero desde entonces estas unidades han avanzado mucho más rápidamente y han eclipsado a los medios ópticos tanto en densidad de área como en capacidad por dispositivo.
La primera unidad de cinta magnética, la Univac Uniservo , grabó a una densidad de 128 bit/pulgada en una cinta magnética de media pulgada, lo que dio como resultado una densidad de área de 256 bit/pulgada 2 . [6] En 2015, IBM y Fujifilm lograron un nuevo récord de densidad de área de cinta magnética de 123 Gbit/pulgada 2 , [7] mientras que LTO-6 , la cinta de producción de mayor densidad que se envió en 2015, proporciona una densidad de área de 0,84 Gbit/pulgada 2 . [8]
Varias tecnologías están intentando superar las densidades de los medios existentes.
IBM se propuso comercializar su sistema de memoria Millipede a 1 Tbit/in2 en 2007, pero el desarrollo parece estar moribundo. Una tecnología más reciente de IBM, la memoria racetrack , utiliza una matriz de muchos cables nanoscópicos pequeños dispuestos en 3D, cada uno de los cuales contiene numerosos bits para mejorar la densidad. [9] Aunque no se han mencionado cifras exactas, los artículos de noticias de IBM hablan de aumentos de "100 veces".
Las tecnologías de almacenamiento holográfico también están intentando superar a los sistemas existentes, pero también han estado perdiendo la carrera y se estima que también ofrecen 1 Tbit/in2, siendo aproximadamente 250 GB / in2 el mejor demostrado hasta la fecha para sistemas de holografía no cuántica.
Otras tecnologías experimentales ofrecen densidades incluso mayores. Se ha demostrado que el almacenamiento de polímeros moleculares puede almacenar 10 Tbit/in2 . [ 10] El tipo de almacenamiento de memoria más denso que se ha logrado experimentalmente hasta la fecha es la holografía cuántica electrónica . En 2009, un equipo de investigación de Stanford logró una densidad de bits de 35 bit/electrón (aproximadamente 3 exabytes /in2 ) utilizando microscopios electrónicos y un medio de cobre. [11]
En 2012, el ADN se utilizó con éxito como medio de almacenamiento de datos experimental, pero requirió un sintetizador de ADN y microchips de ADN para la transcodificación. A partir de 2012 [actualizar], el ADN ostenta el récord de medio de almacenamiento de mayor densidad. [12] En marzo de 2017, científicos de la Universidad de Columbia y del Centro Genómico de Nueva York publicaron un método conocido como DNA Fountain que permite la recuperación perfecta de información a partir de una densidad de 215 petabytes por gramo de ADN, el 85% del límite teórico. [13] [14]
Con la notable excepción de la memoria flash NAND, aumentar la densidad de almacenamiento de un medio generalmente mejora la velocidad de transferencia a la que puede funcionar ese medio. Esto es más obvio cuando se consideran diversos medios basados en discos, donde los elementos de almacenamiento están distribuidos sobre la superficie del disco y deben rotarse físicamente debajo del "cabezal" para poder leerse o escribirse. Una mayor densidad significa que se mueven más datos debajo del cabezal por cada movimiento mecánico dado.
Por ejemplo, podemos calcular la velocidad de transferencia efectiva de un disquete determinando la velocidad con la que se mueven los bits debajo del cabezal. Un disquete estándar de 3½ pulgadas gira a 300 rpm y la pista más interna tiene una longitud de unos 66 mm (radio de 10,5 mm). A 300 rpm, la velocidad lineal del medio debajo del cabezal es de unos 66 mm × 300 rpm = 19800 mm/minuto o 330 mm/s. A lo largo de esa pista, los bits se almacenan a una densidad de 686 bit/mm, lo que significa que el cabezal ve 686 bit/mm × 330 mm/s = 226.380 bit/s (o 28,3 KB /s).
Ahora, consideremos una mejora del diseño que duplica la densidad de bits al reducir la longitud de la muestra y mantener el mismo espaciado entre pistas. Esto duplicaría la velocidad de transferencia porque los bits pasarían por debajo del cabezal el doble de rápido. Las primeras interfaces de disquete se diseñaron para velocidades de transferencia de 250 kbit/s, pero se superaron rápidamente con la introducción de los disquetes de "alta densidad" de 1,44 MB (1.440 KB) en la década de 1980. La gran mayoría de las PC incluían interfaces diseñadas para unidades de alta densidad que funcionaban a 500 kbit/s. Estas también se vieron completamente superadas por dispositivos más nuevos como el LS-120 , que se vieron obligados a utilizar interfaces de mayor velocidad como IDE .
Aunque el efecto sobre el rendimiento es más evidente en los medios rotatorios, se producen efectos similares incluso en los medios de estado sólido como la memoria Flash RAM o la memoria DRAM . En este caso, el rendimiento se define generalmente por el tiempo que tardan las señales eléctricas en viajar a través del bus de la computadora hasta los chips y, luego, a través de los chips hasta las "celdas" individuales que se utilizan para almacenar datos (cada celda contiene un bit).
Una propiedad eléctrica definitoria es la resistencia de los cables dentro de los chips. A medida que el tamaño de la celda disminuye, gracias a las mejoras en la fabricación de semiconductores que dieron lugar a la Ley de Moore , la resistencia se reduce y se necesita menos energía para hacer funcionar las celdas. Esto, a su vez, significa que se necesita menos corriente eléctrica para el funcionamiento y, por lo tanto, se necesita menos tiempo para enviar la cantidad necesaria de carga eléctrica al sistema. En la DRAM, en particular, la cantidad de carga que se necesita almacenar en el condensador de una celda también afecta directamente a este tiempo.
A medida que la fabricación ha mejorado, la memoria de estado sólido ha mejorado drásticamente en términos de rendimiento. Los chips DRAM modernos tenían velocidades operativas del orden de 10 ns o menos. Un efecto menos obvio es que a medida que mejora la densidad, la cantidad de DIMM necesarias para suministrar una cantidad particular de memoria disminuye, lo que a su vez significa menos DIMM en general en cualquier computadora en particular. Esto a menudo conduce también a un mejor rendimiento, ya que hay menos tráfico de bus. Sin embargo, este efecto generalmente no es lineal.
La densidad de almacenamiento también tiene un fuerte efecto en el precio de la memoria, aunque en este caso las razones no son tan obvias.
En el caso de los medios basados en discos, el costo principal son las partes móviles dentro de la unidad. Esto establece un límite inferior fijo, por lo que el precio de venta promedio de los dos principales fabricantes de discos duros ha sido de US$45 a US$75 desde 2007. [15] Dicho esto, el precio de las unidades de alta capacidad ha caído rápidamente, y esto es de hecho un efecto de la densidad. Las unidades de mayor capacidad utilizan más platos, esencialmente discos duros individuales dentro de la carcasa. A medida que aumenta la densidad, se puede reducir la cantidad de platos, lo que lleva a menores costos.
Los discos duros suelen medirse en términos de coste por bit. Por ejemplo, el primer disco duro comercial, el RAMAC de IBM en 1957, ofrecía 3,75 MB por 34.500 dólares, o 9.200 dólares por megabyte. En 1989, un disco duro de 40 MB costaba 1.200 dólares, o 30 dólares por MB. Y en 2018, los discos de 4 Tb se vendían por 75 dólares, o 1,9 centavos por GB, una mejora de 1,5 millones desde 1989 y 520 millones desde el RAMAC. Esto sin tener en cuenta la inflación, que multiplicó los precios por nueve entre 1956 y 2018.
El almacenamiento de estado sólido ha experimentado una caída similar en el costo por bit. En este caso, el costo está determinado por el rendimiento , la cantidad de chips viables producidos en una unidad de tiempo. Los chips se producen en lotes impresos en la superficie de una sola oblea de silicio grande, que se corta y las muestras que no funcionan se descartan. La fabricación ha mejorado los rendimientos con el tiempo al utilizar obleas más grandes y producir obleas con menos fallas. El límite inferior de este proceso es de aproximadamente $1 por chip completado debido al empaque y otros costos. [16]
La relación entre la densidad de información y el coste por bit se puede ilustrar de la siguiente manera: un chip de memoria que tiene la mitad del tamaño físico significa que se pueden producir el doble de unidades en la misma oblea, lo que reduce a la mitad el precio de cada una. A modo de comparación, la DRAM se introdujo comercialmente por primera vez en 1971, una pieza de 1 kbit que costaba unos 50 dólares en grandes lotes, o unos 5 céntimos por bit. En 1999, las piezas de 64 Mbit eran comunes y costaban unos 0,00002 céntimos por bit (20 microcéntimos/bit). [16]
Precios de venta promedio de unidades de disco duro en USD