La cinematografía digital es el proceso de captar (grabar) una película mediante sensores de imagen digitales en lugar de utilizar película . A medida que la tecnología digital ha mejorado en los últimos años, esta práctica se ha vuelto dominante. Desde la década de 2000, la mayoría de las películas en todo el mundo se han captado y distribuido digitalmente.
Muchos proveedores han lanzado productos al mercado, incluidos proveedores de cámaras de película tradicionales como Arri y Panavision , así como nuevos proveedores como Red , Blackmagic , Silicon Imaging , Vision Research y empresas que tradicionalmente se han centrado en equipos de video de consumo y transmisión, como Sony , GoPro y Panasonic .
En 2017 [actualizar], las cámaras digitales profesionales 4K tenían una resolución y una capacidad de rango dinámico aproximadamente iguales a las películas de 35 mm ; sin embargo, la captura digital ya no tiene un aspecto diferente al de las películas. Algunos cineastas aún prefieren utilizar formatos de imagen en película para lograr los resultados deseados. [1]
La base de las cámaras digitales son los sensores de imagen de semiconductor de óxido metálico (MOS) . [2] El primer sensor de imagen de semiconductor práctico fue el dispositivo de carga acoplada (CCD), [3] basado en la tecnología de condensadores MOS . [2] Tras la comercialización de los sensores CCD a finales de los años 1970 y principios de los años 1980, la industria del entretenimiento comenzó lentamente a realizar la transición a la imagen digital y el vídeo digital durante las dos décadas siguientes. [4] Al CCD le siguió el sensor de píxeles activos CMOS ( sensor CMOS ), [5] desarrollado en los años 1990. [6] [7]
A finales de los años 1980, Sony comenzó a comercializar el concepto de " cinematografía electrónica " utilizando sus cámaras de vídeo profesionales analógicas Sony HDVS . El esfuerzo tuvo muy poco éxito. Sin embargo, esto dio lugar a una de las primeras películas de vídeo de alta definición , Julia y Julia (1987). [8]
Rainbow (1996) fue la primera película del mundo en utilizar técnicas de posproducción digital extensivas. [9] Filmada íntegramente con las primerascámaras de cinematografía electrónica de estado sólido de Sony y con más de 35 minutos de procesamiento de imágenes digitales y efectos visuales, toda la posproducción, los efectos de sonido, la edición y la banda sonora se completaron digitalmente. La imagen de alta definición digital se transfirió a un negativo de 35 mm a través de una grabadora de haz de electrones para su estreno en cines.
El primer largometraje grabado y posproducido digitalmente fue Windhorse , filmado en el Tíbet y Nepal en 1996 con la Sony DVW-700WS Digital Betacam y la Sony DCR-VX1000 para consumidores profesionales . La edición offline ( Avid ) y el trabajo de color y posproducción online (Roland House/ da Vinci ) también fueron todos digitales. La película, transferida a negativo de 35 mm para su estreno en cines, ganó el premio a la Mejor Película Estadounidense en el Festival de Cine de Santa Bárbara en 1998.
En 1997, con la introducción de las grabadoras HDCAM y las cámaras de vídeo profesionales digitales de 1920 × 1080 píxeles basadas en tecnología CCD , la idea, ahora rebautizada como "cinematografía digital", comenzó a ganar fuerza en el mercado. [ cita requerida ] Filmada y estrenada en 1998, algunos creen que The Last Broadcast es el primer vídeo de larga duración filmado y editado íntegramente en equipos digitales de consumo. [10]
En mayo de 1999, George Lucas desafió la supremacía del medio cinematográfico por primera vez al incluir imágenes filmadas con cámaras digitales de alta definición en Star Wars: Episodio I - La amenaza fantasma . Las imágenes digitales se combinaron a la perfección con las filmadas en película y más tarde ese año anunció que filmaría sus secuelas completamente en video digital de alta definición. También en 1999, se instalaron proyectores digitales en cuatro salas para la proyección de La amenaza fantasma .
En mayo de 2000, Vidocq , dirigida por Pitof , comenzó a filmarse íntegramente con una cámara Sony HDW-F900 , y el vídeo se estrenó en septiembre del año siguiente. Según el Libro Guinness de los Récords, Vidocq es el primer largometraje filmado en alta resolución digital. [11]
En junio de 2000, se inició el rodaje de Star Wars: Episodio II - El ataque de los clones , filmado íntegramente con una cámara Sony HDW-F900, como Lucas había declarado anteriormente. La película se estrenó en mayo de 2002. En mayo de 2001, Once Upon a Time in Mexico también se filmó en vídeo digital de alta definición de 24 fotogramas por segundo , parcialmente desarrollado por George Lucas utilizando una cámara Sony HDW-F900, [12] tras la introducción de Robert Rodríguez a la cámara en las instalaciones de Lucas en Skywalker Ranch mientras editaba el sonido para Spy Kids . Una película menos conocida, Russian Ark (2002), también se filmó con la misma cámara y fue la primera película digital sin cinta, grabada en HDD en lugar de cinta. [13] [14]
En 2009, Slumdog Millionaire se convirtió en la primera película filmada principalmente en formato digital en recibir el Premio de la Academia a la Mejor Fotografía . [15] La película más taquillera de la historia del cine, Avatar (2009), no solo se filmó también con cámaras digitales, sino que también obtuvo los principales ingresos en taquilla ya no por película, sino por proyección digital .
Las películas más importantes [n 1] filmadas en video digital superaron a las filmadas en película en 2013. Desde 2016, más del 90% de las películas más importantes se filmaron en video digital. [16] A partir de 2017 [actualizar], el 92% de las películas se filmaron en formato digital. [17] Solo 24 películas importantes estrenadas en 2018 se filmaron en 35 mm. [18] Desde la década de 2000, la mayoría de las películas en todo el mundo se han capturado y distribuido digitalmente. [19] [20] [21]
En la actualidad, las cámaras de empresas como Sony , Panasonic , JVC y Canon ofrecen una variedad de opciones para grabar videos de alta definición. En el extremo superior del mercado, han surgido cámaras dirigidas específicamente al mercado del cine digital. Estas cámaras de Sony , Vision Research , Arri , Blackmagic Design , Panavision , Grass Valley y Red ofrecen una resolución y un rango dinámico que superan los de las cámaras de video tradicionales, que están diseñadas para las necesidades limitadas de la televisión abierta .
La cinematografía digital captura imágenes en movimiento digitalmente en un proceso análogo a la fotografía digital . Si bien existe una clara distinción técnica que separa las imágenes capturadas en la cinematografía digital del video , el término "cinematografía digital" generalmente se aplica solo en casos en los que la adquisición digital se sustituye por la adquisición de película, como cuando se filma un largometraje . El término rara vez se aplica cuando la adquisición digital se sustituye por la adquisición de video, como en los programas de televisión transmitidos en vivo .
Entre las cámaras profesionales se encuentran la serie Sony CineAlta (F), la Blackmagic Cinema Camera , la Red One, las Arriflex D-20 , D-21 y Alexa , la Panavision Genesis , la Silicon Imaging SI-2K , la Thomson Viper , la Vision Research Phantom , la cámara IMAX 3D basada en dos núcleos Vision Research Phantom , la Weisscam HS-1 y HS-2, la GS Vitec noX y el Fusion Camera System. Los cineastas independientes de micropresupuesto también han incorporado cámaras de bajo coste para consumidores y prosumidores a la producción cinematográfica digital.
Los teléfonos inteligentes emblemáticos como el iPhone de Apple se han utilizado para filmar películas como Unsane (filmada con el iPhone 7 Plus ) y Tangerine (filmada con tres teléfonos iPhone 5S ) y en enero de 2018, el director de Unsane y ganador del Oscar , Steven Soderbergh, expresó su interés en filmar otras producciones únicamente con iPhones en el futuro. [22]
Las cámaras de cinematografía digital capturan imágenes digitales utilizando sensores de imagen , ya sean sensores de dispositivo de carga acoplada (CCD) o sensores de píxeles activos CMOS , generalmente en una de dos disposiciones.
Las cámaras de un solo chip diseñadas específicamente para el mercado cinematográfico digital suelen utilizar un solo sensor (de forma muy similar a las cámaras de fotos digitales ), con dimensiones similares a un fotograma de película de 16 o 35 mm o incluso (como en el caso de la Vision 65) a un fotograma de película de 65 mm. Una imagen se puede proyectar en un único sensor de gran tamaño exactamente de la misma forma que se puede proyectar en un fotograma de película, por lo que las cámaras con este diseño se pueden fabricar con monturas PL , PV y similares, para poder utilizar la amplia gama de lentes cinematográficas de alta gama existentes disponibles. Sus grandes sensores también permiten que estas cámaras alcancen la misma profundidad de campo reducida que las cámaras cinematográficas de película de 35 o 65 mm, que muchos directores de fotografía consideran una herramienta visual esencial. [23]
Códecs
Los códecs de grabación de video profesional en formato RAW incluyen Blackmagic Raw, Red Raw, Arri Raw y Canon Raw. [24] [25] [26] [27]
A diferencia de otros formatos de vídeo , que se especifican en términos de resolución vertical (por ejemplo, 1080p , que son 1920×1080 píxeles), los formatos de cine digital suelen especificarse en términos de resolución horizontal. Como abreviatura, estas resoluciones suelen darse en notación " n K ", donde n es el multiplicador de 1024 de modo que la resolución horizontal de un fotograma de película digitalizado de apertura completa correspondiente sea exactamente píxeles. Aquí, la "K" tiene un significado habitual que corresponde al prefijo binario " kibi " (ki).
Por ejemplo, una imagen 2K tiene 2048 píxeles de ancho y una imagen 4K tiene 4096 píxeles de ancho. Sin embargo, las resoluciones verticales varían con las relaciones de aspecto ; por lo tanto, una imagen 2K con una relación de aspecto HDTV (16:9) tiene 2048×1152 píxeles, mientras que una imagen 2K con una relación SDTV o Academy (4:3) tiene 2048×1536 píxeles, y una con una relación Panavision (2.39:1) tendría 2048×856 píxeles, y así sucesivamente. Debido a que la notación " n K" no corresponde a resoluciones horizontales específicas por formato, una imagen 2K que carece, por ejemplo, del espacio típico de la banda sonora de una película de 35 mm , tiene solo 1828 píxeles de ancho, y las resoluciones verticales se reescalan en consecuencia. Esto dio lugar a una plétora de resoluciones de vídeo relacionadas con las películas, lo que resulta bastante confuso y a menudo redundante con respecto a los relativamente pocos estándares de proyección disponibles.
Todos los formatos diseñados para la cinematografía digital son de barrido progresivo y la captura suele producirse a la misma velocidad de 24 fotogramas por segundo establecida como estándar para la película de 35 mm. Algunas películas como El hobbit: un viaje inesperado tienen una alta velocidad de fotogramas de 48 fps, aunque en algunas salas también se estrenó en una versión de 24 fps que muchos aficionados al cine tradicional prefieren.
El estándar DCI para cine generalmente se basa en una relación de aspecto de 1,89:1, por lo que define el tamaño máximo del contenedor para 4K como 4096×2160 píxeles y para 2K como 2048×1080 píxeles. Cuando se distribuye en forma de Paquete de Cine Digital (DCP), el contenido se divide en dos partes, letterbox o pillarbox, según corresponda para que encaje en uno de estos formatos de contenedor.
En los primeros años de la cinematografía digital, el 2K era el formato más común para las principales películas adquiridas digitalmente; sin embargo, a medida que los nuevos sistemas de cámara ganan aceptación, el 4K se está volviendo más prominente. La Arri Alexa capturó una imagen de 2.8k. Durante 2009, al menos dos películas importantes de Hollywood, Knowing y District 9 , se filmaron en 4K con la cámara Red One , seguidas de The Social Network en 2010. A partir de 2017 [actualizar], las cámaras 4K ahora son algo común, y la mayoría de las películas de alta gama se filman con una resolución de 4K.
En términos generales, se utilizan dos paradigmas de flujo de trabajo para la adquisición y el almacenamiento de datos en la cinematografía digital.
En el caso de los flujos de trabajo basados en cintas de vídeo , el vídeo se graba en cinta en el plató. A continuación, este vídeo se introduce en un ordenador que ejecuta un software de edición no lineal mediante una platina . Tras la introducción, el flujo de vídeo digital de la cinta se convierte en archivos informáticos. Estos archivos se pueden editar directamente o convertir a un formato intermedio para su edición. A continuación, el vídeo se emite en su formato final, posiblemente a una grabadora de películas para su exhibición en salas de cine, o de nuevo a una cinta de vídeo para su uso en retransmisiones. Las cintas de vídeo originales se conservan como medio de archivo. Los archivos generados por la aplicación de edición no lineal contienen la información necesaria para recuperar el metraje de las cintas adecuadas, en caso de que se pierda el metraje almacenado en el disco duro del ordenador. Con la creciente comodidad de los flujos de trabajo basados en archivos, los flujos de trabajo basados en cintas se han vuelto marginales en los últimos años.
La cinematografía digital se ha orientado en gran medida hacia flujos de trabajo "sin cintas" o "basados en archivos". Esta tendencia se ha acelerado con el aumento de la capacidad y la reducción del coste de las soluciones de almacenamiento no lineal, como las unidades de disco duro, los discos ópticos y las memorias de estado sólido. Con los flujos de trabajo sin cintas, el vídeo digital se graba como archivos digitales en medios de acceso aleatorio, como discos ópticos, unidades de disco duro o "revistas" digitales basadas en memoria flash. Estos archivos se pueden copiar fácilmente a otro dispositivo de almacenamiento, normalmente a un RAID (conjunto de discos de ordenador) grande conectado a un sistema de edición. Una vez que los datos se copian desde el medio del set a la matriz de almacenamiento, se borran y se devuelven al set para seguir filmando.
Estas matrices RAID, tanto las "administradas" (por ejemplo, SAN y NAS ) como las "no administradas" (por ejemplo, JBoD en una única estación de trabajo informática), son necesarias debido al rendimiento requerido para la reproducción en tiempo real (320 MB/s para 2K a 24 fps) o casi en tiempo real en posproducción , en comparación con el rendimiento disponible en una única unidad de disco duro, pero rápida. Estos requisitos suelen denominarse almacenamiento "en línea". La posproducción que no requiere rendimientos de reproducción en tiempo real (normalmente para rotulación, subtitulado, creación de versiones y otros efectos visuales similares) se puede migrar a almacenamientos RAID ligeramente más lentos.
El archivado a corto plazo, "si es que alguna vez se realiza", se logra moviendo los archivos digitales a matrices RAID "más lentas" (de cualquier tipo, administradas o no administradas, pero con menor rendimiento), donde la capacidad de reproducción es deficiente o inexistente (a menos que se utilicen imágenes proxy), pero aún es posible realizar una edición mínima y recolectar metadatos . Estos requisitos intermedios caen fácilmente en la categoría de almacenamiento "intermedio".
El archivado a largo plazo se logra realizando copias de seguridad de los archivos digitales del RAID, utilizando prácticas y equipos estándar para copias de seguridad de datos de la industria de TI , a menudo en cintas de datos (como LTO ).
La mayoría de los sistemas cinematográficos digitales reducen aún más la velocidad de datos mediante el submuestreo de la información de color. Debido a que el sistema visual humano es mucho más sensible a la luminancia que al color, la información de color de menor resolución se puede superponer con información de luminancia (brillo) de mayor resolución, para crear una imagen que se parece mucho a una en la que tanto la información de color como la de luminancia se muestrean a resolución completa. Este esquema puede causar pixelación o sangrado de color en algunas circunstancias. Los sistemas cinematográficos digitales de alta calidad son capaces de grabar datos de color de resolución completa (4:4:4) o datos de sensor sin procesar .
La mayoría de los sistemas de compresión que se utilizan para la adquisición en el mundo de la cinematografía digital comprimen el metraje fotograma a fotograma, como si un flujo de vídeo fuera una serie de imágenes fijas. Esto se denomina compresión intrafotograma . Los sistemas de compresión entre fotogramas pueden comprimir aún más los datos examinando y eliminando la redundancia entre fotogramas. Esto genera índices de compresión más altos, pero la visualización de un único fotograma normalmente requerirá que el sistema de reproducción descomprima una serie de fotogramas anteriores y posteriores. En la reproducción normal esto no es un problema, ya que cada fotograma sucesivo se reproduce en orden, por lo que los fotogramas anteriores ya se han descomprimido. Sin embargo, en la edición, es habitual saltar a fotogramas específicos y reproducir el metraje al revés o a diferentes velocidades. Debido a la necesidad de descomprimir fotogramas adicionales en estas situaciones, la compresión entre fotogramas puede causar problemas de rendimiento para los sistemas de edición. La compresión entre fotogramas también es desventajosa porque la pérdida de un único fotograma (por ejemplo, debido a un fallo al escribir datos en una cinta) normalmente arruinará todos los fotogramas hasta que se produzca el siguiente fotograma clave. En el caso del formato HDV , por ejemplo, esto puede dar como resultado la pérdida de hasta 6 fotogramas con una grabación de 720p, o 15 con 1080i. [28] Una secuencia de vídeo comprimida entre fotogramas consta de grupos de imágenes (GOP), cada uno de los cuales tiene solo un fotograma completo y un puñado de otros fotogramas que hacen referencia a este fotograma. Si el fotograma completo, llamado fotograma I , se pierde debido a un error de transmisión o de medios, no se puede mostrar ninguno de los fotogramas P o B (las imágenes a las que se hace referencia). En este caso, se pierde todo el GOP.
La codificación por transformada de coseno discreta (DCT) es el proceso de compresión de datos más común utilizado en la grabación y edición de películas digitales, incluido el estándar de compresión de imágenes JPEG y varios estándares de codificación de video como DV , DigiBeta , HDCAM , Apple ProRes , Avid DNxHD , MPEG , Advanced Video Coding (AVC) y AVCHD . Una alternativa a la codificación DCT es la codificación por transformada de ondícula discreta (DWT) JPEG 2000 , utilizada en los códecs de video Redcode y DCI XYZ , así como en la distribución de cine digital . [29] [30]
En el caso de los cines con proyectores digitales, las películas digitales se pueden distribuir digitalmente, ya sea enviándolas a los cines en discos duros o enviándolas a través de Internet o redes satelitales. Digital Cinema Initiatives, LLC , una empresa conjunta de Disney, Fox, MGM, Paramount, Sony Pictures Entertainment, Universal y Warner Bros. Studios, ha establecido estándares para la proyección de cine digital. En julio de 2005, publicaron la primera versión de la Especificación del sistema de cine digital, [31] que abarca la proyección en cines de 2K y 4K. También ofrecen pruebas de cumplimiento para exhibidores y proveedores de equipos.
JPEG 2000 , un estándar de compresión de imágenes basado en la transformada wavelet discreta (DWT) desarrollado por el Joint Photographic Experts Group (JPEG) entre 1997 y 2000, [32] fue seleccionado como el estándar de codificación de video para cine digital en 2004. [33]
Al principio, los propietarios de salas de cine se resistían a instalar sistemas de proyección digital debido a su elevado coste y a la preocupación por la creciente complejidad técnica. Sin embargo, los nuevos modelos de financiación, en los que los distribuidores pagan una cuota de "impresión digital" a los propietarios de las salas, han ayudado a aliviar estas preocupaciones. La proyección digital también ofrece una mayor flexibilidad con respecto a la proyección de tráilers y anuncios previos a la proyección y permite a los propietarios de salas de cine mover películas de una pantalla a otra con mayor facilidad o cambiar el número de pantallas en las que se proyecta una película, y la mayor calidad de la proyección digital proporciona una mejor experiencia que ayuda a atraer a los consumidores, que ahora pueden acceder a contenidos de alta definición en casa. Estos factores han hecho que la proyección digital se convierta en una perspectiva cada vez más atractiva para los propietarios de salas de cine, y el ritmo de adopción ha ido aumentando rápidamente.
Dado que actualmente algunos cines no cuentan con sistemas de proyección digital, incluso si una película se graba y se posproduce digitalmente, debe transferirse a película si se planea un gran estreno en salas. Por lo general, se utiliza una grabadora de película para imprimir datos de imágenes digitales en película, para crear un internegativo de 35 mm . Después de eso, el proceso de duplicación es idéntico al de un negativo tradicional de una cámara de película.
A diferencia de un sensor digital, un fotograma de una película no tiene una cuadrícula regular de píxeles discretos.
Determinar la resolución en la adquisición digital parece sencillo, pero se complica significativamente por la forma en que funcionan los sensores de las cámaras digitales en el mundo real. Esto es particularmente cierto en el caso de las cámaras cinematográficas digitales de alta gama que utilizan un solo sensor CMOS de patrón bayer de gran tamaño . Un sensor de patrón bayer no muestrea datos RGB completos en cada punto; en cambio, cada píxel está sesgado hacia el rojo, el verde o el azul, y se ensambla una imagen a todo color a partir de este tablero de ajedrez de color procesando la imagen a través de un algoritmo de desmosaico . Generalmente, con un sensor de patrón bayer, la resolución real estará en algún lugar entre el valor "nativo" y la mitad de esta cifra, y los diferentes algoritmos de desmosaico producirán resultados diferentes. Además, la mayoría de las cámaras digitales (tanto los diseños bayer como los de tres chips) emplean filtros ópticos de paso bajo para evitar el aliasing ; el filtrado antialiasing subóptimo puede reducir aún más la resolución del sistema.
La película tiene una estructura de grano característica. Los distintos tipos de películas tienen un grano diferente.
Las imágenes adquiridas digitalmente carecen de esta estructura granulada y tienen ruido electrónico .
El proceso de utilizar un flujo de trabajo intermedio digital , donde las películas se califican el color digitalmente en lugar de hacerlo mediante técnicas de acabado fotoquímico tradicionales, se ha vuelto común.
Para utilizar el flujo de trabajo intermedio digital con película, primero se debe procesar el negativo de la cámara y luego escanearlo a un formato digital. Algunos cineastas tienen años de experiencia en lograr su visión artística utilizando las técnicas disponibles en un flujo de trabajo fotoquímico tradicional y prefieren ese proceso de acabado/edición.
Las películas filmadas digitalmente se pueden imprimir, transferir o archivar en película. Las producciones digitales a gran escala suelen archivarse en película, ya que proporciona un medio de almacenamiento más seguro, lo que beneficia los costos de seguro y almacenamiento. [34] Mientras el negativo no se degrade por completo, siempre será posible recuperar las imágenes en el futuro, independientemente de los cambios en la tecnología, ya que todo lo que se involucrará es una simple reproducción fotográfica.
Por el contrario, incluso si los datos digitales se almacenan en un medio que preserve su integridad, siempre se necesitarán equipos digitales altamente especializados para reproducirlos. Por lo tanto, los cambios en la tecnología pueden hacer que el formato sea ilegible o costoso de recuperar con el tiempo. Por esta razón, los estudios cinematográficos que distribuyen películas de origen digital a menudo hacen copias maestras de separación basadas en película para fines de archivo. [34]
Los defensores del cine han argumentado que las primeras cámaras digitales carecen de la fiabilidad de la película, en particular al filmar secuencias a alta velocidad o en entornos caóticos, debido a las fallas técnicas de las cámaras digitales . El director de fotografía Wally Pfister señaló que para su rodaje de la película Origen , "De las seis veces que filmamos en formato digital, solo teníamos una pieza utilizable y no terminó en la película. De las seis veces que filmamos con la cámara Photo-Sonics y 35 mm atravesándola, cada toma estaba en la película". [35] Michael Bay afirmó que al filmar Transformers: El lado oscuro de la luna , se tuvieron que usar cámaras de 35 mm para filmar en cámara lenta y secuencias en las que las cámaras digitales estaban sujetas a luz estroboscópica o daño eléctrico por polvo. [36] Desde 2015, lo digital ha reemplazado casi por completo a la película para secuencias de alta velocidad de hasta 1000 fotogramas por segundo.
Algunos directores de cine como Christopher Nolan , [37] Paul Thomas Anderson [38] y Quentin Tarantino han criticado públicamente el cine digital y han defendido el uso de películas y copias de películas. Tarantino ha sugerido que podría retirarse porque ya no podrá proyectar sus películas en 35 mm en la mayoría de los cines estadounidenses. Tarantino considera que el cine digital es simplemente "televisión en público". [39] Christopher Nolan ha especulado que la adopción de formatos digitales por parte de la industria cinematográfica ha sido impulsada puramente por factores económicos en lugar de que el formato digital sea un medio superior al cine: "Creo que, sinceramente, se reduce al interés económico de los fabricantes y de una industria [de producción] que gana más dinero a través del cambio en lugar de mantener el status quo". [37]
Otra preocupación con la captura de imágenes digitales es cómo archivar todo el material digital. Archivar material digital está resultando extremadamente costoso y crea problemas en términos de conservación a largo plazo. En un estudio de 2007, la Academia de Artes y Ciencias Cinematográficas descubrió que el costo de almacenar masters digitales 4K es "enormemente más alto -1100% más alto- que el costo de almacenar masters de películas". Además, el archivo digital enfrenta desafíos debido a la longevidad insuficiente del almacenamiento digital actual: ningún medio actual, ya sean discos duros magnéticos o cintas digitales, puede almacenar de manera confiable una película durante cien años, algo que una película almacenada y manejada adecuadamente puede hacer. [40] Aunque esto también solía ser el caso con los discos ópticos, en 2012 Millenniata, Inc., una empresa de almacenamiento digital con sede en Utah, lanzó M-DISC , una solución de almacenamiento óptico, diseñada para durar hasta 1000 años, ofreciendo así una posibilidad de almacenamiento digital como una solución de almacenamiento viable. [41] [42]
{{cite book}}
: |journal=
ignorado ( ayuda ){{cite journal}}
: Requiere citar revista |journal=
( ayuda )