Como resultado, los datos disponibles son escalables y resistentes frente a los errores.
Inicialmente, su adopción se limitaba principalmente al ámbito académico y de investigación, donde se valoraba su capacidad para manejar grandes conjuntos de datos y su resistencia a fallos.
Las grandes empresas utilizan aplicaciones propias para centralizar la información en servidores, de tal manera que desde cualquier unidad dentro de su red sea más sencillo acceder a la información.
En el sistema distribuido, estos bloques se dividen entre varios nodos o servidores, ofreciendo tolerancia a fallos y redundancia.
Dentro del repositorio, cada archivo se reconoce de forma única mediante una ruta.
Normalmente, los objetos son unidades de datos no estructurados, como blobs, documentos, películas y fotografías.
Aunque esto reduce la latencia, si el nodo principal falla antes de que se actualicen las copias, puede generar datos inconsistentes.
DFS ofrece una vista única y unificada del almacenamiento de archivos en varios servidores.
Arquitectura cliente/servidor: para acceder y modificar archivos en un DFS, los clientes se comunican con los servidores.
Los clientes utilizan una interfaz definida que proporciona DFS para solicitar operaciones de archivos (lectura, escritura y eliminación).
Los usuarios ven un sistema de archivos único y lógico incluso cuando los datos están ubicados físicamente en varios servidores.
Cada objeto se compone de metadatos relacionados y datos reales, que pueden ser un documento, un vídeo o una imagen.
El almacenamiento distribuido, como ya hemos visto, se refiere a una arquitectura de almacenamiento en la que los datos se distribuyen en varias ubicaciones, a menudo utilizando una red de servidores o nodos.
Por el contrario, el almacenamiento distribuido reparte los datos en múltiples ubicaciones, lo que puede mejorar la con-fiabilidad y la disponibilidad.
Además, el almacenamiento distribuido puede proporcionar una mejor escalabilidad y rendimiento, ya que se puede acceder a los datos desde varias ubicaciones simultáneamente.
Los usuarios de Amazon S3 deben crear cubos y especificar en cual almacenar o recuperar objetos.
Los cubos son estructuras lógicas que permiten a los usuarios organizar sus datos.
Un cubo de Amazon S3 siempre está vinculado a una región geográfica específica (por ejemplo, EE.
Este 1 (Virginia del Norte)) y los objetos no pueden salir de la región.
Cada objeto en S3 se identifica mediante un cubo, una clave y un ID de versión.
Debido al teorema CAP, Amazon S3 proporciona alta disponibilidad y tolerancia a las particiones, pero no puede garantizar la coherencia.
Para utilizar el software como servicio de Azure, primero hay que configurar una cuenta de Azure, ya sea comprando una suscripción o registrándose para realizar una prueba gratuita.
Por otro lado, Azure File Storage se suele usar para crear sistemas de compartición de archivos, distribuidos y basados en la nube, a los que se accede a través del protocolo SMB.
Otra opción popular para la copia de seguridad en la nube, que ofrece protección contra ransomware y otras amenazas.