Un centro de datos ( inglés americano ) [1] o centro de datos ( inglés Commonwealth ) [2] [nota 1] es un edificio , un espacio dedicado dentro de un edificio, o un grupo de edificios [3] utilizados para albergar sistemas informáticos y asociados. componentes, como sistemas de telecomunicaciones y almacenamiento . [4] [5]
Dado que las operaciones de TI son cruciales para la continuidad del negocio , generalmente incluyen componentes e infraestructura redundantes o de respaldo para el suministro de energía , conexiones de comunicación de datos, controles ambientales (por ejemplo, aire acondicionado , extinción de incendios) y diversos dispositivos de seguridad. Un gran centro de datos es una operación a escala industrial que utiliza tanta electricidad como una ciudad pequeña. [6] El consumo mundial estimado de electricidad de los centros de datos en 2022 fue de 240-340 TWh , o aproximadamente entre el 1 y el 1,3 % de la demanda mundial de electricidad. Esto excluye la energía utilizada para la minería de criptomonedas, que se estima en alrededor de 110 TWh en 2022, o otro 0,4% de la demanda mundial de electricidad. [7]
Los centros de datos pueden variar ampliamente en términos de tamaño, requisitos de energía, redundancia y estructura general. Cuatro categorías comunes utilizadas para segmentar los tipos de centros de datos son los centros de datos in situ, las instalaciones de colocación, los centros de datos de hiperescala y los centros de datos de borde. [8]
Los centros de datos tienen sus raíces en las enormes salas de ordenadores de la década de 1940, representadas por ENIAC , uno de los primeros ejemplos de centro de datos. [9] [nota 2] Los primeros sistemas informáticos, complejos de operar y mantener, requerían un entorno especial para operar. Se necesitaban muchos cables para conectar todos los componentes, y se idearon métodos para acomodarlos y organizarlos, como bastidores estándar para montar equipos, pisos elevados y bandejas de cables (instaladas por encima o debajo del piso elevado). Una sola computadora central requería una gran cantidad de energía y debía enfriarse para evitar el sobrecalentamiento. La seguridad se volvió importante: las computadoras eran caras y a menudo se usaban con fines militares . [9] [nota 3] Por lo tanto, se idearon pautas básicas de diseño para controlar el acceso a la sala de computadoras.
Durante el auge de la industria de las microcomputadoras, y especialmente durante la década de 1980, los usuarios comenzaron a implementar computadoras en todas partes, en muchos casos con poca o ninguna preocupación por los requisitos operativos. Sin embargo, a medida que las operaciones de tecnología de la información (TI) comenzaron a volverse más complejas, las organizaciones se volvieron conscientes de la necesidad de controlar los recursos de TI. La disponibilidad de equipos de red económicos , junto con los nuevos estándares para el cableado estructurado de red , hizo posible utilizar un diseño jerárquico que ubicaba los servidores en una sala específica dentro de la empresa. El uso del término centro de datos , aplicado a salas de ordenadores especialmente diseñadas, comenzó a ganar reconocimiento popular en esta época. [9] [nota 4]
El auge de los centros de datos se produjo durante la burbuja de las puntocom de 1997-2000. [10] [nota 5] Las empresas necesitaban una conectividad rápida a Internet y un funcionamiento continuo para implementar sistemas y establecer una presencia en Internet. La instalación de dichos equipos no era viable para muchas empresas más pequeñas. Muchas empresas comenzaron a construir instalaciones muy grandes, llamadas centros de datos de Internet (IDC), [11] que proporcionan capacidades mejoradas, como respaldo cruzado: "Si se corta una línea de Bell Atlantic, podemos transferirla a... para minimizar el tiempo de corte." [11]
Se ha utilizado el término centros de datos en la nube (CDC). [12] Los centros de datos suelen costar mucho construir y mantener. [10] Cada vez más, la división de estos términos casi ha desaparecido y se están integrando en el término centro de datos . [13]
La modernización y transformación del centro de datos mejora el rendimiento y la eficiencia energética . [14]
La seguridad de la información también es una preocupación y, por este motivo, un centro de datos debe ofrecer un entorno seguro que minimice las posibilidades de que se produzca una brecha de seguridad. Por lo tanto, un centro de datos debe mantener altos estándares para garantizar la integridad y funcionalidad de su entorno informático alojado.
La empresa de investigación industrial International Data Corporation (IDC) calcula la edad promedio de un centro de datos en nueve años. [14] Gartner , otra empresa de investigación, dice que los centros de datos con más de siete años están obsoletos. [15] El crecimiento de los datos (163 zettabytes para 2025 [16] ) es un factor que impulsa la necesidad de modernizar los centros de datos.
Centrarse en la modernización no es nuevo: la preocupación por los equipos obsoletos fue denunciada en 2007, [17] y en 2011 Uptime Institute estaba preocupado por la antigüedad de los equipos que contienen. [nota 6] En 2018, la preocupación se había desplazado una vez más, esta vez a la edad del personal: "el personal del centro de datos está envejeciendo más rápido que el equipo". [18]
El Estándar de Infraestructura de Telecomunicaciones para Centros de Datos de la Asociación de la Industria de las Telecomunicaciones [19] especifica los requisitos mínimos para la infraestructura de telecomunicaciones de los centros de datos y salas de computación, incluidos los centros de datos empresariales de un solo inquilino y los centros de datos de alojamiento de Internet de múltiples inquilinos. La topología propuesta en este documento está destinada a ser aplicable a centros de datos de cualquier tamaño. [20]
Telcordia GR-3160, Requisitos NEBS para equipos y espacios de centros de datos de telecomunicaciones , [21] proporciona pautas para espacios de centros de datos dentro de redes de telecomunicaciones y requisitos ambientales para los equipos destinados a ser instalados en esos espacios. Estos criterios fueron desarrollados conjuntamente por Telcordia y representantes de la industria. Se pueden aplicar a espacios de centros de datos que albergan procesamiento de datos o equipos de tecnología de la información (TI). El equipo se puede utilizar para:
La transformación del centro de datos adopta un enfoque paso a paso a través de proyectos integrados llevados a cabo a lo largo del tiempo. Esto difiere del método tradicional de actualización de centros de datos que adopta un enfoque en serie y en silos. [22] Los proyectos típicos dentro de una iniciativa de transformación de un centro de datos incluyen estandarización/consolidación, virtualización , automatización y seguridad.
Telcordia Technologies , una filial de Ericsson , desarrolló una guía de normas para suelos elevados denominada GR-2930 . [34]
Aunque IBM construyó la primera sala de computadoras con piso elevado en 1956, [35] y "existieron desde la década de 1960", [36] fue la década de 1970 la que hizo más común que los centros de computación permitieran la entrada de aire frío. circular más eficientemente. [37] [38]
El primer propósito del piso elevado era permitir el acceso al cableado. [35]
El centro de datos sin luces [39] , también conocido como centro de datos oscurecido u oscuro, es un centro de datos que, idealmente, prácticamente ha eliminado la necesidad de acceso directo del personal, excepto en circunstancias extraordinarias. Debido a que no es necesario que el personal ingrese al centro de datos, éste puede funcionar sin iluminación. Se accede a todos los dispositivos y se administran mediante sistemas remotos, con programas de automatización utilizados para realizar operaciones desatendidas. Además del ahorro de energía, la reducción de los costos de personal y la capacidad de ubicar el sitio más lejos de los centros de población, la implementación de un centro de datos sin luces reduce la amenaza de ataques maliciosos a la infraestructura. [40] [41]
En términos generales, las autoridades locales prefieren que los niveles de ruido en los centros de datos sean "10 dB por debajo del nivel de ruido de fondo nocturno existente en la residencia más cercana". [42]
Las regulaciones de OSHA requieren el monitoreo de los niveles de ruido dentro de los centros de datos si el ruido excede los 85 decibeles. [43] El nivel de ruido promedio en las áreas de servidores de un centro de datos puede alcanzar hasta 92-96 dB(A). [44]
Los residentes que viven cerca de los centros de datos han descrito el sonido como "un zumbido agudo las 24 horas del día, los 7 días de la semana", diciendo: "Es como estar en una pista con el motor de un avión funcionando constantemente... Excepto que el avión permanece en ralentí y nunca sale". [45] [46] [47] [48]
Las fuentes externas de ruido incluyen equipos HVAC y generadores de energía. [49] [50]
El campo del diseño de centros de datos ha estado creciendo durante décadas en varias direcciones, incluyendo nuevas construcciones grandes y pequeñas junto con la reutilización creativa de instalaciones existentes, como espacios comerciales abandonados, antiguas minas de sal y búnkeres de la época de la guerra.
Los códigos de construcción locales pueden regular las alturas mínimas de techo y otros parámetros. Algunas de las consideraciones en el diseño de centros de datos son:
Existen varias métricas para medir la disponibilidad de datos que resulta de la disponibilidad del centro de datos más allá del 95% de tiempo de actividad, y la parte superior de la escala cuenta cuántos nueves se pueden colocar después del 99% . [58]
La modularidad y la flexibilidad son elementos clave para permitir que un centro de datos crezca y cambie con el tiempo. Los módulos del centro de datos son bloques de construcción estandarizados y prediseñados que se pueden configurar y mover fácilmente según sea necesario. [59]
Un centro de datos modular puede consistir en equipos de centro de datos contenidos dentro de contenedores de envío o contenedores portátiles similares. [60] Los componentes del centro de datos pueden ser prefabricados y estandarizados, lo que facilita su traslado si es necesario. [61]
La temperatura y la humedad se controlan mediante:
Es importante que las computadoras no se humedezcan ni se sobrecalienten, ya que la alta humedad puede provocar que el polvo obstruya los ventiladores, lo que provoca un sobrecalentamiento, o puede provocar un mal funcionamiento de los componentes, arruinando la placa y generando peligro de incendio. El sobrecalentamiento puede hacer que los componentes, generalmente el silicio o el cobre de los cables o circuitos, se derritan, lo que provoca que las conexiones se aflojen y generen peligro de incendio.
La energía de respaldo consta de uno o más sistemas de alimentación ininterrumpida , bancos de baterías y/o generadores de turbinas de gas o diésel . [64]
Para evitar puntos únicos de falla , todos los elementos de los sistemas eléctricos, incluidos los sistemas de respaldo, generalmente reciben copias redundantes y los servidores críticos están conectados a las fuentes de alimentación del lado A y del lado B. Esta disposición se realiza a menudo para lograr redundancia N+1 en los sistemas. A veces se utilizan interruptores de transferencia estática para garantizar la conmutación instantánea de un suministro a otro en caso de un corte de energía.
Las opciones incluyen:
La gestión del flujo de aire aborda la necesidad de mejorar la eficiencia de enfriamiento de las computadoras del centro de datos al evitar la recirculación del aire caliente expulsado de los equipos de TI y reducir el flujo de aire de derivación. Existen varios métodos para separar las corrientes de aire frío y caliente, como la contención del pasillo frío/caliente y las unidades de enfriamiento en fila. [66]
La contención del pasillo frío se realiza exponiendo la parte trasera de los bastidores de equipos, mientras que los frentes de los servidores se cierran con puertas y cubiertas. Esto es similar a cómo las empresas alimentarias a gran escala refrigeran y almacenan sus productos.
Los gabinetes de computadoras/ granjas de servidores a menudo se organizan para contener los pasillos fríos y calientes. La colocación adecuada de los conductos de aire evita que el aire frío y caliente se mezclen. Las filas de gabinetes están emparejadas una frente a otra para que las entradas y salidas de aire frío y caliente no mezclen el aire, lo que reduciría gravemente la eficiencia de enfriamiento.
Alternativamente, una gama de paneles debajo del piso puede crear vías eficientes de aire frío dirigidas a las baldosas ventiladas del piso elevado. Se puede contener el pasillo frío o el pasillo caliente. [67]
Otra opción es instalar armarios con chimeneas con conductos de escape verticales . [68] Los tubos/respiraderos/conductos de escape calientes pueden dirigir el aire hacia un espacio plenum sobre un techo falso y de regreso a las unidades de enfriamiento o a los respiraderos exteriores. Con esta configuración, la configuración tradicional de pasillo frío/caliente no es un requisito. [69]
Los centros de datos cuentan con sistemas de protección contra incendios , incluyendo elementos de Diseño Activo y Pasivo , así como la implementación de programas de prevención de incendios en las operaciones. Los detectores de humo generalmente se instalan para brindar una alerta temprana de un incendio en su etapa incipiente.
Aunque la sala principal generalmente no permite sistemas basados en tuberías húmedas debido a la naturaleza frágil de los tableros de circuitos , todavía existen sistemas que se pueden usar en el resto de la instalación o en sistemas de circulación de aire de pasillo frío/caliente que son sistemas cerrados. , como por ejemplo: [70]
Sin embargo, también existen otros medios para apagar incendios, especialmente en áreas sensibles , generalmente utilizando la extinción de incendios gaseosos , de los cuales el gas halón era el más popular, hasta que se descubrieron los efectos negativos de su producción y uso.
El acceso físico suele estar restringido. La seguridad por niveles a menudo comienza con cercas, bolardos y trampas . [71] La vigilancia con cámaras de video y guardias de seguridad permanentes casi siempre están presentes si el centro de datos es grande o contiene información confidencial. Las trampas de reconocimiento de huellas dactilares están empezando a ser algo común.
Algunas normas de protección de datos exigen el acceso al registro; Algunas organizaciones vinculan estrechamente esto con los sistemas de control de acceso. Pueden ocurrir múltiples entradas de registro en la entrada principal, en las entradas a las habitaciones internas y en los gabinetes de equipos. El control de acceso a los gabinetes se puede integrar con unidades de distribución de energía inteligentes , de modo que las cerraduras estén conectadas en red a través del mismo aparato. [72]
El uso de energía es un tema central para los centros de datos. El consumo de energía varía desde unos pocos kW para un rack de servidores en un armario hasta varias decenas de MW para instalaciones grandes. Algunas instalaciones tienen densidades de energía más de 100 veces superiores a las de un edificio de oficinas típico. [73] Para instalaciones de mayor densidad de energía, los costos de electricidad son un gasto operativo dominante y representan más del 10% del costo total de propiedad (TCO) de un centro de datos. [74]
En 2020, los centros de datos (excluida la minería de criptomonedas) y la transmisión de datos utilizaron cada uno alrededor del 1% de la electricidad mundial. [75] Aunque parte de esta electricidad era baja en carbono, la AIE pidió más "esfuerzos del gobierno y la industria en eficiencia energética, adquisición de energías renovables e I+D", [75] ya que algunos centros de datos todavía utilizan electricidad generada a partir de combustibles fósiles. [76] También dijeron que se deben considerar las emisiones del ciclo de vida, es decir, incluidas las emisiones incorporadas , como en los edificios. [75] Se estima que los centros de datos fueron responsables del 0,5% de las emisiones de gases de efecto invernadero de EE. UU. en 2018. [77] Algunas empresas chinas, como Tencent , se han comprometido a ser neutras en carbono para 2030, mientras que otras, como Alibaba, han sido criticadas. Greenpeace por no comprometerse a convertirse en carbono neutral. [78]
La métrica de eficiencia energética más utilizada para los centros de datos es la efectividad del uso de energía (PUE), calculada como la relación entre la energía total que ingresa al centro de datos dividida por la energía utilizada por los equipos de TI.
PUE mide el porcentaje de energía utilizada por los dispositivos aéreos (refrigeración, iluminación, etc.). El centro de datos promedio de EE. UU. tiene un PUE de 2,0, [79] lo que significa dos vatios de potencia total (gastos generales + equipos de TI) por cada vatio entregado a los equipos de TI. Se estima que los centros de datos de última generación tienen un PUE de aproximadamente 1,2. [80] Google publica métricas de eficiencia trimestrales de sus centros de datos en funcionamiento. [81]
La Agencia de Protección Ambiental de EE. UU. tiene una calificación Energy Star para centros de datos grandes o independientes. Para calificar para la etiqueta ecológica, un centro de datos debe estar dentro del cuartil superior en eficiencia energética de todas las instalaciones reportadas. [82] La Ley de Mejora de la Eficiencia Energética de 2015 (Estados Unidos) exige que las instalaciones federales, incluidos los centros de datos, funcionen de manera más eficiente. El Título 24 (2014) del Código de Regulaciones de California exige que cada centro de datos recién construido debe tener algún tipo de contención del flujo de aire para optimizar la eficiencia energética.
La Unión Europea también tiene una iniciativa similar: el Código de conducta de la UE para centros de datos. [83]
El enfoque de medir y analizar el uso de energía va más allá de lo que utilizan los equipos de TI; El hardware de soporte de las instalaciones, como enfriadores y ventiladores, también consume energía. [84]
En 2011, los racks de servidores en los centros de datos estaban diseñados para más de 25 kW y se estimaba que un servidor típico desperdiciaba alrededor del 30% de la electricidad que consumía. También está aumentando la demanda de energía para los sistemas de almacenamiento de información. Se estima que un centro de datos de alta disponibilidad tiene una demanda de 1 megavatio (MW) y consume 20.000.000 de dólares en electricidad durante su vida útil , y la refrigeración representa entre el 35% y el 45% del costo total de propiedad del centro de datos . Los cálculos muestran que en dos años, el costo de alimentar y enfriar un servidor podría ser igual al costo de comprar el hardware del servidor. [85] Una investigación realizada en 2018 ha demostrado que aún se podría conservar una cantidad sustancial de energía optimizando las tasas de actualización de TI y aumentando la utilización del servidor. [86]
En 2011, Facebook , Rackspace y otros fundaron Open Compute Project (OCP) para desarrollar y publicar estándares abiertos para tecnologías informáticas de centros de datos más ecológicas. Como parte del proyecto, Facebook publicó los diseños de su servidor, que había construido para su primer centro de datos dedicado en Prineville. Hacer servidores más altos dejó espacio para disipadores de calor más efectivos y permitió el uso de ventiladores que movían más aire con menos energía. Al no comprar servidores comerciales disponibles en el mercado , también se ahorró el consumo de energía debido a ranuras de expansión innecesarias en la placa base y componentes innecesarios, como una tarjeta gráfica . [87] En 2016, Google se unió al proyecto y publicó los diseños de su bastidor de centro de datos poco profundo de 48 V CC. Este diseño llevaba mucho tiempo formando parte de los centros de datos de Google . Al eliminar los múltiples transformadores que normalmente se implementan en los centros de datos, Google logró un aumento del 30% en la eficiencia energética. [88] En 2017, las ventas de hardware de centro de datos construido con diseños OCP superaron los 1.200 millones de dólares y se espera que alcancen los 6.000 millones de dólares en 2021. [87]
La energía es el mayor costo recurrente para el usuario de un centro de datos. [89] Enfriarlo a 70 °F (21 °C) o menos es un desperdicio de dinero y energía. [89] Además, el sobreenfriamiento de los equipos en entornos con una alta humedad relativa puede exponerlos a una gran cantidad de humedad que facilita el crecimiento de depósitos de sal en los filamentos conductores de los circuitos. [90]
Un análisis de potencia y refrigeración , también conocido como evaluación térmica, mide las temperaturas relativas en áreas específicas, así como la capacidad de los sistemas de refrigeración para manejar temperaturas ambiente específicas. [91] Un análisis de energía y enfriamiento puede ayudar a identificar puntos calientes, áreas sobreenfriadas que pueden soportar una mayor densidad de uso de energía, el punto de interrupción de la carga del equipo, la efectividad de una estrategia de piso elevado y la ubicación óptima del equipo (como AC unidades) para equilibrar las temperaturas en todo el centro de datos. La densidad de enfriamiento de energía es una medida de cuántos pies cuadrados puede enfriar el centro a su máxima capacidad. [92] La refrigeración de los centros de datos es el segundo mayor consumidor de energía después de los servidores. La energía de refrigeración varía desde el 10% del consumo total de energía en los centros de datos más eficientes hasta el 45% en los centros de datos estándar refrigerados por aire.
Un análisis de eficiencia energética mide el uso de energía de los equipos de las instalaciones y de TI del centro de datos. Un análisis típico de eficiencia energética mide factores como la eficacia del uso de energía (PUE) de un centro de datos frente a los estándares de la industria, identifica fuentes mecánicas y eléctricas de ineficiencia e identifica métricas de gestión del aire. [93] Sin embargo, la limitación de la mayoría de las métricas y enfoques actuales es que no incluyen TI en el análisis. Los estudios de caso han demostrado que al abordar la eficiencia energética de manera integral en un centro de datos, se pueden lograr eficiencias importantes que de otro modo no serían posibles. [94]
Este tipo de análisis utiliza herramientas y técnicas sofisticadas para comprender las condiciones térmicas únicas presentes en cada centro de datos, prediciendo el comportamiento de la temperatura, el flujo de aire y la presión de un centro de datos para evaluar el rendimiento y el consumo de energía mediante modelos numéricos. [95] Al predecir los efectos de estas condiciones ambientales, el análisis CFD de un centro de datos se puede utilizar para predecir el impacto de los racks de alta densidad combinados con racks de baja densidad [96] y el impacto posterior en los recursos de refrigeración y la mala gestión de la infraestructura. prácticas y falla de CA o apagado de CA para mantenimiento programado.
El mapeo de zonas térmicas utiliza sensores y modelos informáticos para crear una imagen tridimensional de las zonas frías y calientes en un centro de datos. [97]
Esta información puede ayudar a identificar la ubicación óptima del equipo del centro de datos. Por ejemplo, los servidores críticos podrían ubicarse en una zona fría atendida por unidades de aire acondicionado redundantes.
Los centros de datos utilizan mucha energía, consumida en dos usos principales: la energía necesaria para hacer funcionar el equipo real y luego la energía necesaria para enfriar el equipo. La eficiencia energética reduce la primera categoría.
La reducción de los costos de refrigeración a través de medios naturales incluye decisiones de ubicación: cuando el objetivo es evitar una buena conectividad de fibra, conexiones a la red eléctrica y concentraciones de personas para administrar el equipo, un centro de datos puede estar a kilómetros de distancia de los usuarios. Los centros de datos masivos como Google o Facebook no necesitan estar cerca de centros de población. Los lugares árticos que pueden utilizar el aire exterior, que proporciona refrigeración, se están volviendo más populares. [98]
Las fuentes de electricidad renovables son otra ventaja. Así, países con condiciones favorables, como Canadá, [99] Finlandia, [100] Suecia, [101] Noruega, [102] y Suiza [103] están intentando atraer centros de datos de computación en la nube.
Es muy difícil reutilizar el calor procedente de los centros de datos refrigerados por aire. Por este motivo, las infraestructuras de los centros de datos suelen estar equipadas con bombas de calor. [104] Una alternativa a las bombas de calor es la adopción de refrigeración líquida en todo un centro de datos. Se mezclan y combinan diferentes técnicas de refrigeración líquida para permitir una infraestructura totalmente refrigerada por líquido que captura todo el calor con agua. Las diferentes tecnologías líquidas se clasifican en 3 grupos principales: refrigeración líquida indirecta (racks enfriados por agua), refrigeración líquida directa (enfriamiento directo al chip) y refrigeración líquida total (inmersión completa en líquido, consulte refrigeración por inmersión del servidor ). Esta combinación de tecnologías permite la creación de una cascada térmica como parte de escenarios de encadenamiento de temperatura para crear salidas de agua a alta temperatura desde el centro de datos.
La infraestructura dinámica [105] brinda la capacidad de mover cargas de trabajo de manera inteligente, automática y segura dentro de un centro de datos [106] en cualquier momento y en cualquier lugar, para migraciones, aprovisionamiento , [107] para mejorar el rendimiento o construir instalaciones de coubicación . También facilita la realización de mantenimiento de rutina en sistemas físicos o virtuales y al mismo tiempo minimiza las interrupciones. Un concepto relacionado es el de Infraestructura componible, que permite la reconfiguración dinámica de los recursos disponibles para satisfacer las necesidades, solo cuando sea necesario. [108]
Los beneficios secundarios incluyen
Las comunicaciones en los centros de datos actuales suelen basarse en redes que ejecutan el conjunto de protocolos de Internet . Los centros de datos contienen un conjunto de enrutadores y conmutadores que transportan el tráfico entre los servidores y el mundo exterior [110] que están conectados de acuerdo con la arquitectura de red del centro de datos . La redundancia de la conexión a Internet suele proporcionarse mediante el uso de dos o más proveedores de servicios ascendentes (consulte Multihoming ).
Algunos de los servidores del centro de datos se utilizan para ejecutar los servicios básicos de Internet e intranet que necesitan los usuarios internos de la organización, por ejemplo, servidores de correo electrónico, servidores proxy y servidores DNS .
También se suelen desplegar elementos de seguridad de la red: firewalls , gateways VPN , sistemas de detección de intrusiones , etcétera. También son comunes los sistemas de monitoreo de la red y algunas de las aplicaciones. También son habituales los sistemas adicionales de monitorización externa en caso de fallo de las comunicaciones dentro del centro de datos.
Las opciones no mutuamente excluyentes para la copia de seguridad de datos son:
Onsite es tradicional, [111] y una de sus principales ventajas es la disponibilidad inmediata.
Las técnicas de copia de seguridad de datos incluyen tener una copia cifrada de los datos fuera del sitio. Los métodos utilizados para transportar datos son: [112]
Para una implementación rápida o recuperación ante desastres , varios grandes proveedores de hardware han desarrollado soluciones móviles/modulares que se pueden instalar y poner en funcionamiento en muy poco tiempo.
Los microcentros de datos (MDC) son centros de datos de nivel de acceso que son más pequeños que los centros de datos tradicionales pero que ofrecen las mismas características. [115] Por lo general, están ubicados cerca de la fuente de datos para reducir los retrasos en las comunicaciones, ya que su pequeño tamaño permite que varios MDC se distribuyan en un área amplia. [116] [117] Los MDC se adaptan bien a aplicaciones frontales orientadas al usuario. [118] Se utilizan comúnmente en informática de punta y otras áreas donde se necesita procesamiento de datos de baja latencia. [119]
centro de datos... una instalación gigante... 15 de estos edificios y seis más... en construcción
"Los amigos no permiten que sus amigos construyan centros de datos", dijo Charles Phillips, director ejecutivo de Infor, un fabricante de software empresarial.
{{cite book}}
: Mantenimiento CS1: varios nombres: lista de autores ( enlace )