stringtranslate.com

La era de los zettabytes

La era del zettabyte o zona del zettabyte [1] es un período de la historia de la humanidad y de la informática que comenzó a mediados de la década de 2010. La fecha de inicio precisa depende de si se define como cuando el tráfico IP global superó por primera vez un zettabyte , lo que sucedió en 2016, o cuando la cantidad de datos digitales en el mundo superó por primera vez un zettabyte, lo que sucedió en 2012. Un zettabyte es un múltiplo de la unidad byte que mide el almacenamiento digital, y es equivalente a 1.000.000.000.000.000.000.000 (10 21 ) bytes. [2]

Según Cisco Systems , un conglomerado tecnológico multinacional estadounidense, el tráfico IP global alcanzó un estimado de 1,2 zettabytes en 2016, un promedio de 96 exabytes (EB) por mes. El tráfico IP global se refiere a todos los datos digitales que pasan por una red IP que incluye, entre otras cosas, Internet pública. El mayor factor que contribuye al crecimiento del tráfico IP proviene del tráfico de video (incluidos los servicios de transmisión en línea como Netflix y YouTube ). [3] [4]

La Era Zettabyte también puede entenderse como una era de crecimiento de todas las formas de datos digitales que existen en el mundo, lo que incluye la Internet pública, pero también todas las demás formas de datos digitales, como los datos almacenados de las cámaras de seguridad o los datos de voz de las llamadas de teléfonos celulares. [5] Teniendo en cuenta esta segunda definición de la Era Zettabyte, se estimó que en 2012 existía más de 1 zettabyte de datos en el mundo y que para 2020 habría más de 40 zettabytes de datos en todo el mundo. [6]

La era de los zettabytes se traduce en dificultades para que los centros de datos puedan seguir el ritmo de la explosión del consumo, la creación y la replicación de datos. [7] En 2015, el 2% de la energía mundial total fue absorbida por Internet y todos sus componentes, por lo que la eficiencia energética en lo que respecta a los centros de datos se ha convertido en un problema central en la era de los zettabytes. [8]

IDC pronostica que la cantidad de datos generados cada año crecerá a 175 zettabytes para 2025. [9] [10] Además, estima que se enviará un total de 22 zettabytes de almacenamiento digital en todos los tipos de medios de almacenamiento entre 2018 y 2025, y casi el 59 por ciento de esta capacidad será proporcionada por la industria de los discos duros. [9]

El zettabyte

Un zettabyte es una unidad de medida digital. Un zettabyte equivale a un sextillón de bytes o 10 21 (1.000.000.000.000.000.000.000) bytes, o bien, un zettabyte equivale a un billón de gigabytes . [4] [2] Para poner esto en perspectiva, considere que "si cada terabyte en un zettabyte fuera un kilómetro, sería equivalente a 1.300 viajes de ida y vuelta a la luna (768.800 kilómetros)". [4] Como lo expresa el exdirector ejecutivo de Google, Eric Schmidt, desde el comienzo mismo de la humanidad hasta el año 2003, se estima que se crearon 5 exabytes de información, [11] lo que corresponde al 0,5% de un zettabyte. En 2013, esa cantidad de información (5 exabytes) tardó solo dos días en crearse, y ese ritmo crece continuamente. [11]

Definiciones

El concepto de la Era Zettabyte se puede dividir en dos categorías distintas:

  1. En términos de tráfico IP : Esta primera definición se refiere a la cantidad total de datos que atraviesan las redes IP globales, como la Internet pública. En Canadá, por ejemplo, ha habido un crecimiento promedio del 50,4% de los datos descargados por los suscriptores de Internet residencial de 2011 a 2016. [12] Según esta definición, la Era Zettabyte comenzó en 2016 cuando el tráfico IP global superó el zettabyte y se estima que alcanzó aproximadamente 1,2 zettabytes. [3]
  2. En términos de todas las formas de datos digitales : En esta segunda definición, la Era Zettabyte se refiere a la cantidad total de todos los datos digitales que existen en cualquier forma, desde películas digitales hasta transpondedores que registran el uso de las carreteras y mensajes de texto SMS. [5] Según esta definición, la Era Zettabyte comenzó en 2012, cuando la cantidad de datos digitales en el mundo superó el zettabyte. [6]

Informe de Cisco: La era de los zettabytes: tendencias y análisis

En 2016, Cisco Systems declaró que la era de los zettabytes ya era una realidad cuando el tráfico IP global alcanzó un estimado de 1,2 zettabytes. Cisco también proporcionó predicciones futuras del tráfico IP global en su informe The Zettabyte Era: Trends and Analysis . Este informe utiliza estadísticas de tráfico IP global actuales y pasadas para pronosticar tendencias futuras. El informe predice tendencias entre 2016 y 2021. Estas son algunas de las predicciones para 2021 que se encuentran en el informe: [3]

Factores que llevaron a la era Zettabyte

Son muchos los factores que propiciaron el auge de la era de los zettabytes. El aumento de la transmisión de vídeo, el uso de teléfonos móviles, las velocidades de banda ancha y el almacenamiento en centros de datos son factores que contribuyeron al aumento (y la continuidad) del consumo, la creación y la replicación de datos. [3] [13] [14]

Aumento de la transmisión de vídeo

Existe un consumo cada vez mayor de contenido multimedia en Internet, incluida la transmisión de video, que ha contribuido al surgimiento de la Era Zettabyte. [15] En 2011, se estimó que aproximadamente entre el 25% y el 40% del tráfico IP lo ocupaban los servicios de transmisión de video. [16] Desde entonces, el tráfico IP de video casi se ha duplicado hasta aproximadamente el 73% del tráfico IP total. Además, Cisco ha predicho que esta tendencia continuará en el futuro, estimando que para 2021, el 82% del tráfico IP total provendrá del tráfico de video. [3]

La cantidad de datos que utilizan los servicios de transmisión de vídeo depende de la calidad del vídeo. Por ello, Android Central desglosa la cantidad de datos que se utilizan (en un teléfono inteligente) en relación con las diferentes resoluciones de vídeo. Según sus hallazgos, por hora, un vídeo con una resolución de entre 240p y 320p utiliza aproximadamente 0,3 GB. El vídeo estándar, que tiene una resolución de 480p, utiliza aproximadamente 0,7 GB por hora. El vídeo de alta definición , que varía entre una resolución de 720p y 2k, utiliza unos 0,9 GB (720p), 1,5 GB (1080p) y 3 GB (2k) por hora. Por último, el vídeo 4K, conocido como vídeo de ultraalta definición, utiliza unos 7,2 GB por hora. [17] [ dudosodiscutir ]

Netflix y YouTube encabezan la lista de los servicios de vídeo más utilizados en streaming a nivel mundial. En 2016, Netflix representó el 32,72 % de todo el tráfico IP de streaming de vídeo, mientras que YouTube representó el 17,31 %. El tercer puesto lo ocupa Amazon Prime Video , donde el uso de datos a nivel mundial llega al 4,14 %. [18]

Netflix

En la actualidad, [ ¿cuándo? ] Netflix es el servicio de transmisión de video más grande del mundo, accesible en más de 200 países y con más de 80 millones de suscriptores. [19] La transmisión de contenido de video de alta definición a través de Netflix utiliza aproximadamente 3 GB de datos por hora, mientras que la definición estándar ocupa alrededor de 1 GB de datos por hora. [20] En América del Norte, durante las horas pico de consumo de ancho de banda (alrededor de las 8 p. m.) Netflix usa aproximadamente el 40% del ancho de banda total de la red. [21] La gran cantidad de datos marca un período de tiempo sin precedentes y es uno de los principales factores que han contribuido a llevar al mundo a la Era Zettabyte. [3]

YouTube

YouTube es otro importante servicio de transmisión de video (y de carga de videos), [22] cuya tasa de consumo de datos en redes fijas y móviles sigue siendo bastante alta. [23] En 2016, el servicio fue responsable de utilizar aproximadamente el 20% del tráfico total de Internet y el 40% del tráfico móvil. A partir de 2018, se cargan 300 horas de contenido de video de YouTube cada minuto. [24] [25]

Aumento del tráfico inalámbrico y móvil

El uso de tecnologías móviles para acceder a redes IP ha dado lugar a un aumento del tráfico IP general en la era de los zettabytes. En 2016, la mayoría de los dispositivos que movían tráfico IP y otros flujos de datos eran dispositivos cableados. Desde entonces, el tráfico inalámbrico y móvil ha aumentado y se prevé que siga aumentando rápidamente. Cisco predice que para el año 2021, los dispositivos cableados representarán el 37% del tráfico total, mientras que el 63% restante se contabilizará a través de dispositivos inalámbricos y móviles. Además, se espera que el tráfico de teléfonos inteligentes supere el tráfico de PC para 2021; se prevé que las PC representen el 25% del tráfico total, por debajo del 46% en 2016, mientras que se espera que el tráfico de teléfonos inteligentes aumente del 13% al 33%. [3]

Según la Organización para la Cooperación y el Desarrollo Económicos (OCDE), las tasas de penetración de la banda ancha móvil están en constante crecimiento. Entre junio y diciembre de 2016, la tasa de penetración de banda ancha móvil promedio aumentó un 4,43% en todos los países de la OCDE. Polonia tuvo el mayor aumento, con un 21,55%, mientras que Letonia tuvo la tasa de penetración más baja, con un descenso del 5,71%. La OCDE calculó que en 2016 había un total de 1.270 millones de suscripciones de banda ancha móvil, de las cuales 1.140 millones tenían voz y datos incluidos en el plan. [13]

Aumento de la velocidad de banda ancha

La banda ancha es lo que conecta a los usuarios de Internet a Internet, por lo que la velocidad de la conexión de banda ancha está directamente relacionada con el tráfico IP: cuanto mayor sea la velocidad de la banda ancha, mayor será la posibilidad de que más tráfico pueda atravesar las redes IP. Cisco estima que se espera que las velocidades de banda ancha se dupliquen para 2021. En 2016, la banda ancha fija promedio mundial alcanzó velocidades de hasta 27,5 Mbit/s, pero se espera que alcance los 53 Mbit/s para 2021. [3] Entre el cuarto trimestre de 2016 y el primer trimestre de 2017, las velocidades promedio de banda ancha fija a nivel mundial equivalieron a 7,2 Mbit/s. [ aclaración necesaria ] Corea del Sur estaba en la cima de la lista en términos de velocidades de banda ancha. En ese período, las velocidades de banda ancha aumentaron un 9,3%. [26]

Las aplicaciones de gran ancho de banda necesitan velocidades de banda ancha significativamente mayores. Algunas tecnologías de banda ancha, como la fibra hasta el hogar (FTTH), la línea de abonado digital de alta velocidad (DSL) y la banda ancha por cable , están allanando el camino para mayores velocidades de banda ancha. [3] La FTTH puede ofrecer velocidades de banda ancha que son diez veces (o incluso cien veces) más rápidas que la DSL o el cable. [27]

Los proveedores de servicios de Internet en la era de los zettabytes

La era de los zettabytes ha afectado a los proveedores de servicios de Internet (ISP) con el crecimiento del flujo de datos desde todas las direcciones. La congestión se produce cuando hay demasiado flujo de datos y la calidad del servicio (QoS) se debilita. [28] En China, algunos ISP almacenan y manejan exabytes de datos. [6] La respuesta de ciertos ISP es implementar las llamadas prácticas de gestión de red en un intento de dar cabida al aumento incesante de datos de suscriptores de Internet en sus redes. Además, las tecnologías que están implementando los ISP en sus redes están evolucionando para abordar el aumento del flujo de datos. [29]

Las prácticas de gestión de redes han generado debates relacionados con la neutralidad de la red en términos de acceso justo a todo el contenido de Internet. [29] Según la Organización Europea de Consumidores , la neutralidad de la red puede entenderse como un objetivo según el cual "todo Internet debe ser tratado de manera igualitaria, sin discriminación ni interferencias. Cuando este es el caso, los usuarios disfrutan de la libertad de acceder al contenido, los servicios y las aplicaciones de su elección, utilizando cualquier dispositivo que elijan". [30]

Según la Política de Regulación de Telecomunicaciones 2009-657 de la Comisión Canadiense de Radio, Televisión y Telecomunicaciones (CRTC), existen dos formas de prácticas de gestión de redes de Internet en Canadá. Las primeras son prácticas económicas, como los límites de datos , y las segundas son prácticas técnicas, como la limitación y el bloqueo del ancho de banda . Según la CRTC, las prácticas técnicas son implementadas por los ISP para abordar y resolver problemas de congestión en su red; sin embargo, la CRTC establece que los ISP no deben emplear las ITMP por razones preferenciales o injustamente discriminatorias. [31] [ Se necesita aclaración ]

Sin embargo, en los Estados Unidos, durante la administración de la era Obama, bajo la política 15-24 de la Comisión Federal de Comunicaciones (FCC), había tres reglas claras para proteger la neutralidad de la red: no bloquear, no limitar y no priorizar. [32] El 14 de diciembre de 2017, la FCC votó 3-2 para eliminar estas reglas, permitiendo a los ISP bloquear, limitar y dar acceso rápido al contenido en su red. [33]

En un intento de ayudar a los ISP a gestionar grandes flujos de datos en la era de los zettabytes, en 2008 Cisco presentó un nuevo enrutador, el Aggregation Services Router (ASR) 9000, que en aquel momento se suponía que podía ofrecer seis veces la velocidad de los enrutadores comparables. En teoría, el enrutador ASR 9000 podría procesar y distribuir 1,2 millones de horas de tráfico de DVD en un segundo. [34] En 2011, con la llegada de la era de los zettabytes, Cisco siguió trabajando en el ASR 9000, que ahora podría gestionar 96 terabytes por segundo, un aumento significativo respecto de los 6,4 terabytes por segundo que podía gestionar el ASR 9000 en 2008. [35] [ ¿Relevante? ]

Centros de datos

Consumo de energía

Los centros de datos intentan adaptarse a la creciente tasa de producción, distribución y almacenamiento de datos. Los centros de datos son grandes instalaciones que utilizan las empresas para almacenar inmensos conjuntos de datos en servidores . [36] En 2014 se estimó que solo en los EE. UU. había aproximadamente 3 millones de centros de datos, [37] que van desde pequeños centros ubicados en edificios de oficinas hasta grandes complejos propios. [38] Cada vez más, los centros de datos almacenan más datos que los dispositivos de los usuarios finales. Para 2020, se predice que el 61% de los datos totales se almacenarán a través de aplicaciones en la nube (centros de datos), en contraste con 2010, cuando el 62% del almacenamiento de datos estaba en dispositivos de los usuarios finales. Un aumento en los centros de datos para el almacenamiento de datos coincide con un aumento en el consumo de energía por parte de los centros de datos. [39]

En 2014, los centros de datos en los EE. UU. representaron aproximadamente el 1,8% del consumo total de electricidad, lo que equivale a 70 mil millones  de kWh . Entre 2010 y 2014, se atribuyó un aumento del 4% al consumo de electricidad de los centros de datos; se prevé que esta tendencia ascendente del 4% continúe durante el período 2014-2020. [40] En 2011, el consumo de energía de todos los centros de datos equivalió aproximadamente al 1,1% al 1,5% del consumo total de energía mundial . [41] Las tecnologías de la información y la comunicación , incluidos los centros de datos, son responsables de crear grandes cantidades de emisiones de CO 2. [42]

Las iniciativas verdes de Google

La energía que utilizan los centros de datos no se limita a alimentar sus servidores. De hecho, la mayoría de los centros de datos utilizan aproximadamente la mitad de sus costes energéticos en energía no informática, como refrigeración y conversión de energía. Los centros de datos de Google han podido reducir los costes no informáticos al 12 %. [43] Además, a partir de 2016, Google utiliza su unidad de inteligencia artificial, DeepMind, para gestionar la cantidad de electricidad utilizada para refrigerar sus centros de datos, lo que se traduce en una reducción de costes de aproximadamente el 40 % tras la implementación de DeepMind. [44] Google afirma que sus centros de datos utilizan un 50 % menos de energía que los centros de datos ordinarios. [45] [ Se necesita una mejor fuente ]

Según Urs Hölzle, vicepresidente sénior de infraestructura técnica de Google, los centros de datos de Google (así como sus oficinas) habrán alcanzado el 100% de energía renovable para sus operaciones globales a finales de 2017. Google planea lograr este hito comprando suficiente electricidad eólica y solar para compensar toda la electricidad que sus operaciones consumen a nivel mundial. El motivo de estas iniciativas ecológicas es abordar el cambio climático y la huella de carbono de Google. Además, estas iniciativas ecológicas se han vuelto más baratas, ya que el costo de la energía eólica se redujo en un 60% y el de la energía solar en un 80%. [45]

Para mejorar la eficiencia energética de un centro de datos, reducir costos y disminuir el impacto en el medio ambiente, Google proporciona 5 de las mejores prácticas que los centros de datos deben implementar: [46]

  1. Medir la efectividad del uso de energía (PUE), [ aclaración necesaria ] una relación utilizada por la industria para medir la energía utilizada para funciones no informáticas, para rastrear el uso de energía de un centro de datos.
  2. Utilice métodos de contención bien diseñados para evitar que el aire frío y caliente se mezclen. Además, utilice placas de apoyo para los espacios vacíos en el bastidor y elimine los puntos calientes.
  3. Mantenga las temperaturas del pasillo frías para ahorrar energía.
  4. Utilice métodos de enfriamiento gratuito para enfriar los centros de datos, incluido un gran depósito térmico o agua evaporada.
  5. Elimine tantos pasos de conversión de energía como sea posible para reducir las pérdidas de distribución de energía.

El proyecto Open Compute

En 2010, Facebook lanzó un nuevo centro de datos diseñado de tal manera que le permitiera ser un 38% más eficiente y un 24% más económico de construir y operar que el centro de datos promedio. Este desarrollo llevó a la formación del Open Compute Project (OCP) en 2011. [47] [48] Los miembros del OCP colaboran para construir nuevo hardware tecnológico que sea más eficiente, económico y sostenible en una era en la que los datos crecen constantemente. [48] El OCP está trabajando actualmente en varios proyectos, incluido uno centrado específicamente en los centros de datos. Este proyecto tiene como objetivo guiar la forma en que se construyen los nuevos centros de datos, pero también ayudar a los centros de datos ya existentes a mejorar la energía térmica y eléctrica, así como a maximizar el rendimiento mecánico. El proyecto de centro de datos del OCP se centra en cinco áreas: energía de las instalaciones, operaciones de las instalaciones, diseño y disposición, refrigeración de las instalaciones y supervisión y control de las instalaciones. [49]

Referencias

  1. ^ "Superando rápidamente la era de los zettabytes: ¿qué le espera a Internet?". Ahora. Desarrollado por Northrop Grumman . Consultado el 5 de julio de 2020 .
  2. ^ ab "Zettabyte". TechTerms . Consultado el 12 de enero de 2018 .
  3. ^ abcdefghij Sistemas Cisco. "La era Zettabyte: tendencias y análisis" . Consultado el 12 de octubre de 2017 .
  4. ^ abc Barnett, Thomas Jr. (9 de septiembre de 2016). "The Zettabyte Era Officially Begins (How Much is That?)" (La era de los zettabytes comienza oficialmente (¿cuánto cuesta?)). Cisco Blogs . Consultado el 4 de diciembre de 2017 .
  5. ^ ab Gantz, John; Reinsel, David (diciembre de 2012). EL UNIVERSO DIGITAL EN 2020: Big Data, mayores sombras digitales y mayor crecimiento en el Lejano Oriente (PDF) (Informe). pág. 1. Archivado desde el original (PDF) el 6 de diciembre de 2018. Consultado el 4 de diciembre de 2017 .
  6. ^ abc Xu, Zhi-Wei (marzo de 2014). "Sistemas de computación en la nube y en el mar: hacia una mejora de mil veces en el rendimiento por vatio para la era de los zettabytes". Revista de informática y tecnología . 29 (2): 177–181. doi :10.1007/s11390-014-1420-2. S2CID  14818321.
  7. ^ "La era del zettabyte ya está aquí. ¿Está preparado su centro de datos?" (PDF) . Arista . Consultado el 12 de enero de 2018 .
  8. ^ Newman, Kim (2014). "ChipScaleReview" . Consultado el 4 de diciembre de 2017 .
  9. ^ ab Coughlin, Tom (27 de noviembre de 2018). «175 Zettabytes para 2025». Forbes . Consultado el 11 de mayo de 2020 .
  10. ^ IDC Corporate (21 de enero de 2020). «Global DataSphere Forecast». Archivado desde el original el 6 de diciembre de 2021. Consultado el 20 de febrero de 2021 .
  11. ^ ab Vance, Jeff (25 de junio de 2013). "Descripción general de Big Data Analytics". Datamation . Consultado el 22 de octubre de 2017 .
  12. ^ CRTC. «Informe de seguimiento de las comunicaciones 2016: panorama del sector de las telecomunicaciones». Comisión Canadiense de Radio, Televisión y Telecomunicaciones . Archivado desde el original el 6 de noviembre de 2017. Consultado el 22 de octubre de 2017 .
  13. ^ ab OCDE. «Portal de banda ancha de la OCDE». Organización para la Cooperación y el Desarrollo Económicos . Consultado el 4 de diciembre de 2017 .
  14. ^ Chéramy, Séverine; Clermidy, Fabien; Simón, Gilles; Leduc, Patricio. "El concepto de" intercalador activo "para conexiones de chip a chip de alto rendimiento". pag. 35.
  15. ^ Althoff, Tim; Borth, Damian; Hees, Jörn; Dengel, Andreas (2014). "Análisis y pronóstico de temas de tendencia en transmisiones de medios en línea". arXiv : 1405.7452 [cs.SI].
  16. ^ Rao, Ashwin; Legout, Arnaud; Lim, Yeon-sup; Towsley, Don; et al. (2011). Escrito en Tokio, Japón. Características de red del tráfico de transmisión de video (PDF) . CONEXT 2011. Nueva York, Nueva York, EE. UU.: ACM Press. doi :10.1145/2079296.2079321. ISBN . 978-1-4503-1041-3.
  17. ^ Hildenbrand, Jerry. "¿Cuántos datos móviles consume la transmisión de contenido multimedia?". Android Central . Consultado el 4 de diciembre de 2017 .
  18. ^ Nickelsburg, Monica (22 de junio de 2016). «Estudio: Amazon Video es ahora el tercer servicio de streaming más grande, detrás de Netflix y YouTube». Geek Wire . Consultado el 4 de diciembre de 2017 .
  19. ^ Ingram, Mathew. "Netflix está ganando la carrera del streaming, pero ¿por cuánto tiempo?". Fortune . Consultado el 4 de diciembre de 2017 .
  20. ^ "¿Cómo puedo controlar la cantidad de datos que utiliza Netflix?". Netflix . Consultado el 4 de diciembre de 2017 .
  21. ^ Pariag, David; Brecht, Tim (2017). Ancho de banda de aplicaciones y tasas de flujo de 3 billones de flujos en 45 redes de operadores (PDF) . Gestión pasiva y activa. págs. 4–5 . Consultado el 4 de diciembre de 2017 .
  22. ^ Orsólico, Irena; Pevec, Darío; Suznjevic, Mirko; Skorin-Kapov, Lea (2016). "Estimación de la QoE de YouTube basada en el análisis del tráfico de red cifrado mediante aprendizaje automático" (PDF) . Talleres IEEE Globecom 2016 . IEEE . doi :10.1109/GLOCOMW.2016.7849088. ISBN 978-1-5090-2482-7. Recuperado el 4 de diciembre de 2017 .
  23. ^ Summers, Jim; Brecht, Tim; Eager, Derek; Gutarin, Alex (2016). "Caracterización de la carga de trabajo de un servidor de transmisión de vídeo de Netflix" (PDF) . Simposio internacional IEEE de 2016 sobre caracterización de la carga de trabajo . IEEE . doi :10.1109/IISWC.2016.7581265. ISBN . 978-1-5090-3896-1. Recuperado el 4 de diciembre de 2017 .
  24. ^ Chen, Steve; Hurley, Chad; Karim, Jawed. "37 datos, cifras y estadísticas alucinantes de YouTube: 2018". FortuneLords . Consultado el 20 de marzo de 2018 .
  25. ^ Brown, Kim (20 de enero de 2019). "Datos, cifras y estadísticas alucinantes de YouTube [¡¡¡Muy interesante!!!]". Top Ten Notch . Consultado el 16 de abril de 2023 .
  26. ^ Akamai. "Akamai's [state of the internet] – Q1 2017 report" (PDF) . Akamai . Consultado el 7 de diciembre de 2017 .
  27. ^ FCC (23 de junio de 2014). «Tipos de conexiones de banda ancha». Comisión Federal de Comunicaciones . Consultado el 7 de diciembre de 2017 .
  28. ^ Al-Bahadili, Hussein (2012). Simulación en el diseño y modelado de redes informáticas: uso y análisis. Referencia científica de la información. p. 282. ISBN 9781466601925. Recuperado el 5 de diciembre de 2017 .
  29. ^ ab Dutta, Soumitra; Bilbao-Osorio, Beñat. "Informe mundial sobre tecnología de la información 2012" (PDF) . En el interior . S2CID  154025136 . Consultado el 5 de diciembre de 2017 .
  30. ^ Organización Europea de Consumidores. «Ficha informativa: Las normas de neutralidad de la red de la UE» (PDF) . Consultado el 5 de diciembre de 2017 .
  31. ^ CRTC (21 de octubre de 2009). «Telecom Regulatory Policy CRTC 2009-657» (Política regulatoria de telecomunicaciones CRTC 2009-657) . Consultado el 5 de diciembre de 2017 .
  32. ^ FCC. "INFORME Y ORDEN SOBRE DEVOLUCIÓN, RESOLUCIÓN DECLARATORIA Y ORDEN" (PDF) . Consultado el 5 de diciembre de 2017 .
  33. ^ Castro, Alex (14 de diciembre de 2017). "La FCC acaba de acabar con la neutralidad de la red". The Verge . Consultado el 31 de enero de 2018 .
  34. ^ Hamblen, Matt (11 de noviembre de 2008). «Cisco presenta un enrutador para la 'Era Zettabyte'». Computer World . Consultado el 5 de diciembre de 2017 .
  35. ^ Zawacki, Neil. "Cisco presenta una forma más sencilla de crear Internet para la era de los zettabytes". Compare productos empresariales . Consultado el 5 de diciembre de 2017 .
  36. ^ Stroud, Forrest (30 de mayo de 2014). «Data Center». Biblioteca web . Consultado el 5 de diciembre de 2017 .
  37. ^ Tikoff Vargas, Maria. "10 datos que debe saber sobre los centros de datos". Oficina de Eficiencia Energética y Energía Renovable . Consultado el 6 de diciembre de 2017 .
  38. ^ Freedman, Andrew (30 de septiembre de 2014). "Hay 3 millones de centros de datos en Estados Unidos y la cifra va en aumento". Mashable . Consultado el 20 de marzo de 2018 .
  39. ^ Hormann, Peter; Campbell, Leith (2014). "Data Storage Energy Efficiency in the Zettabyte Era" (PDF) . Revista australiana de telecomunicaciones y economía digital : 51.1–52.2 . Consultado el 5 de diciembre de 2017 .
  40. ^ Koomey, Jonathan; Masanet, Eric; Horner, Nathaniel; Azevedo, Inés; Lintner, William. "Informe sobre el uso de energía del centro de datos de Estados Unidos". Laboratorio Nacional de Berkeley . Consultado el 5 de diciembre de 2017 .[ enlace muerto permanente ]
  41. ^ Rong, Huigui; Zhang, Haomin; Xiao, Sheng; Li, Canbing; Hu, Chunhua (2016). "Optimización del consumo energético de los centros de datos" (PDF) . Renewable and Sustainable Energy Reviews . 58 : 674–691. Bibcode :2016RSERv..58..674R. doi :10.1016/j.rser.2015.12.283. Archivado desde el original (PDF) el 1 de febrero de 2018 . Consultado el 5 de diciembre de 2017 .
  42. ^ "5 cosas que debes saber sobre la computación en la nube y las emisiones de GEI". carbometrix.com . 22 de marzo de 2022 . Consultado el 27 de septiembre de 2023 .
  43. ^ "Eficiencia: cómo lo hacemos". Centros de datos. Google . Consultado el 6 de diciembre de 2017 .
  44. ^ Vincent, James (21 de julio de 2016). «Google utiliza la inteligencia artificial de DeepMind para reducir las facturas de energía de los centros de datos». The Verge . Consultado el 20 de marzo de 2018 .
  45. ^ ab Hölzle, Urs. "100% renovable es solo el comienzo". Google . Consultado el 6 de diciembre de 2017 .
  46. ^ "Eficiencia: cómo otros pueden hacerlo". Centros de datos. Google . Consultado el 6 de diciembre de 2017 .
  47. ^ "Construyendo los centros de datos más eficientes del planeta". Sustentabilidad. Facebook . Consultado el 6 de diciembre de 2017 .
  48. ^ ab "Acerca de OCP". Proyecto Open Compute . Consultado el 6 de diciembre de 2017 .
  49. ^ Open Compute Project. «Datacenter». Open Compute Project . Archivado desde el original el 3 de diciembre de 2017. Consultado el 8 de diciembre de 2017 .

Lectura adicional