stringtranslate.com

Red de área de Internet

Una red de área de Internet ( IAN ) es un concepto para una red de comunicaciones [1] que conecta puntos finales de voz y datos dentro de un entorno de nube a través de IP, reemplazando una red de área local (LAN) existente, una red de área amplia (WAN) o la red telefónica pública conmutada (PSTN).

Descripción general

Una IAN conecta de forma segura puntos finales a través de Internet pública para comunicarse e intercambiar información y datos sin estar atados a una ubicación física.

La IAN elimina un perfil geográfico para toda la red porque las aplicaciones y los servicios de comunicaciones se han virtualizado. Los puntos finales solo necesitan estar conectados a través de una conexión de banda ancha a través de Internet. A diferencia de la IAN, la LAN interconecta computadoras en un área limitada, como una casa, una escuela, un laboratorio de computación o un edificio de oficinas. La WAN también se diferencia de la IAN porque es una red que cubre un área amplia, como cualquier red de telecomunicaciones que se vincula a través de límites metropolitanos , regionales o nacionales, utilizando transportes de red privados o públicos.

Una plataforma IAN alojada en la nube por un proveedor de servicios gestionados ofrece a los usuarios un acceso seguro a la información desde cualquier lugar y en cualquier momento a través de una conexión a Internet. Los usuarios pueden acceder a servicios de telefonía, correo de voz, correo electrónico y fax desde cualquier punto final conectado. El modelo alojado reduce los gastos de TI y comunicaciones de las empresas, protege contra la pérdida de datos y el tiempo de inactividad por desastres, y obtiene un mayor rendimiento de los recursos invertidos a través de una mayor productividad de los empleados y una reducción de los costes de telecomunicaciones.

Historia

El IAN tiene sus raíces en el auge de la computación en la nube . El concepto subyacente se remonta a la década de 1950, cuando los mainframes a gran escala se pusieron a disposición en el ámbito académico y las corporaciones, a los que se podía acceder a través de clientes ligeros y terminales . [2] Debido a que era costoso comprar un mainframe, se volvió esencial encontrar formas de obtener el mayor retorno de la inversión, permitiendo que varios usuarios compartieran tanto el acceso físico al ordenador desde múltiples terminales como el tiempo de CPU , eliminando los períodos de inactividad, lo que se conoció en la industria como tiempo compartido . [3]

La creciente demanda y uso de computadoras en universidades y laboratorios de investigación a fines de la década de 1960 generó la necesidad de interconexiones de alta velocidad entre sistemas informáticos. Un informe de 1970 del Laboratorio de Radiación Lawrence que detallaba el crecimiento de su red "Octopus" dio una buena indicación de la situación. [4]

A medida que las computadoras se hicieron más comunes, los científicos y tecnólogos exploraron formas de hacer que el poder computacional a gran escala estuviera disponible para más usuarios a través del tiempo compartido, experimentando con algoritmos para proporcionar el uso óptimo de la infraestructura, la plataforma y las aplicaciones con acceso prioritario a la CPU y eficiencia para los usuarios finales.

John McCarthy opinó en la década de 1960 que "la computación algún día podría organizarse como un servicio público ". [5] Casi todas las características modernas de la computación en la nube (provisión elástica, provista como un servicio público, en línea, ilusión de suministro infinito), la comparación con la industria eléctrica y el uso de formas públicas, privadas, gubernamentales y comunitarias fueron exploradas a fondo en el libro de Douglas Parkhill de 1966, The Challenge of the Computer Utility. [6] Otros académicos han demostrado que las raíces de la computación en la nube se remontan a la década de 1950 [7] cuando el científico Herb Grosch (el autor de la ley de Grosch ) postuló que el mundo entero operaría en terminales tontas alimentadas por unos 15 grandes centros de datos. [8] Debido al costo de estas poderosas computadoras, muchas corporaciones y otras entidades podían aprovechar la capacidad informática a través del tiempo compartido, y varias organizaciones, como GEISCO de GE , la subsidiaria de IBM The Service Bureau Corporation ( SBC , fundada en 1957), Tymshare (fundada en 1966), National CSS (fundada en 1967 y comprada por Dun & Bradstreet en 1979), Dial Data (comprada por Tymshare en 1968) y Bolt, Beranek y Newman (BBN) comercializaron el tiempo compartido como una empresa comercial. [3]

El desarrollo de Internet desde un enfoque centrado en documentos a través de datos semánticos hacia cada vez más servicios se describió como una " Web dinámica ". [9] Esta contribución se centró en la necesidad de mejores metadatos para explicar los detalles de implementación y los detalles conceptuales de las aplicaciones basadas en modelos.

En la década de 1990, las empresas de telecomunicaciones que antes ofrecían principalmente circuitos de datos punto a punto dedicados comenzaron a ofrecer servicios de red privada virtual (VPN) con una calidad de servicio comparable pero a un costo mucho menor. Al cambiar el tráfico para equilibrar la utilización según lo consideraron conveniente, pudieron optimizar el uso general de su red. [10] El símbolo de la nube se utilizó para marcar el punto de demarcación entre la responsabilidad del proveedor y la responsabilidad de los usuarios. La computación en la nube extiende este límite para cubrir los servidores y la infraestructura de red.

Después de la burbuja punto-com , Amazon desempeñó un papel crucial en el desarrollo de la computación en la nube al modernizar sus centros de datos , que, como la mayoría de las redes informáticas , utilizaban tan solo el 10% de su capacidad en cualquier momento para dejar espacio para picos ocasionales. Habiendo descubierto que la nueva arquitectura de la nube resultó en mejoras significativas de la eficiencia interna mediante las cuales los pequeños y rápidos "equipos de dos pizzas" (equipos lo suficientemente pequeños como para ser alimentados con dos pizzas [11] ) podían agregar nuevas características más rápido y de manera más eficiente, Amazon inició un nuevo esfuerzo de desarrollo de productos para proporcionar computación en la nube a clientes externos y lanzó Amazon Web Services (AWS) sobre una base de computación de utilidad en 2006. [12]

A principios de 2008, Eucalyptus se convirtió en la primera plataforma de código abierto compatible con la API de AWS para implementar nubes privadas. A principios de 2008, OpenNebula , mejorado en el proyecto RESERVOIR financiado por la Comisión Europea , se convirtió en el primer software de código abierto para implementar nubes privadas e híbridas y para la federación de nubes. [13] En el mismo año, los esfuerzos se centraron en proporcionar garantías de calidad de servicio (como lo requieren las aplicaciones interactivas en tiempo real) a las infraestructuras basadas en la nube en el marco del proyecto IRMOS financiado por la Comisión Europea, lo que resultó en un entorno de nube en tiempo real. [14] A mediados de 2008, Gartner vio una oportunidad para la computación en la nube "para dar forma a la relación entre los consumidores de servicios de TI, aquellos que usan servicios de TI y aquellos que los venden" y observó que "las organizaciones están cambiando de activos de hardware y software propiedad de la empresa a modelos basados ​​en servicios por uso" de modo que el "cambio proyectado a la computación... resultará en un crecimiento dramático en productos de TI en algunas áreas y reducciones significativas en otras áreas". [15]

En 2011, se estableció RESERVOIR en Europa para crear tecnologías de código abierto que permitan a los proveedores de la nube construir una nube avanzada equilibrando cargas de trabajo, reduciendo costos y moviendo cargas de trabajo a través de ubicaciones geográficas mediante una federación de nubes. [16] Además, en 2011, IBM anunció que el marco Smarter Computing respaldaría un planeta más inteligente . [17] La ​​computación en la nube es una pieza fundamental entre los diversos componentes de la base de Smarter Computing.

En la actualidad, la disponibilidad generalizada de redes de alta capacidad, computadoras de bajo costo y dispositivos de almacenamiento y la adopción generalizada de la virtualización de hardware , la arquitectura orientada a servicios y la computación autónoma y de utilidad han llevado a un tremendo crecimiento en la computación en la nube. Los mundos virtuales [18] y las arquitecturas peer-to-peer han allanado el camino para el concepto de una IAN.

iAreaNet fue fundada en 1999 por el director ejecutivo James DeCrescenzo como una empresa llamada Internet Area Network, dedicada a proporcionar almacenamiento de datos fuera de las instalaciones y prevención de desastres antes de que existiera la nube en forma comercial ampliamente implementada. Fue pionera en la idea de una IAN. [ cita requerida ] Desde entonces, ha fortalecido sus operaciones. Ha realizado inversiones significativas en el desarrollo de una infraestructura sólida para proporcionar a las empresas una variedad de soluciones tecnológicas, incluida la iAreaOffice (patente en trámite), que comercializa el concepto de una IAN al eliminar la necesidad de una LAN, WAN o sistema telefónico tradicionales para las comunicaciones comerciales. [ cita requerida ]

Véase también

Notas

  1. ^ Winkleman, Roy. "Capítulo 1: ¿Qué es una red?". Guía para educadores sobre redes escolares . {{cite book}}: |website=ignorado ( ayuda )
  2. ^ Martínez-Mateo, J.; Munoz-Hernandez, S; Pérez-Rey, D (mayo de 2010). "A Discussion of Thin Client Technology for Computer Labs". Actas de la Multi-Conferencia sobre Desarrollos Innovadores en TIC. Universidad de Madrid. pp. 119–124. doi :10.5220/0002962901190124. ISBN 978-989-8425-15-7. Número de identificación del sujeto  5682218.
  3. ^ ab McCarthy, John. "Reminiscencias sobre la historia del tiempo compartido". Universidad de Stanford. Archivado desde el original el 20 de octubre de 2007. Consultado el 25 de septiembre de 2017 .
  4. ^ Mendicino, Samuel. Redes informáticas. 1972. págs. 95-100. http://rogerdmoore.ca/PS/OCTOA/OCTO.html Archivado el 20 de octubre de 2013 en Wayback Machine.
  5. ^ Garfinkel, Simson (3 de octubre de 2011). "The Cloud Imperative". MIT Technology Review . Archivado desde el original el 2013-04-11 . Consultado el 2013-05-31 .
  6. ^ Parkhill, Douglas F. (1966). El desafío de la utilidad informática . Addison-Wesley Publishing Company. ISBN 9780201057201.
  7. ^ Deboosere, L.; De Wachter, J.; Simoens, P.; De Turck, F.; Dhoedt, B.; Demeester, P. (2007). "Soluciones informáticas de cliente ligero en escenarios de bajo y alto movimiento". Conferencia internacional sobre redes y servicios (ICNS '07) . pág. 38. doi :10.1109/ICNS.2007.115. S2CID  17209120.
  8. ^ Gardner, W. David (12 de abril de 2005). "El autor de la Ley de Grosch sigue fuerte a los 87 años". InformationWeek . Archivado desde el original el 23 de octubre de 2012.
  9. ^ "Una historia de la Web dinámica". Pingdom . 7 de diciembre de 2007. Archivado desde el original el 20 de enero de 2018 . Consultado el 31 de mayo de 2013 .
  10. ^ "Redes privadas virtuales: cómo gestionar la horda dorada de las telecomunicaciones". Billing World . 1 de mayo de 1999.
  11. ^ Anders, George (abril de 2012). "Dentro de la máquina de ideas de Amazon: cómo Bezos decodifica al cliente". Forbes .
  12. ^ Arrington, Michael (14 de noviembre de 2006). "Entrevista con Jeff Bezos sobre Amazon Web Services". TechCrunch .
  13. ^ "Sitio web de OpenNebula". 14 de mayo de 2013.
  14. ^ "Sitio web de IRMOS". Archivado desde el original el 10 de octubre de 2018. Consultado el 31 de mayo de 2013 .
  15. ^ Plummer, Daryl (junio de 2008). "La confusión en la computación en la nube genera oportunidades". Gartner .
  16. ^ "Sitio web de RESERVOIR".
  17. ^ "Página de inicio de IBM Smarter Planet". IBM . Octubre de 2015.
  18. ^ Naone, Erica (16 de abril de 2008). "Mundos virtuales entre pares". MIT Technology Review .

Referencias

Enlaces externos