stringtranslate.com

Computación de utilidad

La computación de utilidad , o utilidad informática , es un modelo de prestación de servicios en el que un proveedor de servicios pone a disposición del cliente recursos informáticos y gestión de infraestructura según sea necesario, y los cobra por un uso específico en lugar de una tarifa plana. Al igual que otros tipos de computación a demanda (como la computación en red), el modelo de utilidad busca maximizar el uso eficiente de los recursos y/o minimizar los costos asociados. La utilidad es el empaquetamiento de los recursos del sistema , como la computación, el almacenamiento y los servicios, como un servicio medido. Este modelo tiene la ventaja de un costo inicial bajo o nulo para adquirir recursos informáticos; en cambio, los recursos se alquilan esencialmente.

Este reempaquetado de los servicios informáticos se convirtió en la base del cambio hacia la computación " a pedido ", el software como servicio y los modelos de computación en la nube que propagaron aún más la idea de la computación, la aplicación y la red como servicio.

Hubo cierto escepticismo inicial sobre un cambio tan significativo. [1] Sin embargo, el nuevo modelo de computación tuvo éxito y finalmente se convirtió en algo común.

IBM, HP y Microsoft fueron los primeros líderes en el nuevo campo de la informática de servicios públicos, con unidades de negocio e investigadores trabajando en los desafíos de arquitectura, pago y desarrollo del nuevo modelo informático. Google, Amazon y otros comenzaron a tomar la delantera en 2008, cuando establecieron sus propios servicios de servicios públicos para informática, almacenamiento y aplicaciones.

La computación de servicios públicos puede respaldar la computación en red, que tiene la característica de realizar cálculos muy grandes o picos repentinos de demanda que se respaldan mediante una gran cantidad de computadoras.

La "computación de utilidad" generalmente ha previsto alguna forma de virtualización para que la cantidad de almacenamiento o potencia de procesamiento disponible sea considerablemente mayor que la de una sola computadora de tiempo compartido . Para que esto sea posible, se utilizan múltiples servidores en el "back end". Estos pueden ser un clúster de computadoras dedicado específicamente construido con el propósito de ser alquilado, o incluso una supercomputadora infrautilizada . La técnica de ejecutar un solo cálculo en varias computadoras se conoce como computación distribuida .

El término " computación en red " se utiliza a menudo para describir una forma particular de computación distribuida, en la que los nodos de apoyo están distribuidos geográficamente o cruzan dominios administrativos . Para proporcionar servicios de computación de utilidad, una empresa puede "agrupar" los recursos de miembros del público para su venta, a quienes se les puede pagar con una parte de los ingresos de los clientes.

Un modelo, común entre las aplicaciones informáticas voluntarias , es el de un servidor central que distribuye tareas a los nodos participantes, a instancias de los usuarios finales aprobados (en el caso comercial, los clientes que pagan). Otro modelo, a veces llamado organización virtual (VO), [ cita requerida ] es más descentralizado, en el que las organizaciones compran y venden recursos informáticos según los necesiten o cuando estén inactivos.

La definición de "computación de utilidad" a veces se extiende a tareas especializadas, como los servicios web .

Historia

La computación de utilidad simplemente significa "Pagar y usar", en lo que respecta a la potencia de cómputo. La computación de utilidad no es un concepto nuevo, sino que tiene una historia bastante larga. Entre las primeras referencias se encuentra:

Si las computadoras del tipo que he defendido se convierten en las computadoras del futuro, entonces algún día la informática podrá ser organizada como un servicio público tal como lo es el sistema telefónico... La utilidad informática podría convertirse en la base de una nueva e importante industria.

—  John McCarthy , hablando en el centenario del MIT en 1961 [2]

IBM y otros proveedores de mainframes realizaron este tipo de negocio en las dos décadas siguientes, a menudo denominado "tiempo compartido", ofreciendo potencia informática y almacenamiento de bases de datos a bancos y otras grandes organizaciones desde sus centros de datos en todo el mundo. Para facilitar este modelo de negocio, los sistemas operativos de mainframe evolucionaron para incluir funciones de control de procesos, seguridad y medición de usuarios. La llegada de los miniordenadores cambió este modelo de negocio, al hacer que los ordenadores fueran asequibles para casi todas las empresas. A medida que Intel y AMD aumentaban la potencia de los servidores de arquitectura PC con cada nueva generación de procesadores, los centros de datos se llenaron de miles de servidores.

A finales de los años 90 resurgió la informática de servicios públicos. InsynQ, Inc. lanzó aplicaciones [a pedido] y servicios de alojamiento de escritorio en 1997 utilizando equipos HP. En 1998, HP creó la División de Informática de Servicios Públicos en Mountain View, California, y encargó a antiguos científicos informáticos de Bell Labs que comenzaran a trabajar en una planta de energía informática, incorporando múltiples servicios públicos para formar una pila de software. Se comercializaron servicios como la "facturación IP en el momento". HP presentó el Centro de Datos de Servicios Públicos en 2001. Sun anunció el servicio Sun Cloud para los consumidores en 2000. En diciembre de 2005, Alexa lanzó Alexa Web Search Platform, una herramienta de creación de búsquedas web para la que la energía subyacente es la informática de servicios públicos. Alexa cobra a los usuarios por el almacenamiento, la utilización, etc. Hay espacio en el mercado para industrias y aplicaciones específicas, así como para otras aplicaciones de nicho impulsadas por la informática de servicios públicos. Por ejemplo, PolyServe Inc. ofrece un sistema de archivos en clúster basado en hardware de almacenamiento y servidor de productos básicos que crea entornos informáticos de utilidad de alta disponibilidad para aplicaciones de misión crítica, incluidas bases de datos Oracle y Microsoft SQL Server, así como soluciones optimizadas para cargas de trabajo específicamente ajustadas para almacenamiento masivo, computación de alto rendimiento, industrias verticales como servicios financieros, procesamiento sísmico y distribución de contenido. La utilidad de base de datos y la utilidad de distribución de archivos permiten a las organizaciones de TI agregar servidores o almacenamiento de forma independiente según sea necesario, reasignar cargas de trabajo a hardware diferente y mantener el entorno sin interrupciones.

En la primavera de 2006, 3tera anunció su servicio AppLogic y, más tarde ese verano, Amazon lanzó Amazon EC2 (Elastic Compute Cloud). Estos servicios permiten el funcionamiento de aplicaciones informáticas de propósito general. Ambos se basan en el software de virtualización Xen y el sistema operativo más utilizado en los ordenadores virtuales es Linux, aunque también se admiten Windows y Solaris. Los usos más habituales incluyen aplicaciones web, SaaS, renderización y procesamiento de imágenes, pero también aplicaciones empresariales de propósito general.

Véase también

Referencias

  1. ^ Computación bajo demanda: ¿Cuáles son las probabilidades?, ZD Net, noviembre de 2002 , consultado el 3 de noviembre de 2017
  2. ^ Garfinkel, Simson (1999). Abelson, Hal (ed.). Arquitectos de la sociedad de la información, treinta y cinco años del Laboratorio de Ciencias de la Computación del MIT. Cambridge: MIT Press. p. 1. ISBN 978-0-262-07196-3.

Soporte de decisiones e inteligencia empresarial 8va edición página 680 ISBN 0-13-198660-0 

Enlaces externos