stringtranslate.com

Computación de productos básicos

La computación de consumo (también conocida como computación en clúster de consumo ) implica el uso de una gran cantidad de componentes informáticos ya disponibles para computación paralela , con el fin de obtener la mayor cantidad de computación útil a bajo costo. [1] Es computación realizada en computadoras de consumo, en lugar de en superminicomputadoras de alto costo o en computadoras boutique. Las computadoras de consumo son sistemas informáticos , fabricados por múltiples proveedores, que incorporan componentes basados ​​en estándares abiertos . [ cita requerida ]

Características

Se dice [ ¿quién lo dice? ] que estos sistemas se basan en componentes informáticos estandarizados, ya que el proceso de estandarización promueve menores costos y una menor diferenciación entre los productos de los proveedores. La estandarización y la menor diferenciación reducen el costo de cambiar de proveedor o de abandonarlo, lo que aumenta la influencia de los compradores y evita que se queden atrapados en el mismo proveedor .

Un principio rector de la informática de consumo es que es preferible tener más hardware de bajo rendimiento y bajo coste trabajando en paralelo (computación escalar) (por ejemplo, AMD x86 CISC [2] ) que tener menos elementos de hardware de alto rendimiento y alto coste [3] (por ejemplo, IBM POWER7 o SPARC [4] RISC de Sun - Oracle ). En algún momento, la cantidad de sistemas discretos en un clúster será mayor que el tiempo medio entre fallos (MTBF) para cualquier plataforma de hardware [ dudosodiscutir ] , sin importar lo fiable que sea, por lo que la tolerancia a fallos debe estar incorporada en el software de control. [5] [6] Las compras deben optimizarse en función del coste por unidad de rendimiento, no solo en función del rendimiento absoluto por CPU a cualquier coste. [ cita requerida ]

Historia

Mediados de la década de 1960 a principios de la década de 1980

Los primeros ordenadores eran grandes, caros y exclusivos. La transición hacia la informática de consumo masivo comenzó cuando DEC presentó el PDP-8 en 1965. Se trataba de un ordenador relativamente pequeño y lo suficientemente económico como para que un departamento pudiera comprarlo sin tener que convocar una reunión de la junta directiva. Toda la industria de los miniordenadores surgió para satisfacer la demanda de ordenadores "pequeños" como el PDP-8. Desafortunadamente, cada una de las distintas marcas de miniordenadores tuvo que valerse por sí sola porque no había software y muy poca compatibilidad de hardware entre las marcas.

Cuando se introdujo el primer microprocesador de propósito general en 1971 ( Intel 4004 ), inmediatamente comenzó a socavar el segmento más bajo del mercado de computadoras, reemplazando a las minicomputadoras integradas en muchos dispositivos industriales.

Este proceso se aceleró en 1977 con la introducción del primer microordenador de consumo masivo , el Apple II . Con el desarrollo de la aplicación VisiCalc en 1979, los microordenadores salieron de las fábricas y empezaron a entrar en las suites ofimáticas en grandes cantidades, pero siempre por la puerta de atrás.

Desde la década de 1980 hasta mediados de la década de 1990

El IBM PC se presentó en 1981 e inmediatamente comenzó a desplazar a los sistemas Apple II en el mundo corporativo, pero la informática comercial tal como la conocemos hoy en día comenzó realmente cuando Compaq desarrolló el primer IBM PC verdaderamente compatible . Cada vez más microcomputadoras compatibles con PC comenzaron a llegar a las grandes empresas por la puerta principal y la informática comercial estaba bien establecida.

Durante la década de 1980, las microcomputadoras comenzaron a desplazar a las computadoras más grandes de manera seria. Al principio, el precio fue la justificación clave, pero a fines de la década de 1980 y principios de la de 1990, la tecnología de semiconductores VLSI había evolucionado hasta el punto en que el rendimiento de los microprocesadores comenzó a eclipsar el rendimiento de los diseños de lógica discreta . Estos diseños tradicionales estaban limitados por problemas de retardo de la velocidad de la luz inherentes a cualquier CPU más grande que un solo chip, y el rendimiento por sí solo comenzó a impulsar el éxito de los sistemas basados ​​en microprocesadores.

A mediados de la década de 1990, casi todas las computadoras fabricadas se basaban en microprocesadores, y la mayoría de los microprocesadores de propósito general eran implementaciones de la arquitectura del conjunto de instrucciones x86 . Aunque hubo una época en la que cada fabricante de computadoras tradicionales tenía sus propios diseños patentados basados ​​en microprocesadores, hoy en día solo hay unos pocos fabricantes de sistemas informáticos no convencionales.

Hoy

En la actualidad, cada vez hay menos necesidades informáticas empresariales generales que no se puedan satisfacer con ordenadores comerciales de uso corriente. Es probable que el segmento de gama baja del género de las supermicrocomputadoras siga siendo impulsado hacia arriba por microcomputadoras comerciales cada vez más potentes.

Despliegue

Véase también

Referencias

  1. ^ John E. Dorband; Josephine Palencia Raytheon; Udaya Ranawake. "Commodity Computing Clusters at Goddard Space Flight Center" (PDF) . Goddard Space Flight Center . Consultado el 7 de marzo de 2010 . El propósito de la computación en clusters de productos básicos es utilizar una gran cantidad de componentes informáticos disponibles para la computación paralela con el fin de obtener la mayor cantidad de cálculos útiles al menor costo. La cuestión del costo de un recurso computacional es clave para la ciencia computacional y el procesamiento de datos en GSFC, como lo es en la mayoría de los otros lugares, con la diferencia de que la necesidad en GSFC excede con creces cualquier expectativa de satisfacer esa necesidad.
  2. ^ "Los servidores IBM y HP no detendrán el ataque de x86 contra Unix". 9 de febrero de 2010.
  3. ^ "Publicaciones – Investigación de Google".
  4. ^ ftp.software.ibm.com [ enlace inactivo ]
  5. ^ Barroso, Luiz André; Hölzle, Urs (2009). "El centro de datos como computadora: una introducción al diseño de máquinas a escala de almacén". Síntesis de conferencias sobre arquitectura de computadoras . 4 : 1–108. doi : 10.2200/S00193ED1V01Y200905CAC006 .
  6. ^ "Google Fellow arroja algo de luz sobre la infraestructura y la solidez ante los fallos | insideHPC.com". Archivado desde el original el 2011-08-10 . Consultado el 2010-03-06 .

Enlaces externos