stringtranslate.com

Sistemas informáticos de quinta generación

Los sistemas informáticos de quinta generación ( FGCS ; japonés :第五世代コンピュータ, romanizadodaigosedai konpyūta ) fue una iniciativa de 10 años iniciada en 1982 por el Ministerio de Industria y Comercio Internacional (MITI) de Japón para crear computadoras que utilizaran programación lógica y computación paralela masiva. . Su objetivo era crear una "computadora que hiciera época" con un rendimiento similar al de una supercomputadora y proporcionar una plataforma para futuros desarrollos en inteligencia artificial . FGCS se adelantó a su tiempo y sus excesivas ambiciones llevaron al fracaso comercial. Sin embargo, a nivel teórico, el proyecto impulsó el desarrollo de la programación lógica concurrente .

El término "quinta generación" pretendía transmitir que el sistema era avanzado: en la historia del hardware informático , hubo cuatro "generaciones" de ordenadores. Las computadoras que usaban tubos de vacío fueron llamadas la primera generación; transistores y diodos , el segundo; circuitos integrados , el tercero; y los que utilizan microprocesadores , el cuarto. Mientras que las generaciones anteriores de computadoras se habían centrado en aumentar la cantidad de elementos lógicos en una sola CPU, se creía ampliamente en ese momento que la quinta generación recurriría a una cantidad masiva de CPU para ganar rendimiento. [ cita necesaria ]

Fondo

Desde finales de la década de 1960 hasta principios de la de 1970, se habló mucho de "generaciones" de hardware informático, que entonces solían organizarse en tres generaciones.

  1. Primera generación: Tubos de vacío termoiónicos. Mediados de la década de 1940. IBM fue pionera en la disposición de tubos de vacío en módulos enchufables. El IBM 650 fue una computadora de primera generación.
  2. Segunda generación: Transistores. 1956. Comienza la era de la miniaturización. Los transistores son mucho más pequeños que los tubos de vacío, consumen menos energía y generan menos calor. Los transistores discretos están soldados a placas de circuito, con interconexiones realizadas mediante patrones conductores protegidos con una plantilla en el reverso. El IBM 7090 era una computadora de segunda generación.
  3. Tercera generación: Circuitos integrados (chips de silicio que contienen múltiples transistores). 1964. Un ejemplo pionero es el módulo ACPX utilizado en IBM 360/91, que, al apilar capas de silicio sobre un sustrato cerámico, acomodaba más de 20 transistores por chip; Los chips podrían empaquetarse juntos en una placa de circuito para lograr densidades lógicas sin precedentes. El IBM 360/91 era un ordenador híbrido de segunda y tercera generación.

Se omiten de esta taxonomía la computadora de "generación cero" basada en engranajes metálicos (como el IBM 407 ) o relés mecánicos (como el Mark I), y las computadoras posteriores a la tercera generación basadas en sistemas integrados de muy gran escala ( VLSI) . ) circuitos.

También hubo un conjunto paralelo de generaciones para el software:

  1. Primera generación : Lenguaje de máquina .
  2. Segunda generación : Lenguajes de programación de bajo nivel como el lenguaje ensamblador .
  3. Tercera generación : Lenguajes de programación estructurados de alto nivel como C , COBOL y FORTRAN .
  4. Cuarta generación : Lenguajes de programación de alto nivel "no procedimentales" (como los lenguajes orientados a objetos). [1]

A lo largo de estas múltiples generaciones hasta la década de 1970, Japón construyó computadoras siguiendo los pasos de Estados Unidos y Gran Bretaña. A mediados de la década de 1970, el Ministerio de Comercio Internacional e Industria dejó de seguir los pasos occidentales y empezó a mirar hacia el futuro de la informática a pequeña escala. Pidieron al Centro de Desarrollo de Procesamiento de Información de Japón (JIPDEC) que indicara una serie de direcciones futuras y en 1979 ofrecieron un contrato de tres años para llevar a cabo estudios más profundos junto con la industria y el mundo académico. Fue durante este período que se empezó a utilizar el término "computadora de quinta generación".

Antes de la década de 1970, la dirección del MITI tuvo éxitos como la mejora de la industria del acero, la creación del superpetrolero , la industria automotriz, la electrónica de consumo y la memoria de las computadoras. El MITI decidió que el futuro iba a ser la tecnología de la información . Sin embargo, el idioma japonés , particularmente en su forma escrita, presentó y presenta todavía obstáculos para las computadoras. [2] Como resultado de estos obstáculos, el MITI celebró una conferencia para buscar ayuda de expertos.

Los principales campos de investigación de este proyecto inicial fueron:

Lanzamiento del proyecto

El objetivo era construir ordenadores paralelos para aplicaciones de inteligencia artificial utilizando programación lógica concurrente. El proyecto imaginó una computadora que "haría época" con un rendimiento similar al de una supercomputadora que se ejecuta sobre grandes bases de datos (a diferencia de un sistema de archivos tradicional ) utilizando un lenguaje de programación lógico para definir y acceder a los datos utilizando computación/procesamiento paralelo masivo . Imaginaron construir un prototipo de máquina con un rendimiento entre 100M y 1G LIPS, donde LIPS es una inferencia lógica por segundo. En ese momento, las máquinas de estación de trabajo típicas tenían capacidad para aproximadamente 100.000 LIPS. Propusieron construir esta máquina durante un período de diez años, tres años para I+D inicial, cuatro años para construir varios subsistemas y tres años finales para completar un sistema prototipo funcional. En 1982, el gobierno decidió seguir adelante con el proyecto y estableció el Instituto de Tecnología Informática de Nueva Generación (ICOT) mediante una inversión conjunta con varias empresas informáticas japonesas. Una vez finalizado el proyecto, el MITI consideraría una inversión en un nuevo proyecto de "sexta generación".

Ehud Shapiro capturó el fundamento y las motivaciones que impulsaron este proyecto: [3]

"Como parte del esfuerzo de Japón por convertirse en líder de la industria informática, el Instituto de Tecnología Informática de Nueva Generación ha lanzado un revolucionario plan de diez años para el desarrollo de grandes sistemas informáticos que serán aplicables a los sistemas de procesamiento de información y conocimientos. Estos de quinta generación "Las computadoras se construirán en torno a los conceptos de programación lógica. Para refutar la acusación de que Japón explota el conocimiento extranjero sin aportar nada propio, este proyecto estimulará la investigación original y pondrá sus resultados a disposición de la comunidad científica internacional."

Programación lógica

El objetivo definido por el proyecto FGCS era desarrollar "sistemas de procesamiento de información del conocimiento" (es decir, inteligencia artificial aplicada ). La herramienta elegida para implementar este objetivo fue la programación lógica . Enfoque de programación lógica caracterizado por Maarten Van Emden – uno de sus fundadores – como: [4]

Más técnicamente, se puede resumir en dos ecuaciones:

Los axiomas típicamente utilizados son axiomas universales de forma restringida, llamados cláusulas de Horn o cláusulas definidas . El enunciado demostrado en un cálculo es un enunciado existencial. [ cita necesaria ] La prueba es constructiva y proporciona valores para las variables cuantificadas existencialmente: estos valores constituyen el resultado del cálculo.

Se pensaba que la programación lógica era algo que unificaba varios gradientes de la informática ( ingeniería de software , bases de datos , arquitectura informática e inteligencia artificial ). Parecía que la programación lógica era una conexión clave que faltaba entre la ingeniería del conocimiento y las arquitecturas informáticas paralelas.

Resultados

Después de haber influido en el campo de la electrónica de consumo durante los años 1970 y en el mundo del automóvil durante los años 1980, los japoneses habían desarrollado una sólida reputación. El lanzamiento del proyecto FGCS difundió la creencia de que la computación paralela era el futuro de todas las mejoras de rendimiento, generando una ola de aprensión en el campo de la informática. Pronto se crearon proyectos paralelos en los EE.UU. como Strategic Computing Initiative y Microelectronics and Computer Technology Corporation (MCC), en el Reino Unido como Alvey y en Europa como el Programa Estratégico Europeo de Investigación en Tecnologías de la Información (ESPRIT). como el Centro Europeo de Investigación de la Industria Informática (ECRC) en Munich , una colaboración entre ICL en Gran Bretaña, Bull en Francia y Siemens en Alemania.

El proyecto se desarrolló entre 1982 y 1994 y gastó un poco menos de 57 mil millones de yenes (alrededor de 320 millones de dólares estadounidenses) en total. [5] Después del Proyecto FGCS, el MITI dejó de financiar proyectos de investigación informática a gran escala y el impulso de investigación desarrollado por el Proyecto FGCS se disipó. Sin embargo, MITI/ICOT se embarcó en un proyecto de red neuronal [ ¿cuál? ] que algunos denominaron Proyecto de Sexta Generación en los años 1990, con un nivel de financiación similar. [6] El gasto anual fue inferior al 1% de todo el gasto en I+D de la industria de equipos electrónicos y de comunicaciones. Por ejemplo, el año de mayor gasto del proyecto fue de 7,2 millones de yenes en 1991, pero sólo IBM gastó 1,5 mil millones de dólares (370 mil millones de yenes) en 1982, mientras que la industria gastó 2,150 mil millones de yenes en 1990. [5]

Programación lógica concurrente

En 1982, durante una visita al ICOT, Ehud Shapiro inventó Concurrent Prolog , un novedoso lenguaje de programación que integraba programación lógica y programación concurrente. Concurrent Prolog es un lenguaje orientado a procesos , que incorpora la sincronización del flujo de datos y la indeterminación del comando protegido como sus mecanismos de control básicos. Shapiro describió el lenguaje en un Informe marcado como Informe Técnico ICOT 003, [7] que presentaba un intérprete de Prolog Concurrente escrito en Prolog. El trabajo de Shapiro en Concurrent Prolog inspiró un cambio en la dirección del FGCS de centrarse en la implementación paralela de Prolog a centrarse en la programación lógica concurrente como base de software para el proyecto. [3] También inspiró el lenguaje de programación de lógica concurrente Guarded Horn Clauses (GHC) de Ueda, que fue la base de KL1 , el lenguaje de programación que finalmente fue diseñado e implementado por el proyecto FGCS como su lenguaje de programación central.

El proyecto FGCS y sus hallazgos contribuyeron en gran medida al desarrollo del campo de la programación lógica concurrente. El proyecto produjo una nueva generación de investigadores japoneses prometedores.

Fracaso comercial

Finalmente se produjeron cinco máquinas de inferencia paralelas (PIM) en funcionamiento: PIM/m, PIM/p, PIM/i, PIM/k, PIM/c. El proyecto también produjo aplicaciones para ejecutar en estos sistemas, como el sistema de gestión de bases de datos paralelas Kappa, el sistema de razonamiento jurídico HELIC-II y el demostrador de teoremas automatizado MGTP , así como aplicaciones bioinformáticas.

El proyecto FGCS no tuvo éxito comercial por razones similares a las de las empresas de máquinas Lisp y Thinking Machines . La arquitectura informática altamente paralela finalmente fue superada en velocidad por hardware menos especializado (por ejemplo, estaciones de trabajo Sun y máquinas Intel x86 ).

Un problema principal fue la elección de la programación lógica concurrente como puente entre la arquitectura informática paralela y el uso de la lógica como lenguaje de representación del conocimiento y resolución de problemas para aplicaciones de IA. Esto nunca sucedió limpiamente; Se desarrollaron varios lenguajes, todos con sus propias limitaciones. En particular, la característica de elección comprometida de la programación lógica de restricciones concurrentes interfirió con la semántica lógica de los lenguajes. [8] El proyecto encontró que los beneficios de la programación lógica se negaban en gran medida al utilizar una elección comprometida. [ cita necesaria ]

Otro problema fue que el rendimiento de la CPU existente superó rápidamente las barreras que los expertos anticiparon en la década de 1980, y el valor de la computación paralela cayó hasta el punto de que durante algún tiempo se utilizó sólo en situaciones específicas. Aunque se diseñaron y construyeron varias estaciones de trabajo de capacidad creciente durante la vida útil del proyecto, en general pronto fueron superadas en rendimiento por las unidades "listas para usar" disponibles comercialmente.

El proyecto tampoco logró incorporar innovaciones externas. Durante su vida útil, las GUI se convirtieron en algo habitual en las computadoras; Internet permitió que se distribuyeran bases de datos almacenadas localmente; e incluso proyectos de investigación simples proporcionaron mejores resultados en el mundo real en minería de datos. [ cita necesaria ]

Las estaciones de trabajo FGCS no tenían ningún atractivo en un mercado donde los sistemas de propósito general podían reemplazarlas y superarlas. Esto es paralelo al mercado de máquinas Lisp, donde sistemas basados ​​en reglas como CLIPS podrían ejecutarse en computadoras de uso general, haciendo innecesarias las costosas máquinas Lisp. [9]

Adelantado a su tiempo

En resumen, el proyecto de Quinta Generación fue revolucionario y logró algunas investigaciones básicas que anticiparon futuras direcciones de investigación. Se publicaron muchos artículos y patentes. El MITI estableció un comité que evaluó el desempeño del Proyecto FGCS como una contribución importante a la informática, en particular la eliminación de obstáculos en el software de procesamiento paralelo y la realización de procesamiento interactivo inteligente basado en grandes bases de conocimientos. Sin embargo, el comité estuvo muy parcial al justificar el proyecto, por lo que esto exagera los resultados reales. [5]

Muchos de los temas vistos en el proyecto de Quinta Generación están siendo reinterpretados ahora en las tecnologías actuales, ya que las limitaciones de hardware previstas en los años 1980 finalmente se alcanzaron en los años 2000. Cuando las velocidades de reloj de las CPU comenzaron a moverse hacia el rango de 3 a 5 GHz, la disipación de energía de la CPU y otros problemas se volvieron más importantes. La capacidad de la industria para producir sistemas de CPU única cada vez más rápidos (vinculados a la Ley de Moore sobre la duplicación periódica del número de transistores) comenzó a verse amenazada.

A principios del siglo XXI, comenzaron a proliferar muchos tipos de computación paralela , incluidas arquitecturas multinúcleo en el extremo inferior y procesamiento paralelo masivo en el extremo superior. Las máquinas de consumo y las consolas de juegos comunes comenzaron a tener procesadores paralelos como Intel Core , AMD K10 y Cell . Empresas de tarjetas gráficas como Nvidia y AMD comenzaron a introducir grandes sistemas paralelos como CUDA y OpenCL .

Parece, sin embargo, que estas nuevas tecnologías no citan las investigaciones del FGCS. No está claro si se aprovechó el FGCS para facilitar estos desarrollos de manera significativa. No se ha demostrado ningún impacto significativo del FGCS en la industria informática. [ cita necesaria ]

Referencias

  1. ^ "Generaciones de software de Roger Clarke".
  2. ^ J. Marshall Unger, La falacia de la quinta generación (Nueva York: Oxford University Press, 1987)
  3. ^ ab Shapiro, Ehud Y. (1983). "El proyecto de quinta generación: un informe de viaje". Comunicaciones de la ACM . 26 (9): 637–641. doi : 10.1145/358172.358179 . S2CID  5955109.
  4. ^ Van Emden, Maarten H. y Robert A. Kowalski. "La semántica de la lógica de predicados como lenguaje de programación". Revista de la ACM 23.4 (1976): 733-742.
  5. ^ abc Odagiri, Hiroyuki; Nakamura, Yoshiaki; Shibuya, Minorul (1997). "Consorcios de investigación como vehículo para la investigación básica: el caso de un proyecto informático de quinta generación en Japón". Política de investigación . 26 (2): 191–207. doi :10.1016/S0048-7333(97)00008-5.
  6. ^ MIZOGUCHI, FUMIO (14 de diciembre de 2013). Prolog y sus aplicaciones: una perspectiva japonesa. Saltador. pag. IX. ISBN 978-1-4899-7144-9.
  7. ^ Shapiro E. Un subconjunto de Concurrent Prolog y su intérprete, ICOT Technical Report TR-003, Institute for New Generation Computer Technology, Tokio, 1983. También en Concurrent Prolog: Collected Papers, E. Shapiro (ed.), MIT Press, 1987, Capítulo 2.
  8. ^ Carl Hewitt. Robustez de inconsistencia en la programación lógica ArXiv 2009.
  9. ^ Hendler, James (1 de marzo de 2008). "Evitar otro invierno de IA" (PDF) . Sistemas inteligentes IEEE . 23 (2): 2–4. doi :10.1109/MIS.2008.20. S2CID  35914860. Archivado desde el original (PDF) el 12 de febrero de 2012.