stringtranslate.com

Historia del hardware informático

La historia del hardware informático abarca los desarrollos desde los primeros dispositivos simples para ayudar al cálculo hasta las computadoras modernas .

Las primeras ayudas para el cálculo fueron dispositivos puramente mecánicos que requerían que el operador estableciera los valores iniciales de una operación aritmética elemental y luego manipulara el dispositivo para obtener el resultado. Más tarde, las computadoras representaban números en forma continua (por ejemplo, la distancia a lo largo de una escala, la rotación de un eje o un voltaje ). Los números también podían representarse en forma de dígitos, manipulados automáticamente por un mecanismo. Aunque este enfoque generalmente requería mecanismos más complejos, aumentó en gran medida la precisión de los resultados. El desarrollo de la tecnología de transistores y luego el chip de circuito integrado condujeron a una serie de avances, comenzando con las computadoras de transistores y luego las computadoras de circuito integrado, lo que hizo que las computadoras digitales reemplazaran en gran medida a las computadoras analógicas . Luego, la integración a gran escala (LSI) de semiconductores de óxido de metal (MOS) permitió la memoria de semiconductores y el microprocesador , lo que condujo a otro avance clave, la computadora personal (PC) miniaturizada, en la década de 1970. El costo de las computadoras se fue haciendo gradualmente tan bajo que las computadoras personales en la década de 1990, y luego las computadoras móviles ( teléfonos inteligentes y tabletas ) en la década de 2000, se volvieron omnipresentes.

Primeros dispositivos

Antiguo y medieval

Se cree que el hueso de Ishango es un palo de conteo del Paleolítico. [a]
Suanpan (El número representado en este ábaco es 6.302.715.408.)

Los dispositivos se han utilizado para ayudar al cálculo durante miles de años, principalmente usando correspondencia uno a uno con los dedos . El primer dispositivo de conteo probablemente fue una forma de palo de conteo . El hueso de Lebombo de las montañas entre Eswatini y Sudáfrica puede ser el artefacto matemático más antiguo conocido. [2] Data de 35.000 a. C. y consta de 29 muescas distintas que se cortaron deliberadamente en el peroné de un babuino . [3] [4] Las ayudas posteriores para mantener registros en todo el Creciente Fértil incluyeron cálculos (esferas de arcilla, conos, etc.) que representaban recuentos de elementos, probablemente ganado o granos, sellados en recipientes huecos de arcilla sin cocer. [b] [6] [c] El uso de varillas de conteo es un ejemplo. El ábaco se utilizó temprano para tareas aritméticas. Lo que ahora llamamos ábaco romano se utilizó en Babilonia ya en c.  2700-2300 a. C. Desde entonces, se han inventado muchas otras formas de tablas o tableros de cálculo. En una casa de contabilidad europea medieval , se colocaba un mantel a cuadros sobre una mesa y se movían marcadores sobre él según ciertas reglas, como ayuda para calcular sumas de dinero.

En la Antigüedad y la Edad Media se construyeron varias computadoras analógicas para realizar cálculos astronómicos, entre ellas el astrolabio y el mecanismo de Anticitera del mundo helenístico (c. 150-100 a. C.). [8] En el Egipto romano , Herón de Alejandría (c. 10-70 d. C.) fabricó dispositivos mecánicos, entre ellos autómatas y un carro programable . [9] La flauta automática a vapor descrita en el Libro de los ingeniosos dispositivos (850) de los hermanos persa-bagdadíes Banū Mūsā puede haber sido el primer dispositivo programable. [10]

Otros dispositivos mecánicos tempranos utilizados para realizar uno u otro tipo de cálculos incluyen el planisferio y otros dispositivos de computación mecánica inventados por Al-Biruni (c. 1000 d. C.); el ecuador y el astrolabio universal independiente de la latitud de Al-Zarqali (c. 1015 d. C.); las computadoras analógicas astronómicas de otros astrónomos e ingenieros musulmanes medievales ; y la torre del reloj astronómico de Su Song (1094) durante la dinastía Song . El reloj del castillo , un reloj astronómico mecánico propulsado por energía hidroeléctrica inventado por Ismail al-Jazari en 1206, fue la primera computadora analógica programable . [ disputado (por: La fuente citada no respalda la afirmación, y la afirmación es engañosa.) – discutir ] [11] [12] [13] Ramon Llull inventó el Círculo Luliano: una máquina nocional para calcular respuestas a preguntas filosóficas (en este caso, relacionadas con el cristianismo) mediante combinatoria lógica. Esta idea fue retomada por Leibniz siglos más tarde, y es por tanto uno de los elementos fundadores de la informática y la ciencia de la información .

Herramientas de cálculo del Renacimiento

El matemático y físico escocés John Napier descubrió que la multiplicación y la división de números se podían realizar mediante la suma y la resta, respectivamente, de los logaritmos de esos números. Al producir las primeras tablas logarítmicas, Napier necesitaba realizar muchas multiplicaciones tediosas. Fue en ese momento cuando diseñó sus " huesos de Napier ", un dispositivo similar a un ábaco que simplificaba enormemente los cálculos que implicaban multiplicación y división. [d]

Una regla de cálculo moderna

Como los números reales pueden representarse como distancias o intervalos en una línea, la regla de cálculo se inventó en la década de 1620, poco después del trabajo de Napier, para permitir que las operaciones de multiplicación y división se llevaran a cabo significativamente más rápido de lo que era posible anteriormente. [14] Edmund Gunter construyó un dispositivo de cálculo con una sola escala logarítmica en la Universidad de Oxford . Su dispositivo simplificó enormemente los cálculos aritméticos, incluidas la multiplicación y la división. William Oughtred mejoró mucho esto en 1630 con su regla de cálculo circular. A esto le siguió la regla de cálculo moderna en 1632, esencialmente una combinación de dos reglas de Gunter , sostenidas juntas con las manos. Las reglas de cálculo fueron utilizadas por generaciones de ingenieros y otros trabajadores profesionales involucrados en las matemáticas, hasta la invención de la calculadora de bolsillo . [15]

Calculadoras mecánicas

En 1609 Guidobaldo del Monte fabricó un multiplicador mecánico para calcular fracciones de grado. Basado en un sistema de cuatro engranajes, la rotación de un índice en un cuadrante corresponde a 60 rotaciones de otro índice en un cuadrante opuesto. [16] Gracias a esta máquina se pueden evitar errores en el cálculo de primero, segundo, tercero y cuarto de grado. Guidobaldo es el primero en documentar el uso de engranajes para el cálculo mecánico.

En 1623, Wilhelm Schickard , un erudito alemán , diseñó una máquina calculadora que combinaba una forma mecanizada de las varillas de Napier con la primera máquina sumadora mecánica del mundo incorporada en la base. Debido a que utilizaba un engranaje de un solo diente, había circunstancias en las que su mecanismo de transporte se atascaba. [17] Un incendio destruyó al menos una de las máquinas en 1624 y se cree que Schickard estaba demasiado desanimado como para construir otra.

Vista desde atrás de la calculadora de Pascal . Pascal inventó su máquina en 1642.

En 1642, cuando todavía era un adolescente, Blaise Pascal comenzó a trabajar de manera pionera en el desarrollo de máquinas calculadoras y, tras tres años de esfuerzo y 50 prototipos [18], inventó una calculadora mecánica . [19] [20] En los diez años siguientes construyó veinte de estas máquinas (llamadas calculadora de Pascal o Pascalina). [21] Han sobrevivido nueve Pascalinas, la mayoría de las cuales se exhiben en museos europeos. [e] Existe un debate continuo sobre si se debe considerar a Schickard o a Pascal como el "inventor de la calculadora mecánica" y la variedad de cuestiones a considerar se analiza en otra parte. [22]

Un conjunto de tablas de cálculo de John Napier de alrededor de 1680

Gottfried Wilhelm von Leibniz inventó el computador escalonado y su famoso mecanismo de tambor escalonado alrededor de 1672. Intentó crear una máquina que pudiera usarse no solo para sumar y restar, sino que también usara un carro móvil para permitir la multiplicación y la división. Leibniz dijo una vez: "Es indigno de hombres excelentes perder horas como esclavos en el trabajo del cálculo que podría relegarse con seguridad a cualquier otra persona si se usaran máquinas". [23] Sin embargo, Leibniz no incorporó un mecanismo de acarreo completamente exitoso. Leibniz también describió el sistema numérico binario , [24] un ingrediente central de todas las computadoras modernas. Sin embargo, hasta la década de 1940, muchos diseños posteriores (incluidas las máquinas de Charles Babbage de 1822 e incluso ENIAC de 1945) se basaron en el sistema decimal. [f]

Detalle de un aritmómetro construido antes de 1851. El cursor multiplicador de un dígito (parte superior de marfil) es el cursor más a la izquierda.

Alrededor de 1820, Charles Xavier Thomas de Colmar creó lo que durante el resto del siglo se convertiría en la primera calculadora mecánica exitosa producida en masa, el Aritmómetro de Thomas . Podía usarse para sumar y restar, y con un carro móvil, el operador también podía multiplicar y dividir mediante un proceso de multiplicación larga y división larga. [25] Utilizaba un tambor escalonado similar en concepción al inventado por Leibniz. Las calculadoras mecánicas siguieron utilizándose hasta la década de 1970.

Procesamiento de datos de tarjetas perforadas

En 1804, el tejedor francés Joseph Marie Jacquard desarrolló un telar en el que el patrón que se tejía se controlaba mediante una cinta de papel construida a partir de tarjetas perforadas . La cinta de papel podía cambiarse sin cambiar el diseño mecánico del telar. Este fue un logro histórico en la capacidad de programación. Su máquina fue una mejora con respecto a los telares de tejido similares. Las tarjetas perforadas fueron precedidas por bandas perforadas, como en la máquina propuesta por Basile Bouchon . Estas bandas inspirarían el registro de información para pianos automáticos y, más recientemente, máquinas herramienta de control numérico .

Máquinas de contabilidad de tarjetas perforadas de IBM , 1936

A finales de la década de 1880, el estadounidense Herman Hollerith inventó el almacenamiento de datos en tarjetas perforadas que luego podían ser leídas por una máquina. [26] Para procesar estas tarjetas perforadas, inventó el tabulador y la máquina perforadora . Sus máquinas usaban relés y contadores electromecánicos . [27] El método de Hollerith se utilizó en el censo de los Estados Unidos de 1890. Ese censo se procesó dos años más rápido que el censo anterior. [28] La empresa de Hollerith finalmente se convirtió en el núcleo de IBM .

En 1920, las máquinas tabuladoras electromecánicas podían sumar, restar e imprimir totales acumulados. [29] Las funciones de las máquinas se dirigían insertando docenas de puentes de cable en paneles de control extraíbles . Cuando Estados Unidos instituyó la Seguridad Social en 1935, los sistemas de tarjetas perforadas de IBM se utilizaron para procesar los registros de 26 millones de trabajadores. [30] Las tarjetas perforadas se volvieron omnipresentes en la industria y el gobierno para la contabilidad y la administración.

Los artículos de Leslie Comrie sobre métodos de tarjetas perforadas [31] y la publicación de WJ Eckert de Punched Card Methods in Scientific Computation en 1940, describieron técnicas de tarjetas perforadas lo suficientemente avanzadas para resolver algunas ecuaciones diferenciales o realizar multiplicaciones y divisiones utilizando representaciones de punto flotante, todo en tarjetas perforadas y máquinas de registro unitario . [32] Dichas máquinas se utilizaron durante la Segunda Guerra Mundial para el procesamiento estadístico criptográfico, así como para una gran cantidad de usos administrativos. [ cita requerida ] La Oficina de Computación Astronómica de la Universidad de Columbia realizó cálculos astronómicos que representan el estado del arte en computación . [33] [34]

Calculadoras

La calculadora Curta también puede realizar multiplicaciones y divisiones.

En el siglo XX, las calculadoras mecánicas, las cajas registradoras, las máquinas de contabilidad, etc., se rediseñaron para utilizar motores eléctricos, con la posición de los engranajes como representación del estado de una variable. La palabra "computadora" era un título laboral asignado principalmente a las mujeres que utilizaban estas calculadoras para realizar cálculos matemáticos. [35] En la década de 1920, el interés del científico británico Lewis Fry Richardson en la predicción del tiempo lo llevó a proponer computadoras humanas y análisis numérico para modelar el clima; hasta el día de hoy, se necesitan las computadoras más poderosas de la Tierra para modelar adecuadamente su clima utilizando las ecuaciones de Navier-Stokes . [36]

Empresas como Friden , Marchant Calculator y Monroe fabricaron calculadoras mecánicas de escritorio a partir de la década de 1930 que podían sumar, restar, multiplicar y dividir. [37] En 1948, el inventor austríaco Curt Herzstark presentó la Curta . Era una calculadora mecánica pequeña, accionada manualmente y, como tal, descendiente del Stepped Reckoner de Gottfried Leibniz y del Aritmómetro de Thomas .

La primera calculadora de escritorio totalmente electrónica del mundo fue la británica Bell Punch ANITA , lanzada en 1961. [38] [39] Utilizaba tubos de vacío , tubos de cátodo frío y Dekatrons en sus circuitos, con 12 tubos "Nixie" de cátodo frío para su pantalla. La ANITA se vendió bien ya que era la única calculadora de escritorio electrónica disponible, y era silenciosa y rápida. La tecnología de tubo fue reemplazada en junio de 1963 por la Friden EC-130 fabricada en EE. UU., que tenía un diseño totalmente de transistores, una pila de cuatro números de 13 dígitos mostrados en un CRT de 5 pulgadas (13 cm) e introdujo la notación polaca inversa (RPN).

Primer dispositivo informático de propósito general propuesto

Una parte de la máquina diferencial de Babbage

Charles Babbage , un ingeniero mecánico y erudito inglés , originó el concepto de una computadora programable, aunque ninguno de sus diseños se implementó con éxito hasta 1991. A menudo considerado como el " padre de la computadora ", [40] conceptualizó e inventó la primera computadora mecánica a principios del siglo XIX. Después de trabajar en su revolucionaria máquina diferencial , diseñada para ayudar en los cálculos de navegación, en 1833 se dio cuenta de que era posible un diseño mucho más general, una máquina analítica . La entrada de programas y datos se proporcionaría a la máquina a través de tarjetas perforadas , un método que se utilizaba en ese momento para dirigir telares mecánicos como el telar Jacquard . Para la salida, la máquina tendría una impresora, un trazador de curvas y una campana. La máquina también podría perforar números en tarjetas para leerlos más tarde. Empleaba aritmética de punto fijo de base 10 ordinaria.

El motor incorporó una unidad lógica aritmética , flujo de control en forma de ramificaciones condicionales y bucles , y memoria integrada , lo que lo convirtió en el primer diseño de una computadora de propósito general que podría describirse en términos modernos como Turing-completa . [41] [42]

Debía existir un almacén (es decir, una memoria) capaz de almacenar 1.000 números de 50 dígitos decimales cada uno (aproximadamente 16,6  kB ). Una unidad aritmética (el "molino") sería capaz de realizar las cuatro operaciones aritméticas , además de comparaciones y opcionalmente raíces cuadradas . Inicialmente (1838) fue concebido como una máquina diferencial curvada sobre sí misma, en un diseño generalmente circular, con el almacén largo saliendo hacia un lado. Dibujos posteriores (1858) muestran un diseño de cuadrícula regularizada. [43] [44] Al igual que la unidad central de procesamiento (CPU) en una computadora moderna, el molino dependería de sus propios procedimientos internos, aproximadamente equivalentes al microcódigo en las CPU modernas, que se almacenarían en forma de clavijas insertadas en tambores giratorios llamados "barriles", para llevar a cabo algunas de las instrucciones más complejas que el programa del usuario pudiera especificar. [45]

Modelo de prueba de una parte de la máquina analítica construida por Babbage, tal como se exhibe en el Museo de Ciencias de Londres

El lenguaje de programación que emplearían los usuarios era similar a los lenguajes ensambladores actuales . Eran posibles los bucles y las ramificaciones condicionales, por lo que el lenguaje tal como se concibió habría sido Turing-completo, tal como lo definió posteriormente Alan Turing . Se utilizaban tres tipos diferentes de tarjetas perforadas: una para operaciones aritméticas, otra para constantes numéricas y otra para operaciones de carga y almacenamiento, transfiriendo números desde la memoria a la unidad aritmética o viceversa. Había tres lectores separados para los tres tipos de tarjetas.

El proyecto se vio frenado por diversos problemas, entre ellos disputas con el jefe de máquinas que fabricaba las piezas para él. Todas las piezas de su máquina tenían que fabricarse a mano, lo que suponía un gran problema para una máquina con miles de piezas. Finalmente, el proyecto se disolvió con la decisión del gobierno británico de dejar de financiarlo. El fracaso de Babbage a la hora de completar la máquina analítica se puede atribuir principalmente a dificultades no sólo de política y financiación, sino también a su deseo de desarrollar un ordenador cada vez más sofisticado y de avanzar más rápido que cualquier otro. Ada Lovelace tradujo y añadió notas al " Esbozo de la máquina analítica " de Luigi Federico Menabrea . Esta parece ser la primera descripción publicada de la programación, por lo que Ada Lovelace es considerada ampliamente como la primera programadora de ordenadores. [46]

Después de Babbage, aunque al principio desconocía su trabajo anterior, estuvo Percy Ludgate , empleado de un comerciante de cereales en Dublín, Irlanda. Él diseñó de forma independiente una computadora mecánica programable, que describió en una obra que se publicó en 1909. [47] [48]

Otros dos inventores, Leonardo Torres Quevedo y Vannevar Bush , también siguieron la investigación basada en el trabajo de Babbage. En 1914, Torres publicó Ensayos sobre la automática , donde escribió sobre los esfuerzos de Babbage por construir una máquina analítica mecánica y diseñó una máquina analítica electromecánica que debía ser controlada por un programa de solo lectura. El artículo también introdujo la idea de la aritmética de punto flotante . [49] [50] [51] En 1920, presentó en una conferencia en París el Aritmómetro electromecánico , una unidad aritmética en la que se podían escribir comandos y los resultados imprimirse automáticamente. [52] El artículo de Bush Instrumental Analysis (1936) discutió el uso de las máquinas de tarjetas perforadas IBM existentes para implementar el diseño de Babbage. En el mismo año comenzó el proyecto Rapid Arithmetical Machine para investigar los problemas de la construcción de una computadora digital electrónica. [53]

Computadoras analógicas

El tercer diseño de máquina de predicción de mareas de Sir William Thomson , 1879-1881

En la primera mitad del siglo XX, muchos consideraban que las computadoras analógicas eran el futuro de la informática. Estos dispositivos utilizaban los aspectos continuamente cambiantes de los fenómenos físicos, como las cantidades eléctricas , mecánicas o hidráulicas , para modelar el problema que se estaba resolviendo, en contraste con las computadoras digitales que representaban cantidades variables simbólicamente, a medida que cambiaban sus valores numéricos. Como una computadora analógica no utiliza valores discretos, sino valores continuos, los procesos no se pueden repetir de manera confiable con equivalencia exacta, como sí se puede hacer con las máquinas de Turing . [54]

El primer ordenador analógico moderno fue una máquina de predicción de mareas , inventada por Sir William Thomson , más tarde Lord Kelvin, en 1872. Utilizaba un sistema de poleas y cables para calcular automáticamente los niveles de marea previstos para un período determinado en una ubicación particular y era de gran utilidad para la navegación en aguas poco profundas. Su dispositivo fue la base para posteriores desarrollos en computación analógica. [55]

El analizador diferencial , una computadora analógica mecánica diseñada para resolver ecuaciones diferenciales mediante integración utilizando mecanismos de rueda y disco, fue ideado en 1876 por James Thomson , hermano del más famoso Lord Kelvin. Exploró la posible construcción de tales calculadoras, pero se vio obstaculizado por el par de salida limitado de los integradores de bolas y discos . [56] En un analizador diferencial, la salida de un integrador impulsaba la entrada del siguiente integrador, o una salida gráfica.

Una notable serie de máquinas calculadoras analógicas fueron desarrolladas por Leonardo Torres Quevedo desde 1895, incluyendo una que era capaz de calcular las raíces de polinomios arbitrarios de orden ocho, incluidos los complejos, con una precisión de hasta milésimas. [57] [58] [59]

Una mira de deriva Mk. I. La palanca justo delante de los dedos del apuntador de bombas establece la altitud, las ruedas cerca de sus nudillos establecen el viento y la velocidad aerodinámica.

Un avance importante en la computación analógica fue el desarrollo de los primeros sistemas de control de tiro para el tiro de artillería de barcos de largo alcance . Cuando los alcances de los cañones aumentaron drásticamente a fines del siglo XIX, ya no era una simple cuestión de calcular el punto de mira adecuado, dados los tiempos de vuelo de los proyectiles. Varios observadores a bordo del barco retransmitirían las mediciones de distancia y las observaciones a una estación de trazado central. Allí, los equipos de dirección de tiro introducían la ubicación, la velocidad y la dirección del barco y su objetivo, así como varios ajustes para el efecto Coriolis , los efectos del clima en el aire y otros ajustes; la computadora luego generaría una solución de disparo, que se enviaría a las torretas para el tiro. En 1912, el ingeniero británico Arthur Pollen desarrolló la primera computadora analógica mecánica alimentada eléctricamente (llamada en ese momento el Reloj Argo). [ cita requerida ] Fue utilizado por la Armada Imperial Rusa en la Primera Guerra Mundial . [ cita requerida ] El sistema alternativo de control de tiro de la Tabla Dreyer se instaló en los buques capitales británicos a mediados de 1916.

También se utilizaron dispositivos mecánicos para mejorar la precisión de los bombardeos aéreos . Drift Sight fue la primera ayuda de este tipo, desarrollada por Harry Wimperis en 1916 para el Royal Naval Air Service ; medía la velocidad del viento desde el aire y utilizaba esa medición para calcular los efectos del viento en la trayectoria de las bombas. El sistema se mejoró más tarde con el Course Setting Bomb Sight , y alcanzó su apogeo con las miras para bombas de la Segunda Guerra Mundial , la mira para bombas Mark XIV ( RAF Bomber Command ) y la Norden [60] ( United States Army Air Force ).

El arte de la computación analógica mecánica alcanzó su apogeo con el analizador diferencial , [61] construido por HL Hazen y Vannevar Bush en el MIT a partir de 1927, que se basó en los integradores mecánicos de James Thomson y los amplificadores de par inventados por HW Nieman. Se construyeron una docena de estos dispositivos antes de que se hiciera evidente su obsolescencia; el más potente se construyó en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania , donde se construyó el ENIAC .

Helmut Hölzer construyó en 1942 un ordenador analógico totalmente electrónico en el Centro de Investigación del Ejército de Peenemünde . [62] [63] [64]

En la década de 1950, el éxito de las computadoras electrónicas digitales había significado el fin de la mayoría de las máquinas de computación analógica, pero las computadoras analógicas híbridas , controladas por electrónica digital, siguieron utilizándose sustancialmente durante las décadas de 1950 y 1960, y más tarde en algunas aplicaciones especializadas.

El advenimiento de la computadora digital

Partes de cuatro de las primeras computadoras, 1962. De izquierda a derecha: placa ENIAC , placa EDVAC , placa ORDVAC y placa BRLESC -I, mostrando la tendencia hacia la miniaturización .

El principio de la computadora moderna fue descrito por primera vez por el científico informático Alan Turing , quien expuso la idea en su artículo seminal de 1936, [65] On Computable Numbers . Turing reformuló los resultados de 1931 de Kurt Gödel sobre los límites de la prueba y el cálculo, reemplazando el lenguaje formal universal basado en la aritmética de Gödel con los dispositivos hipotéticos formales y simples que se conocieron como máquinas de Turing . Demostró que alguna de esas máquinas sería capaz de realizar cualquier cálculo matemático concebible si fuera representable como un algoritmo . Continuó demostrando que no había solución para el Entscheidungsproblem mostrando primero que el problema de detención para las máquinas de Turing es indecidible : en general, no es posible decidir algorítmicamente si una máquina de Turing dada se detendrá alguna vez.

También introdujo la noción de una "máquina universal" (ahora conocida como máquina universal de Turing ), con la idea de que dicha máquina podría realizar las tareas de cualquier otra máquina, o en otras palabras, es demostrablemente capaz de calcular cualquier cosa que sea computable ejecutando un programa almacenado en cinta, lo que permite que la máquina sea programable. Von Neumann reconoció que el concepto central de la computadora moderna se debió a este artículo. [66] Las máquinas de Turing son hasta el día de hoy un objeto central de estudio en la teoría de la computación . Excepto por las limitaciones impuestas por sus almacenes de memoria finitos, se dice que las computadoras modernas son Turing-completas , lo que significa que tienen una capacidad de ejecución de algoritmos equivalente a una máquina universal de Turing .

Computadoras electromecánicas

La era de la informática moderna comenzó con un frenesí de desarrollo antes y durante la Segunda Guerra Mundial. La mayoría de las computadoras digitales construidas en este período se construyeron con componentes electromecánicos: interruptores eléctricos accionaban relés mecánicos para realizar el cálculo. Estos componentes mecánicos tenían una velocidad de funcionamiento baja debido a su naturaleza mecánica y finalmente fueron reemplazados por componentes totalmente eléctricos mucho más rápidos, que originalmente usaban tubos de vacío y luego transistores .

El Z2 fue uno de los primeros ejemplos de una computadora digital operada eléctricamente construida con relés electromecánicos y fue creado por el ingeniero civil Konrad Zuse en 1940 en Alemania. Fue una mejora de su anterior computadora mecánica Z1 ; aunque usaba la misma memoria mecánica , reemplazó la lógica aritmética y de control con circuitos de relés eléctricos. [67]

En el mismo año, los criptólogos británicos construyeron dispositivos electromecánicos llamados bombes para ayudar a descifrar mensajes secretos cifrados por la máquina Enigma alemana durante la Segunda Guerra Mundial . El diseño inicial de la bombe fue creado en 1939 en la Escuela de Código y Cifrado del Gobierno del Reino Unido (GC&CS) en Bletchley Park por Alan Turing , [68] con un importante refinamiento ideado en 1940 por Gordon Welchman . [69] El diseño de ingeniería y la construcción fueron obra de Harold Keen de la British Tabulating Machine Company . Fue un desarrollo sustancial de un dispositivo que había sido diseñado en 1938 por el criptólogo de la Oficina de Cifrado polaca Marian Rejewski , y conocido como la " bomba criptológica " ( en polaco : "bomba kryptologiczna" ).

Réplica del Z3 de Zuse , el primer ordenador digital (electromecánico) totalmente automático

En 1941, Zuse siguió con su máquina anterior con la Z3 , [67] la primera computadora digital completamente automática, programable y electromecánica del mundo. [70] La Z3 se construyó con 2000 relés , implementando una longitud de palabra de 22 bits que operaba a una frecuencia de reloj de aproximadamente 5-10  Hz . [71] El código del programa y los datos se almacenaban en una película perforada . Era bastante similar a las máquinas modernas en algunos aspectos, siendo pionera en numerosos avances como los números de punto flotante . El reemplazo del sistema decimal difícil de implementar (usado en el diseño anterior de Charles Babbage ) por el sistema binario más simple significó que las máquinas de Zuse eran más fáciles de construir y potencialmente más confiables, dadas las tecnologías disponibles en ese momento. [72] La Z3 demostró ser una máquina Turing-completa en 1998 por Raúl Rojas . [73] En dos solicitudes de patente de 1936 , Zuse también anticipó que las instrucciones de la máquina podrían almacenarse en el mismo almacenamiento utilizado para los datos, la idea clave de lo que se conoció como la arquitectura de von Neumann , implementada por primera vez en 1948 en Estados Unidos en el IBM SSEC electromecánico y en Gran Bretaña en el Manchester Baby totalmente electrónico . [74]

Zuse sufrió reveses durante la Segunda Guerra Mundial, cuando algunas de sus máquinas fueron destruidas durante los bombardeos aliados . Al parecer, su trabajo permaneció en gran parte desconocido para los ingenieros del Reino Unido y los Estados Unidos hasta mucho después, aunque al menos IBM lo conocía, ya que financió su empresa emergente de posguerra en 1946 a cambio de una opción sobre las patentes de Zuse.

En 1944, se construyó el Harvard Mark I en los laboratorios Endicott de IBM. [75] Era una computadora electromecánica de propósito general similar a la Z3, pero no era del todo Turing-completa.

Computación digital

El término digital fue sugerido por primera vez por George Robert Stibitz y se refiere a donde una señal, como un voltaje, no se usa para representar directamente un valor (como sería en una computadora analógica ), sino para codificarlo. En noviembre de 1937, Stibitz, que entonces trabajaba en Bell Labs (1930-1941), [76] completó una calculadora basada en relés que más tarde denominó " Modelo K " (por " mesa de cocina ", en la que la había ensamblado), que se convirtió en el primer sumador binario . [77] Por lo general, las señales tienen dos estados: bajo (que generalmente representa 0) y alto (que generalmente representa 1), pero a veces se usa lógica de tres valores , especialmente en memoria de alta densidad. Las computadoras modernas generalmente usan lógica binaria , pero muchas de las primeras máquinas eran computadoras decimales . En estas máquinas, la unidad básica de datos era el dígito decimal, codificado en uno de varios esquemas, incluido el decimal codificado en binario o BCD, bi-quinario , exceso de 3 y código dos de cinco .

La base matemática de la computación digital es el álgebra de Boole , desarrollada por el matemático británico George Boole en su obra Las leyes del pensamiento , publicada en 1854. Su álgebra de Boole fue refinada aún más en la década de 1860 por William Jevons y Charles Sanders Peirce , y fue presentada por primera vez sistemáticamente por Ernst Schröder y A. N. Whitehead . [78] En 1879 Gottlob Frege desarrolla el enfoque formal de la lógica y propone el primer lenguaje lógico para ecuaciones lógicas. [79]

En la década de 1930 y trabajando independientemente, el ingeniero electrónico estadounidense Claude Shannon y el lógico soviético Victor Shestakov demostraron una correspondencia uno a uno entre los conceptos de la lógica booleana y ciertos circuitos eléctricos, ahora llamados puertas lógicas , que ahora son omnipresentes en las computadoras digitales. [80] Demostraron que los relés y los interruptores electrónicos pueden realizar las expresiones del álgebra de Boole . [81] Esta tesis fundó esencialmente el diseño práctico de circuitos digitales . Además, el artículo de Shannon proporciona un diagrama de circuito correcto para un sumador binario digital de 4 bits. [82]

Tratamiento electrónico de datos

Réplica de la computadora Atanasoff-Berry en el primer piso del Centro Durham, Universidad Estatal de Iowa

Los elementos de circuitos puramente electrónicos pronto reemplazaron a sus equivalentes mecánicos y electromecánicos, al mismo tiempo que el cálculo digital reemplazó al analógico. Máquinas como la Z3 , la computadora Atanasoff-Berry , las computadoras Colossus y la ENIAC se construyeron a mano, utilizando circuitos que contenían relés o válvulas (tubos de vacío), y a menudo usaban tarjetas perforadas o cintas de papel perforadas para la entrada y como medio de almacenamiento principal (no volátil). [83]

El ingeniero Tommy Flowers se incorporó a la rama de telecomunicaciones de la Oficina General de Correos en 1926. Mientras trabajaba en la estación de investigación de Dollis Hill en la década de 1930, comenzó a explorar el posible uso de la electrónica para la central telefónica . El equipo experimental que construyó en 1934 entró en funcionamiento 5 años después, convirtiendo una parte de la red de la central telefónica en un sistema electrónico de procesamiento de datos, utilizando miles de tubos de vacío . [55]

En los EE. UU., en 1940 Arthur Dickinson (IBM) inventó la primera computadora electrónica digital. [84] Este dispositivo de cálculo era completamente electrónico: control, cálculos y salida (la primera pantalla electrónica). [85] John Vincent Atanasoff y Clifford E. Berry de la Universidad Estatal de Iowa desarrollaron la computadora Atanasoff-Berry (ABC) en 1942, [86] el primer dispositivo de cálculo digital electrónico binario. [87] Este diseño era semielectrónico (control electromecánico y cálculos electrónicos) y utilizaba alrededor de 300 tubos de vacío, con condensadores fijados en un tambor giratorio mecánico para la memoria. Sin embargo, su lector/escritor de tarjetas de papel no era confiable y el sistema de contacto del tambor regenerativo era mecánico. La naturaleza de propósito especial de la máquina y la falta de un programa almacenado modificable la distinguen de las computadoras modernas. [88]

Las computadoras cuya lógica se construyó principalmente utilizando tubos de vacío ahora se conocen como computadoras de primera generación .

La computadora electrónica programable

Colossus fue el primer dispositivo informático electrónico digital programable y se utilizó para descifrar códigos alemanes durante la Segunda Guerra Mundial. Siguió siendo un secreto militar hasta bien entrada la década de 1970.

Durante la Segunda Guerra Mundial, los descifradores de códigos británicos de Bletchley Park , a 64 km al norte de Londres, lograron varios éxitos en la descifrado de comunicaciones militares enemigas cifradas. La máquina de cifrado alemana, Enigma , fue atacada primero con la ayuda de las bombas electromecánicas . [89] Descartaron posibles configuraciones de Enigma realizando cadenas de deducciones lógicas implementadas eléctricamente. La mayoría de las posibilidades conducían a una contradicción, y las pocas restantes podían probarse a mano.

Los alemanes también desarrollaron una serie de sistemas de cifrado de teleimpresora, bastante diferentes de Enigma. La máquina Lorenz SZ 40/42 se utilizó para comunicaciones de alto nivel del Ejército, llamada en código "Tunny" por los británicos. Las primeras interceptaciones de mensajes de Lorenz comenzaron en 1941. Como parte de un ataque a Tunny, Max Newman y sus colegas desarrollaron el Heath Robinson , una máquina de función fija para ayudar a descifrar códigos. [90] Tommy Flowers , un ingeniero senior de la Estación de Investigación de la Oficina Postal [91] fue recomendado a Max Newman por Alan Turing [92] y pasó once meses desde principios de febrero de 1943 diseñando y construyendo la computadora Colossus más flexible (que reemplazó al Heath Robinson ). [93] [94] Después de una prueba funcional en diciembre de 1943, Colossus fue enviado a Bletchley Park, donde fue entregado el 18 de enero de 1944 [95] y atacó su primer mensaje el 5 de febrero. [96] Cuando Alemania se rindió en mayo de 1945, había diez Colosos trabajando en Bletchley Park. [97]

Fotografía de la época de la guerra del Coloso n.° 10

Colossus fue la primera computadora programable digital electrónica del mundo . [55] Utilizaba una gran cantidad de válvulas (tubos de vacío). Tenía entrada de cinta de papel y era capaz de ser configurada para realizar una variedad de operaciones lógicas booleanas en sus datos, [98] pero no era Turing-completa . La entrada de datos a Colossus era por lectura fotoeléctrica de una transcripción de cinta de papel del mensaje interceptado cifrado. Esto estaba organizado en un bucle continuo para que pudiera leerse y releerse varias veces, ya que no había almacenamiento interno para los datos. El mecanismo de lectura funcionaba a 5000 caracteres por segundo con la cinta de papel moviéndose a 40 pies/s (12,2 m/s; 27,3 mph). Colossus Mark 1 contenía 1500 válvulas termoiónicas (tubos), pero Mark 2 con 2400 válvulas y cinco procesadores en paralelo, era 5 veces más rápido y más simple de operar que Mark 1, acelerando enormemente el proceso de decodificación. El Mark 2 fue diseñado mientras se construía el Mark 1. Allen Coombs asumió el liderazgo del proyecto Colossus Mark 2 cuando Tommy Flowers pasó a otros proyectos. [99] El primer Mark 2 Colossus entró en funcionamiento el 1 de junio de 1944, justo a tiempo para la invasión aliada de Normandía en el Día D.

La mayor parte del uso de Colossus era para determinar las posiciones de inicio de los rotores Tunny para un mensaje, lo que se llamaba "ajuste de rueda". Colossus incluía el primer uso de registros de desplazamiento y matrices sistólicas , lo que permitía cinco pruebas simultáneas, cada una de las cuales implicaba hasta 100 cálculos booleanos . Esto permitía examinar cinco posibles posiciones de inicio diferentes para un tránsito de la cinta de papel. [100] Además del ajuste de rueda, algunos Colossi posteriores incluían mecanismos destinados a ayudar a determinar patrones de pines conocidos como "rotura de rueda". Ambos modelos eran programables mediante interruptores y paneles de enchufes de una manera que sus predecesores no lo habían sido.

ENIAC fue el primer dispositivo electrónico Turing-completo y realizó cálculos de trayectoria balística para el Ejército de los Estados Unidos . [101]

Sin el uso de estas máquinas, los aliados se habrían visto privados de la valiosísima inteligencia que se obtenía de la lectura de la enorme cantidad de mensajes telegráficos cifrados de alto nivel entre el Alto Mando Alemán (OKW) y sus mandos militares en toda la Europa ocupada. Los detalles de su existencia, diseño y uso se mantuvieron en secreto hasta bien entrada la década de 1970. Winston Churchill dio personalmente una orden para su destrucción en pedazos no más grandes que la mano de un hombre, para mantener en secreto que los británicos eran capaces de descifrar los cifrados Lorenz SZ (de las máquinas de cifrado de flujo de rotor alemanas) durante la inminente Guerra Fría. Dos de las máquinas fueron transferidas al recién formado GCHQ y las otras fueron destruidas. Como resultado, las máquinas no se incluyeron en muchas historias de la informática. [g] Una copia de trabajo reconstruida de una de las máquinas Colossus está ahora en exhibición en Bletchley Park.

El ENIAC (Electronic Numerical Integrator and Computer) fue el primer ordenador electrónico programable construido en los EE. UU. Aunque el ENIAC utilizaba una tecnología similar a la del Colossi , era mucho más rápido y flexible y era Turing-completo. Al igual que el Colossi, un "programa" en el ENIAC se definía por los estados de sus cables de conexión e interruptores, muy lejos de las máquinas electrónicas de programa almacenado que vinieron después. Una vez que un programa estaba listo para ejecutarse, tenía que ser introducido mecánicamente en la máquina con un restablecimiento manual de enchufes e interruptores. Las programadoras del ENIAC eran mujeres que habían recibido formación como matemáticas. [102]

Combinaba la alta velocidad de la electrónica con la capacidad de ser programada para muchos problemas complejos. Podía sumar o restar 5000 veces por segundo, mil veces más rápido que cualquier otra máquina. También tenía módulos para multiplicar, dividir y hacer raíz cuadrada. La memoria de alta velocidad estaba limitada a 20 palabras (equivalentes a unos 80 bytes). Construida bajo la dirección de John Mauchly y J. Presper Eckert en la Universidad de Pensilvania, el desarrollo y la construcción de ENIAC duraron desde 1943 hasta su pleno funcionamiento a finales de 1945. La máquina era enorme, pesaba 30 toneladas, utilizaba 200 kilovatios de energía eléctrica y contenía más de 18.000 tubos de vacío, 1.500 relés y cientos de miles de resistencias, condensadores e inductores. [103] Una de sus principales hazañas de ingeniería fue minimizar los efectos de la quema de los tubos, que era un problema común en la fiabilidad de las máquinas en aquella época. La máquina estuvo en uso casi constante durante los siguientes diez años.

Computadora con programa almacenado

Diseño de la arquitectura de von Neumann , 1947

La base teórica para la computadora de programa almacenado fue propuesta por Alan Turing en su artículo de 1936 On Computable Numbers . [65] Mientras Turing estaba en Princeton trabajando en su doctorado, John von Neumann lo conoció y quedó intrigado por su concepto de una máquina de computación universal. [104]

Las primeras máquinas de computación ejecutaban una secuencia de pasos determinada, conocida como " programa ", que podía modificarse modificando las conexiones eléctricas mediante interruptores o un panel de conexiones (o tablero de conexiones ). Sin embargo, este proceso de "reprogramación" era a menudo difícil y requería mucho tiempo, y requería que los ingenieros crearan diagramas de flujo y volvieran a cablear físicamente las máquinas. [105] Las computadoras con programa almacenado, por el contrario, estaban diseñadas para almacenar un conjunto de instrucciones (un programa ) en la memoria, normalmente la misma memoria que los datos almacenados.

Los inventores de la ENIAC, John Mauchly y J. Presper Eckert, propusieron en agosto de 1944 la construcción de una máquina llamada Electronic Discrete Variable Automatic Computer ( EDVAC ) y el trabajo de diseño para la misma comenzó en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania , antes de que la ENIAC estuviera en pleno funcionamiento. El diseño implementó una serie de importantes mejoras arquitectónicas y lógicas concebidas durante la construcción de la ENIAC, y una memoria de acceso serial de alta velocidad . [106] Sin embargo, Eckert y Mauchly abandonaron el proyecto y su construcción fracasó.

En 1945, von Neumann visitó la Escuela Moore y escribió notas sobre lo que vio, que envió al proyecto. El enlace del ejército de los EE. UU. allí las hizo mecanografiar y las distribuyó como el Primer borrador de un informe sobre el EDVAC . El borrador no mencionaba a Eckert ni a Mauchly y, a pesar de su naturaleza incompleta y la cuestionable falta de atribución de las fuentes de algunas de las ideas, [55] la arquitectura informática que esbozaba se conoció como la " arquitectura de von Neumann ".

En 1945, Turing se unió al Laboratorio Nacional de Física del Reino Unido y comenzó a trabajar en el desarrollo de una computadora digital electrónica con programa almacenado. Su informe de finales de 1945, "Propuesta de calculadora electrónica", fue la primera especificación razonablemente detallada para un dispositivo de este tipo. Turing presentó un documento más detallado al Comité Ejecutivo del Laboratorio Nacional de Física (NPL) en marzo de 1946, en el que se presentaba el primer diseño sustancialmente completo de una computadora con programa almacenado , un dispositivo que se denominó Motor de Cálculo Automático (ACE).

Turing consideró que la velocidad y el tamaño de la memoria de la computadora eran elementos cruciales, [107] : p.4  por lo que propuso una memoria de alta velocidad de lo que hoy se llamaría 25 KB , accedida a una velocidad de 1 MHz . El ACE implementó llamadas a subrutinas , mientras que el EDVAC no, y el ACE también utilizó Instrucciones de Computadora Abreviadas, una forma temprana de lenguaje de programación .

Bebé de Manchester

Tres racks altos que contienen placas de circuitos electrónicos
Una sección del Manchester Baby reconstruido , el primer ordenador electrónico con programa almacenado

El Manchester Baby (Small Scale Experimental Machine, SSEM) fue el primer ordenador electrónico con programa almacenado del mundo . Fue construido en la Universidad Victoria de Manchester por Frederic C. Williams , Tom Kilburn y Geoff Tootill, y ejecutó su primer programa el 21 de junio de 1948. [108]

La máquina no fue pensada para ser una computadora práctica, sino que fue diseñada como un banco de pruebas para el tubo Williams , el primer dispositivo de almacenamiento digital de acceso aleatorio . [109] Inventado por Freddie Williams y Tom Kilburn [110] [111] en la Universidad de Manchester en 1946 y 1947, era un tubo de rayos catódicos que utilizaba un efecto llamado emisión secundaria para almacenar temporalmente datos binarios electrónicos , y se utilizó con éxito en varias computadoras tempranas.

Descrito como pequeño y primitivo en una retrospectiva de 1998, el Baby fue la primera máquina funcional que contenía todos los elementos esenciales para una computadora electrónica moderna. [112] Tan pronto como se demostró la viabilidad de su diseño, se inició un proyecto en la universidad para desarrollar el diseño en una computadora más utilizable, la Manchester Mark 1. La Mark 1 a su vez se convirtió rápidamente en el prototipo de la Ferranti Mark 1 , la primera computadora de propósito general disponible comercialmente del mundo. [113]

El Baby tenía una longitud de palabra de 32 bits y una memoria de 32 palabras. Como fue diseñado para ser el ordenador de programa almacenado más simple posible, las únicas operaciones aritméticas implementadas en hardware eran la resta y la negación ; las demás operaciones aritméticas se implementaron en software. El primero de los tres programas escritos para la máquina encontró el divisor propio más alto de 2 18 (262,144), un cálculo que se sabía que tardaría mucho tiempo en ejecutarse (y así probar la confiabilidad del ordenador) al probar cada entero desde 2 18  − 1 hacia abajo, ya que la división se implementaba mediante la resta repetida del divisor. El programa constaba de 17 instrucciones y se ejecutó durante 52 minutos antes de llegar a la respuesta correcta de 131,072, después de que el Baby hubiera realizado 3,5 millones de operaciones (para una velocidad de CPU efectiva de 1,1 kIPS ). Las aproximaciones sucesivas a la respuesta se mostraban como un patrón de puntos en el CRT de salida que reflejaba el patrón guardado en el tubo Williams utilizado para el almacenamiento.

Manchester marca 1

El SSEM condujo al desarrollo del Manchester Mark 1 en la Universidad de Manchester. [114] El trabajo comenzó en agosto de 1948, y la primera versión estuvo operativa en abril de 1949; un programa escrito para buscar primos de Mersenne funcionó sin errores durante nueve horas en la noche del 16 al 17 de junio de 1949. El funcionamiento exitoso de la máquina fue ampliamente reportado en la prensa británica, que utilizó la frase "cerebro electrónico" para describirlo a sus lectores.

El ordenador es especialmente significativo históricamente debido a su inclusión pionera de registros de índice , una innovación que facilitó a un programa la lectura secuencial de una serie de palabras en la memoria. Treinta y cuatro patentes resultaron del desarrollo de la máquina, y muchas de las ideas detrás de su diseño se incorporaron en productos comerciales posteriores, como el IBM 701 y 702, así como el Ferranti Mark 1. Los diseñadores jefe, Frederic C. Williams y Tom Kilburn , concluyeron a partir de sus experiencias con el Mark 1 que los ordenadores se utilizarían más en funciones científicas que en matemáticas puras. En 1951 comenzaron el trabajo de desarrollo de Meg , el sucesor del Mark 1, que incluiría una unidad de punto flotante .

EDSAC

EDSAC

El otro candidato para ser el primer ordenador digital con programa almacenado reconociblemente moderno [115] fue el EDSAC , [116] diseñado y construido por Maurice Wilkes y su equipo en el Laboratorio de Matemáticas de la Universidad de Cambridge en Inglaterra en la Universidad de Cambridge en 1949. La máquina se inspiró en el seminal Primer borrador de un informe sobre el EDVAC de John von Neumann y fue uno de los primeros ordenadores digitales electrónicos con programa almacenado que funcionaban de manera útil . [h]

El EDSAC ejecutó sus primeros programas el 6 de mayo de 1949, cuando calculó una tabla de cuadrados [119] y una lista de números primos . El EDSAC también sirvió como base para la primera computadora aplicada comercialmente, la LEO I , utilizada por la empresa de fabricación de alimentos J. Lyons & Co. Ltd. El EDSAC 1 se cerró finalmente el 11 de julio de 1958, después de haber sido reemplazado por el EDSAC 2, que permaneció en uso hasta 1965. [120]

Es posible que algún día el "cerebro" [el ordenador] llegue a nuestro nivel [el de la gente común] y nos ayude con los cálculos de impuestos y contabilidad, pero esto es pura especulación y, hasta ahora, no hay señales de que vaya a ocurrir.

—  El periódico británico The Star en un artículo de noticias de junio de 1949 sobre la computadora EDSAC , mucho antes de la era de las computadoras personales. [121]

VACÍO ED

VACÍO ED

Los inventores de la ENIAC, John Mauchly y J. Presper Eckert, propusieron la construcción del EDVAC en agosto de 1944, y el trabajo de diseño para el EDVAC comenzó en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania , antes de que la ENIAC estuviera en pleno funcionamiento. El diseño implementó una serie de importantes mejoras arquitectónicas y lógicas concebidas durante la construcción de la ENIAC, y una memoria de acceso serial de alta velocidad . [106] Sin embargo, Eckert y Mauchly abandonaron el proyecto y su construcción fracasó.

Finalmente fue entregado al Laboratorio de Investigación Balística del Ejército de los EE. UU. en el Campo de Pruebas de Aberdeen en agosto de 1949, pero debido a una serie de problemas, la computadora recién comenzó a funcionar en 1951, y solo de manera limitada.

Computadoras comerciales

El primer ordenador comercial fue el Ferranti Mark 1 , construido por Ferranti y entregado a la Universidad de Manchester en febrero de 1951. Estaba basado en el Manchester Mark 1. Las principales mejoras sobre el Manchester Mark 1 estaban en el tamaño del almacenamiento primario (usando tubos Williams de acceso aleatorio ), el almacenamiento secundario (usando un tambor magnético ), un multiplicador más rápido e instrucciones adicionales. El tiempo de ciclo básico era de 1,2 milisegundos y una multiplicación podía completarse en aproximadamente 2,16 milisegundos. El multiplicador usaba casi una cuarta parte de los 4050 tubos de vacío (válvulas) de la máquina. [122] La Universidad de Toronto compró una segunda máquina , antes de que el diseño fuera revisado para convertirse en el Mark 1 Star . Al menos siete de estas máquinas posteriores se entregaron entre 1953 y 1957, una de ellas a los laboratorios Shell en Ámsterdam. [123]

En octubre de 1947, los directores de J. Lyons & Company , una empresa de catering británica famosa por sus salones de té pero con fuertes intereses en nuevas técnicas de gestión de oficinas, decidieron asumir un papel activo en la promoción del desarrollo comercial de las computadoras. La computadora LEO I (Lyons Electronic Office) comenzó a funcionar en abril de 1951 [124] y realizó el primer trabajo rutinario de computadora de oficina del mundo . El 17 de noviembre de 1951, la compañía J. Lyons comenzó a operar semanalmente un trabajo de tasación de panadería en LEO, la primera aplicación comercial en funcionar en una computadora con programa almacenado. [i]

En junio de 1951, la UNIVAC I (Universal Automatic Computer) fue entregada a la Oficina del Censo de los Estados Unidos . Remington Rand finalmente vendió 46 máquinas a más de un millón de dólares cada una (11,7 millones de dólares en 2024). [125] La UNIVAC fue la primera computadora "producida en masa". Utilizaba 5200 tubos de vacío y consumía125  kW de potencia. Su almacenamiento principal eran líneas de retardo de mercurio de acceso serial capaces de almacenar 1.000 palabras de 11 dígitos decimales más el signo (palabras de 72 bits).

En 1952, la Compagnie des Machines Bull lanzó el ordenador Gamma 3 , que se convirtió en un gran éxito en Europa, llegando a vender más de 1200 unidades, y fue el primer ordenador producido en más de 1000 unidades. [126] El Gamma 3 tenía características innovadoras para su época, incluyendo una ALU de modo dual, conmutable por software, BCD y binaria, así como una biblioteca de punto flotante cableada para computación científica. [126] En su configuración ET, la memoria de tambor del Gamma 3 podía albergar alrededor de 50 000 instrucciones para una capacidad de 16 384 palabras (alrededor de 100 kB), una gran cantidad para la época. [126]

Panel frontal del IBM 650

En comparación con el UNIVAC, IBM presentó en 1954 una computadora más pequeña y asequible que resultó muy popular. [j] [128] El IBM 650 pesaba más de900 kg , la fuente de alimentación adjunta pesaba alrededor de1350 kg y ambos se guardaron en gabinetes separados de aproximadamente 1,5  ×  0,9  × 1,8 m . El sistema costó 500.000 dólares estadounidenses [129] (5,67 millones de dólares en 2024) o podía alquilarse por 3.500 dólares estadounidenses al mes (40.000 dólares en 2024). [125] Su memoria de tambor era originalmente de 2.000 palabras de diez dígitos, que luego se amplió a 4.000 palabras. Limitaciones de memoria como esta dominarían la programación durante décadas después. Las instrucciones del programa se obtenían del tambor giratorio a medida que se ejecutaba el código. La ejecución eficiente utilizando la memoria del tambor se proporcionaba mediante una combinación de arquitectura de hardware (el formato de instrucción incluía la dirección de la siguiente instrucción) y software: el Programa de ensamblaje óptimo simbólico , SOAP, [130] asignaba instrucciones a las direcciones óptimas (en la medida de lo posible mediante análisis estático del programa fuente). De este modo, muchas instrucciones se ubicaban, cuando era necesario, en la siguiente fila del tambor para ser leídas y se reducía el tiempo de espera adicional para la rotación del tambor.

Microprogramación

En 1951, el científico británico Maurice Wilkes desarrolló el concepto de microprogramación a partir de la constatación de que la unidad central de procesamiento de un ordenador podía ser controlada por un programa informático en miniatura, altamente especializado, en una ROM de alta velocidad . La microprogramación permite definir o ampliar el conjunto de instrucciones base mediante programas integrados (ahora llamados firmware o microcódigo ). [131] Este concepto simplificó enormemente el desarrollo de la CPU. Lo describió por primera vez en la Conferencia Inaugural de Computación de la Universidad de Manchester en 1951, y luego lo publicó en forma ampliada en IEEE Spectrum en 1955. [ cita requerida ]

Se utilizó ampliamente en las CPU y unidades de punto flotante de mainframes y otras computadoras; se implementó por primera vez en EDSAC 2 , [132] que también utilizó múltiples "porciones de bits" idénticas para simplificar el diseño. Se utilizaron conjuntos de tubos intercambiables y reemplazables para cada bit del procesador. [k]

Memoria magnética

Diagrama de un plano 4x4 de memoria de núcleo magnético en una configuración de corriente coincidente de línea X/Y. X e Y son líneas de control, S es detección, Z es inhibición. Las flechas indican la dirección de la corriente para escritura.

Las memorias de tambor magnético fueron desarrolladas para la Marina de los EE. UU. durante la Segunda Guerra Mundial y el trabajo continuó en Engineering Research Associates (ERA) en 1946 y 1947. ERA, entonces parte de Univac, incluyó una memoria de tambor en su 1103 , anunciado en febrero de 1953. La primera computadora producida en masa, la IBM 650 , también anunciada en 1953, tenía aproximadamente 8,5 kilobytes de memoria de tambor.

Memoria de núcleo magnético patentada en 1949 [134] y su primer uso demostrado para la computadora Whirlwind en agosto de 1953. [135] La comercialización se produjo rápidamente. El núcleo magnético se utilizó en los periféricos del IBM 702 entregado en julio de 1955, y más tarde en el propio 702. El IBM 704 (1955) y el Ferranti Mercury (1957) utilizaron memoria de núcleo magnético. Siguió dominando el campo hasta la década de 1970, cuando fue reemplazado por la memoria de semiconductores. El núcleo magnético alcanzó su máximo volumen alrededor de 1975 y disminuyó en uso y participación de mercado a partir de entonces. [136]

Incluso en 1980, en muchos de los sitios UNIX originales todavía se utilizaban máquinas PDP-11/45 que utilizaban memoria principal con núcleo magnético y tambores para intercambio.

Características de las primeras computadoras digitales

Computadoras de transistores

Un transistor de unión bipolar

El transistor bipolar fue inventado en 1947. A partir de 1955, los transistores reemplazaron a los tubos de vacío en los diseños de computadoras, [138] dando lugar a la "segunda generación" de computadoras. En comparación con los tubos de vacío, los transistores tienen muchas ventajas: son más pequeños y requieren menos energía que los tubos de vacío, por lo que emiten menos calor. Los transistores de unión de silicio eran mucho más confiables que los tubos de vacío y tenían una vida útil más larga. Las computadoras transistorizadas podían contener decenas de miles de circuitos lógicos binarios en un espacio relativamente compacto. Los transistores redujeron en gran medida el tamaño de las computadoras, el costo inicial y el costo operativo . Por lo general, las computadoras de segunda generación estaban compuestas por un gran número de placas de circuitos impresos como el Sistema Modular Estándar de IBM , [139] cada una con una a cuatro puertas lógicas o flip-flops .

En la Universidad de Manchester , un equipo bajo el liderazgo de Tom Kilburn diseñó y construyó una máquina que utilizaba los transistores recientemente desarrollados en lugar de válvulas. Inicialmente, los únicos dispositivos disponibles eran transistores de contacto puntual de germanio , menos confiables que las válvulas que reemplazaron pero que consumían mucha menos energía. [140] Su primer ordenador transistorizado , y el primero del mundo, estuvo operativo en 1953 , [141] y una segunda versión se completó allí en abril de 1955. [141] La versión de 1955 usaba 200 transistores, 1300 diodos de estado sólido y tenía un consumo de energía de 150 vatios. Sin embargo, la máquina hizo uso de válvulas para generar sus formas de onda de reloj de 125 kHz y en los circuitos para leer y escribir en su memoria de tambor magnético, por lo que no fue el primer ordenador completamente transistorizado.

Esa distinción le corresponde al Harwell CADET de 1955, [142] construido por la división de electrónica del Atomic Energy Research Establishment en Harwell . El diseño incluía una memoria de tambor magnético de 64 kilobytes con múltiples cabezales móviles que había sido diseñada en el National Physical Laboratory, Reino Unido . En 1953, este equipo tenía circuitos de transistores que funcionaban para leer y escribir en un tambor magnético más pequeño del Royal Radar Establishment . La máquina utilizaba una velocidad de reloj baja de solo 58 kHz para evitar tener que usar válvulas para generar las formas de onda del reloj. [143] [142]

CADET utilizó 324 transistores de contacto puntual proporcionados por la empresa británica Standard Telephones and Cables ; se utilizaron 76 transistores de unión para los amplificadores de la primera etapa para la lectura de datos del tambor, ya que los transistores de contacto puntual eran demasiado ruidosos. Desde agosto de 1956, CADET ofreció un servicio de computación regular, durante el cual a menudo ejecutaba ejecuciones de computación continuas de 80 horas o más. [144] [145] Los problemas con la confiabilidad de los primeros lotes de transistores de contacto puntual y de unión aleada significaron que el tiempo medio de la máquina entre fallas era de aproximadamente 90 minutos, pero esto mejoró una vez que estuvieron disponibles los transistores de unión bipolar más confiables . [146]

El diseño de la computadora de transistores de la Universidad de Manchester fue adoptado por la firma de ingeniería local Metropolitan-Vickers en su Metrovick 950 , la primera computadora de transistores comercial del mundo. [147] Se construyeron seis Metrovick 950, la primera completada en 1956. Se implementaron con éxito en varios departamentos de la empresa y estuvieron en uso durante unos cinco años. [141] Una computadora de segunda generación, la IBM 1401 , capturó aproximadamente un tercio del mercado mundial. IBM instaló más de diez mil 1401 entre 1960 y 1964.

Periféricos de transistores

La electrónica transistorizada no sólo mejoró la CPU (unidad central de procesamiento), sino también los dispositivos periféricos . Las unidades de almacenamiento de datos en disco de segunda generación eran capaces de almacenar decenas de millones de letras y dígitos. Junto a las unidades de almacenamiento en disco fijas , conectadas a la CPU mediante transmisión de datos de alta velocidad, estaban las unidades de almacenamiento de datos en disco extraíbles. Un paquete de discos extraíbles se puede cambiar fácilmente por otro paquete en unos pocos segundos. Aunque la capacidad de los discos extraíbles es menor que la de los discos fijos, su intercambiabilidad garantiza una cantidad casi ilimitada de datos a mano. La cinta magnética proporcionaba la capacidad de archivar estos datos, a un coste menor que el del disco.

Muchas CPU de segunda generación delegaban las comunicaciones de los dispositivos periféricos a un procesador secundario. Por ejemplo, mientras el procesador de comunicaciones controlaba la lectura y perforación de tarjetas , la CPU principal ejecutaba los cálculos y las instrucciones de bifurcación binaria . Un bus de datos transportaría los datos entre la CPU principal y la memoria central a la velocidad del ciclo de búsqueda y ejecución de la CPU , y otros buses de datos normalmente darían servicio a los dispositivos periféricos. En el PDP-1 , el tiempo de ciclo de la memoria central era de 5 microsegundos; en consecuencia, la mayoría de las instrucciones aritméticas tardaban 10 microsegundos (100.000 operaciones por segundo) porque la mayoría de las operaciones tardaban al menos dos ciclos de memoria: uno para la instrucción y otro para la búsqueda de datos del operando .

Durante la segunda generación, las unidades terminales remotas (a menudo en forma de teleimpresoras como la Friden Flexowriter ) se utilizaron cada vez más. [l] Las conexiones telefónicas proporcionaban suficiente velocidad para las primeras terminales remotas y permitían una separación de cientos de kilómetros entre las terminales remotas y el centro de cómputo. Con el tiempo, estas redes de computadoras independientes se generalizarían en una red de redes interconectadas : Internet. [m]

Supercomputadoras de transistores

El Atlas de la Universidad de Manchester en enero de 1963

A principios de la década de 1960 se produjo la aparición de la supercomputación . El Atlas fue un desarrollo conjunto entre la Universidad de Manchester , Ferranti y Plessey , y se instaló por primera vez en la Universidad de Manchester y se puso en funcionamiento oficialmente en 1962 como uno de los primeros superordenadores del mundo , considerado el ordenador más potente del mundo en ese momento. [150] Se decía que cada vez que Atlas se desconectaba se perdía la mitad de la capacidad informática del Reino Unido. [151] Era una máquina de segunda generación, que utilizaba transistores de germanio discretos . Atlas también fue pionero en el Atlas Supervisor , "considerado por muchos como el primer sistema operativo moderno reconocible ". [152]

En los EE. UU., Seymour Cray diseñó una serie de computadoras en Control Data Corporation (CDC) para usar diseños innovadores y paralelismo para lograr un rendimiento computacional máximo superior. [153] La CDC 6600 , lanzada en 1964, generalmente se considera la primera supercomputadora. [154] [155] La CDC 6600 superó a su predecesora, la IBM 7030 Stretch , en aproximadamente un factor de 3. Con un rendimiento de aproximadamente 1  megaFLOPS , la CDC 6600 fue la computadora más rápida del mundo desde 1964 hasta 1969, cuando cedió ese estatus a su sucesora, la CDC 7600 .

Computadoras de circuito integrado

La "tercera generación" de computadoras electrónicas digitales utilizaba chips de circuitos integrados (CI) como base de su lógica.

La idea de un circuito integrado fue concebida por un científico de radar que trabajaba para el Royal Radar Establishment del Ministerio de Defensa , Geoffrey WA Dummer .

Los primeros circuitos integrados funcionales fueron inventados por Jack Kilby en Texas Instruments y Robert Noyce en Fairchild Semiconductor . [156] Kilby registró sus ideas iniciales sobre el circuito integrado en julio de 1958, demostrando con éxito el primer ejemplo integrado funcional el 12 de septiembre de 1958. [157] La ​​invención de Kilby fue un circuito integrado híbrido (CI híbrido). [158] Tenía conexiones de cables externos, lo que dificultaba su producción en masa. [159]

Noyce ideó su propia idea de circuito integrado medio año después que Kilby. [160] La invención de Noyce fue un chip de circuito integrado (CI) monolítico . [161] [159] Su chip resolvió muchos problemas prácticos que el de Kilby no había resuelto. Producido en Fairchild Semiconductor, estaba hecho de silicio , mientras que el chip de Kilby estaba hecho de germanio . La base para el CI monolítico de Noyce fue el proceso planar de Fairchild , que permitió diseñar circuitos integrados utilizando los mismos principios que los de los circuitos impresos . El proceso planar fue desarrollado por el colega de Noyce, Jean Hoerni , a principios de 1959, basándose en el trabajo de Mohamed M. Atalla sobre pasivación de superficies de semiconductores mediante dióxido de silicio en Bell Labs a fines de la década de 1950. [162] [163] [164]

Las computadoras de tercera generación (circuitos integrados) aparecieron por primera vez a principios de la década de 1960 en computadoras desarrolladas para fines gubernamentales y luego en computadoras comerciales a partir de mediados de esa década. La primera computadora con circuito integrado de silicio fue la Computadora de Guía Apolo o AGC. [165] Aunque no era la computadora más poderosa de su tiempo, las limitaciones extremas en cuanto a tamaño, masa y potencia de la nave espacial Apolo requerían que la AGC fuera mucho más pequeña y densa que cualquier computadora anterior, con un peso de solo 70 libras (32 kg). Cada misión de aterrizaje lunar llevaba dos AGC, uno en cada uno de los módulos de comando y ascenso lunar.

Memoria semiconductora

El MOSFET (transistor de efecto de campo de metal-óxido-semiconductor, o transistor MOS) fue inventado por Mohamed M. Atalla y Dawon Kahng en Bell Labs en 1959. [166] Además del procesamiento de datos, el MOSFET permitió el uso práctico de transistores MOS como elementos de almacenamiento de celdas de memoria , una función que anteriormente cumplían los núcleos magnéticos . La memoria semiconductora , también conocida como memoria MOS , era más barata y consumía menos energía que la memoria de núcleo magnético . [167] La ​​memoria de acceso aleatorio (RAM) MOS , en forma de RAM estática (SRAM), fue desarrollada por John Schmidt en Fairchild Semiconductor en 1964. [167] [168] En 1966, Robert Dennard en el Centro de Investigación Thomas J. Watson de IBM desarrolló la RAM dinámica MOS (DRAM). [169] En 1967, Dawon Kahng y Simon Sze en Bell Labs desarrollaron el MOSFET de puerta flotante , la base para la memoria no volátil MOS como EPROM , EEPROM y memoria flash . [170] [171]

Computadoras con microprocesador

La "cuarta generación" de computadoras electrónicas digitales utilizó microprocesadores como base de su lógica. El microprocesador tiene su origen en el chip de circuito integrado MOS (MOS IC). [172] Debido al rápido escalamiento de los MOSFET , los chips MOS IC aumentaron rápidamente en complejidad a una velocidad predicha por la ley de Moore , lo que llevó a la integración a gran escala (LSI) con cientos de transistores en un solo chip MOS a fines de la década de 1960. La aplicación de chips MOS LSI a la computación fue la base para los primeros microprocesadores, ya que los ingenieros comenzaron a reconocer que un procesador de computadora completo podía estar contenido en un solo chip MOS LSI. [172]

El tema de qué dispositivo fue exactamente el primer microprocesador es polémico, en parte debido a la falta de acuerdo sobre la definición exacta del término "microprocesador". Los primeros microprocesadores multichip fueron el Four-Phase Systems AL-1 en 1969 y el Garrett AiResearch MP944 en 1970, desarrollados con múltiples chips MOS LSI. [172] El primer microprocesador de un solo chip fue el Intel 4004 , [173] desarrollado en un solo chip PMOS LSI. [172] Fue diseñado y realizado por Ted Hoff , Federico Faggin , Masatoshi Shima y Stanley Mazor en Intel , y lanzado en 1971. [n] Tadashi Sasaki y Masatoshi Shima en Busicom , un fabricante de calculadoras, tuvieron la idea inicial de que la CPU podría ser un solo chip MOS LSI, suministrado por Intel. [175] [173]

La matriz de un Intel 8742 , un microcontrolador de 8 bits que incluye una CPU que funciona a 12 MHz, RAM, EPROM y E/S.

Si bien los primeros circuitos integrados de microprocesadores contenían literalmente solo el procesador, es decir, la unidad central de procesamiento de una computadora, su desarrollo progresivo condujo naturalmente a chips que contenían la mayoría o la totalidad de los componentes electrónicos internos de una computadora. El circuito integrado de la imagen de la derecha, por ejemplo, un Intel 8742, es un microcontrolador de 8 bits que incluye una CPU que funciona a 12 MHz, 128 bytes de RAM , 2048 bytes de EPROM y E/S en el mismo chip.

Durante la década de 1960, hubo una superposición considerable entre las tecnologías de segunda y tercera generación. [o] IBM implementó sus módulos IBM Solid Logic Technology en circuitos híbridos para el IBM System/360 en 1964. Hasta 1975, Sperry Univac continuó la fabricación de máquinas de segunda generación como la UNIVAC 494. Los grandes sistemas de Burroughs como el B5000 eran máquinas de pila , lo que permitía una programación más sencilla. Estos autómatas pushdown también se implementaron en minicomputadoras y microprocesadores más tarde, lo que influyó en el diseño de lenguajes de programación. Las minicomputadoras sirvieron como centros de computación de bajo costo para la industria, las empresas y las universidades. [176] Se hizo posible simular circuitos analógicos con el programa de simulación con énfasis en circuitos integrados , o SPICE (1971) sobre minicomputadoras, uno de los programas para la automatización del diseño electrónico ( EDA ). El microprocesador condujo al desarrollo de microcomputadoras , computadoras pequeñas y de bajo costo que podían ser propiedad de individuos y pequeñas empresas. Las microcomputadoras, las primeras de las cuales aparecieron en la década de 1970, se volvieron omnipresentes en la década de 1980 y después.

Altair 8800

Aunque es un tema de debate qué producto específico se considera el primer sistema de microcomputadoras, uno de los primeros es el Micral N de R2E ( François Gernelle , André Truong ) lanzado "a principios de 1973" utilizando el Intel 8008. [177] El primer kit de microcomputadora disponible comercialmente fue el Altair 8800 basado en Intel 8080 , que se anunció en el artículo de portada de enero de 1975 de Popular Electronics . Sin embargo, el Altair 8800 era un sistema extremadamente limitado en sus etapas iniciales, con solo 256 bytes de DRAM en su paquete inicial y sin entrada-salida excepto sus interruptores de palanca y la pantalla de registro LED. A pesar de esto, inicialmente fue sorprendentemente popular, con varios cientos de ventas en el primer año, y la demanda superó rápidamente la oferta. Varios de los primeros proveedores externos, como Cromemco y Processor Technology, pronto comenzaron a suministrar hardware de bus S-100 adicional para el Altair 8800.

In April 1975, at the Hannover Fair, Olivetti presented the P6060, the world's first complete, pre-assembled personal computer system. The central processing unit consisted of two cards, code named PUCE1 and PUCE2, and unlike most other personal computers was built with TTL components rather than a microprocessor. It had one or two 8" floppy disk drives, a 32-character plasma display, 80-column graphical thermal printer, 48 Kbytes of RAM, and BASIC language. It weighed 40 kg (88 lb). As a complete system, this was a significant step from the Altair, though it never achieved the same success. It was in competition with a similar product by IBM that had an external floppy disk drive.

From 1975 to 1977, most microcomputers, such as the MOS Technology KIM-1, the Altair 8800, and some versions of the Apple I, were sold as kits for do-it-yourselfers. Pre-assembled systems did not gain much ground until 1977, with the introduction of the Apple II, the Tandy TRS-80, the first SWTPC computers, and the Commodore PET. Computing has evolved with microcomputer architectures, with features added from their larger brethren, now dominant in most market segments.

A NeXT Computer and its object-oriented development tools and libraries were used by Tim Berners-Lee and Robert Cailliau at CERN to develop the world's first web server software, CERN httpd, and also used to write the first web browser, WorldWideWeb.

Systems as complicated as computers require very high reliability. ENIAC remained on, in continuous operation from 1947 to 1955, for eight years before being shut down. Although a vacuum tube might fail, it would be replaced without bringing down the system. By the simple strategy of never shutting down ENIAC, the failures were dramatically reduced. The vacuum-tube SAGE air-defense computers became remarkably reliable – installed in pairs, one off-line, tubes likely to fail did so when the computer was intentionally run at reduced power to find them. Hot-pluggable hard disks, like the hot-pluggable vacuum tubes of yesteryear, continue the tradition of repair during continuous operation. Semiconductor memories routinely have no errors when they operate, although operating systems like Unix have employed memory tests on start-up to detect failing hardware. Today, the requirement of reliable performance is made even more stringent when server farms are the delivery platform.[178] Google has managed this by using fault-tolerant software to recover from hardware failures, and is even working on the concept of replacing entire server farms on-the-fly, during a service event.[179][180]

In the 21st century, multi-core CPUs became commercially available.[181] Content-addressable memory (CAM)[182] has become inexpensive enough to be used in networking, and is frequently used for on-chip cache memory in modern microprocessors, although no computer system has yet implemented hardware CAMs for use in programming languages. Currently, CAMs (or associative arrays) in software are programming-language-specific. Semiconductor memory cell arrays are very regular structures, and manufacturers prove their processes on them; this allows price reductions on memory products. During the 1980s, CMOS logic gates developed into devices that could be made as fast as other circuit types; computer power consumption could therefore be decreased dramatically. Unlike the continuous current draw of a gate based on other logic types, a CMOS gate only draws significant current, except for leakage, during the 'transition' between logic states.[183]

CMOS circuits have allowed computing to become a commodity which is now ubiquitous, embedded in many forms, from greeting cards and telephones to satellites. The thermal design power which is dissipated during operation has become as essential as computing speed of operation. In 2006 servers consumed 1.5% of the total energy budget of the U.S.[184] The energy consumption of computer data centers was expected to double to 3% of world consumption by 2011. The SoC (system on a chip) has compressed even more of the integrated circuitry into a single chip; SoCs are enabling phones and PCs to converge into single hand-held wireless mobile devices.[185]

Quantum computing is an emerging technology in the field of computing. MIT Technology Review reported 10 November 2017 that IBM has created a 50-qubit computer; currently its quantum state lasts 50 microseconds.[186] Google researchers have been able to extend the 50 microsecond time limit, as reported 14 July 2021 in Nature;[187] stability has been extended 100-fold by spreading a single logical qubit over chains of data qubits for quantum error correction.[187] Physical Review X reported a technique for 'single-gate sensing as a viable readout method for spin qubits' (a singlet-triplet spin state in silicon) on 26 November 2018.[188] A Google team has succeeded in operating their RF pulse modulator chip at 3 kelvins, simplifying the cryogenics of their 72-qubit computer, which is set up to operate at 0.3 K; but the readout circuitry and another driver remain to be brought into the cryogenics.[189][p] See: Quantum supremacy[191][192] Silicon qubit systems have demonstrated entanglement at non-local distances.[193]

Computing hardware and its software have even become a metaphor for the operation of the universe.[194]

Epilogue

An indication of the rapidity of development of this field can be inferred from the history of the seminal 1947 article by Burks, Goldstine and von Neumann.[195] By the time that anyone had time to write anything down, it was obsolete. After 1945, others read John von Neumann's First Draft of a Report on the EDVAC, and immediately started implementing their own systems. To this day, the rapid pace of development has continued, worldwide.[q][r]

See also

Notes

  1. ^ The Ishango bone is a bone tool, dated to the Upper Paleolithic era, about 18,000 to 20,000 BC. It is a dark brown length of bone, the fibula of a baboon. It has a series of tally marks carved in three columns running the length of the tool. It was found in 1960 in Belgian Congo.[1]
  2. ^ According to Schmandt-Besserat 1981, these clay containers contained tokens, the total of which were the count of objects being transferred. The containers thus served as something of a bill of lading or an accounts book. In order to avoid breaking open the containers, first, clay impressions of the tokens were placed on the outside of the containers, for the count; the shapes of the impressions were abstracted into stylized marks; finally, the abstract marks were systematically used as numerals; these numerals were finally formalized as numbers. Eventually (Schmandt-Besserat estimates it took 5000 years.[5]) the marks on the outside of the containers were all that were needed to convey the count, and the clay containers evolved into clay tablets with marks for the count.
  3. ^ Robson has recommended at least one supplement to Schmandt-Besserat (1981), e.g., a review, Englund, R. (1993). "The origins of script". Science. 260 (5114): 1670–1671. doi:10.1126/science.260.5114.1670. PMID 17810210.[7]
  4. ^ A Spanish implementation of Napier's bones (1617), is documented in Montaner & Simon 1887, pp. 19–20.
  5. ^ All nine machines are described in Vidal & Vogt 2011.
  6. ^ Binary-coded decimal (BCD) is a numeric representation, or character encoding, which is still widely used.
  7. ^ The existence of Colossus was kept secret by the UK Government for 30 years and so was not known to American computer scientists, such as Gordon Bell and Allen Newell. And was not in Bell & Newell (1971) Computing Structures, a standard reference work in the 1970s.
  8. ^ The Manchester Baby predated EDSAC as a stored-program computer, but was built as a test bed for the Williams tube and not as a machine for practical use.[117] However, the Manchester Mark 1 of 1949 (not to be confused with the 1948 prototype, the Baby) was available for university research in April 1949 despite being still under development.[118]
  9. ^ Martin 2008, p. 24 notes that David Caminer (1915–2008) served as the first corporate electronic systems analyst, for this first business computer system. LEO would calculate an employee's pay, handle billing, and other office automation tasks.
  10. ^ For example, Kara Platoni's article on Donald Knuth stated that "there was something special about the IBM 650".[127]
  11. ^ The microcode was implemented as extracode on Atlas.[133]
  12. ^ Allen Newell used remote terminals to communicate cross-country with the RAND computers.[148]
  13. ^ Bob Taylor conceived of a generalized protocol to link together multiple networks to be viewed as a single session regardless of the specific network: "Wait a minute. Why not just have one terminal, and it connects to anything you want it to be connected to? And, hence, the Arpanet was born."[149]
  14. ^ The Intel 4004 (1971) die was 12 mm2, composed of 2300 transistors; by comparison, the Pentium Pro was 306 mm2, composed of 5.5 million transistors.[174]
  15. ^ In the defense field, considerable work was done in the computerized implementation of equations such as Kalman 1960, pp. 35–45.
  16. ^ IBM's 127-qubit computer cannot be simulated on traditional computers.[190]
  17. ^ DBLP summarizes the Annals of the History of Computing, year by year, back to 1979.[196]
  18. ^ The fastest supercomputer of the top 500 is now Frontier (of Oak Ridge National Laboratory) at 1.102 ExaFlops,[197] which is 2.66 times faster than Fugaku, now number two of the top 500.[198]
  1. ^ Schultz, Phill (7 September 1999). "A very brief history of pure mathematics: The Ishango Bone". University of Western Australia School of Mathematics. Archived from the original on 2008-07-21.
  2. ^ Selin, Helaine (12 March 2008). Encyclopaedia of the History of Science, Technology, and Medicine in Non-Western Cultures. Springer Science & Business Media. p. 1356. Bibcode:2008ehst.book.....S. ISBN 978-1-4020-4559-2. Retrieved 2020-05-27.
  3. ^ Pegg, Ed Jr. "Lebombo Bone". MathWorld.
  4. ^ Darling, David (2004). The Universal Book of Mathematics From Abracadabra to Zeno's Paradoxes. John Wiley & Sons. ISBN 978-0-471-27047-8.
  5. ^ Schmandt-Besserat, Denise. "The Evolution of Writing" (PDF). Archived from the original on 2012-01-30.
  6. ^ Robson, Eleanor (2008). Mathematics in Ancient Iraq. Princeton University Press. ISBN 978-0-691-09182-2. p. 5: calculi were in use in Iraq for primitive accounting systems as early as 3200–3000 BCE, with commodity-specific counting representation systems. Balanced accounting was in use by 3000–2350 BCE, and a sexagesimal number system was in use 2350–2000 BCE.
  7. ^ Robson, Eleanor. "Bibliography of Mesopotamian Mathematics". Archived from the original on 2016-06-16. Retrieved 2016-07-06.
  8. ^ Lazos 1994.
  9. ^ Sharkey, Noel (4 July 2007), A programmable robot from 60 AD, vol. 2611, New Scientist, archived from the original on 2017-12-13
  10. ^ Koetsier, Teun (2001), "On the prehistory of programmable machines: musical automata, looms, calculators", Mechanism and Machine Theory, 36 (5), Elsevier: 589–603, doi:10.1016/S0094-114X(01)00005-2.
  11. ^ "Episode 11: Ancient Robots", Ancient Discoveries, History Channel, archived from the original on 2014-03-01, retrieved 2008-09-06
  12. ^ Turner, Howard R. (1997). Science in Medieval Islam: An Illustrated Introduction. Austin: University of Texas press. p. 184. ISBN 978-0-292-78149-8.
  13. ^ Hill, Donald Routledge (May 1991). "Mechanical Engineering in the Medieval Near East". Scientific American. pp. 64–69. (cf. Hill, Donald Routledge. "IX. Mechanical Engineering". History of Sciences in the Islamic World. Archived from the original on 2007-12-25.)
  14. ^ Kells, Kern & Bland 1943, p. 92.
  15. ^ Kells, Kern & Bland 1943, p. 82.
  16. ^ Meli, Domenico Bertolini (1992). "Guidobaldo Dal Monte and the Archimedean Revival". Nuncius. 7 (1): 3–34. doi:10.1163/182539192x00019.
  17. ^ Williams 1997, p. 128 "...the single-tooth gear, like that used by Schickard, would not do for a general carry mechanism. The single-tooth gear works fine if the carry is only going to be propagated a few places but, if the carry has to be propagated several places along the accumulator, the force needed to operate the machine would be of such magnitude that it would do damage to the delicate gear works."
  18. ^ Pascal, Blaise (1645). La Machine d'arithmétique (in French).
  19. ^ Marguin 1994, p. 48.
  20. ^ Ocagne 1893, p. 245.
  21. ^ Mourlevat 1988, p. 12.
  22. ^ Falk, Jim. "Schickard versus Pascal - an empty debate?". Archived from the original on 2014-04-08. Retrieved 2014-05-15.
  23. ^ Smith 1929, pp. 180–181.
  24. ^ Leibniz 1703.
  25. ^ "Discovering the Arithmometer". Cornell University. 2005. Archived from the original on 2006-09-13. Retrieved 2023-08-26.
  26. ^ "Herman Hollerith". Columbia University Computing History. Columbia University ACIS. Archived from the original on 2011-05-13. Retrieved 2010-01-30.
  27. ^ Truesdell, Leon E. (1965). The Development of Punch Card Tabulation in the Bureau of the Census 1890–1940. US GPO. pp. 47–55.
  28. ^ Report of the Commissioner of Labor In Charge of The Eleventh Census to the Secretary of the Interior for the Fiscal Year Ending June 30, 1895. Washington, DC: United States Government Publishing Office. 29 July 1895. p. 9. hdl:2027/osu.32435067619882. OCLC 867910652. "You may confidently look for the rapid reduction of the force of this office after the 1st of October, and the entire cessation of clerical work during the present calendar year. ... The condition of the work of the Census Division and the condition of the final reports show clearly that the work of the Eleventh Census will be completed at least two years earlier than was the work of the Tenth Census." — Carroll D. Wright, Commissioner of Labor in Charge
  29. ^ "1920". IBM Archives. 23 January 2003. Archived from the original on 2020-10-29. Retrieved 2020-12-01.
  30. ^ "Chronological History of IBM: 1930s". IBM Archives. 23 January 2003. Archived from the original on 2020-12-03. Retrieved 2020-12-01.
  31. ^ Leslie Comrie (1928) On the Construction of Tables by Interpolation
  32. ^ Eckert 1935.
  33. ^ Frank da Cruz. "A Chronology of Computing at Columbia University". Columbia University Computing History. Columbia University. Archived from the original on 2023-08-22. Retrieved 2023-08-31.
  34. ^ Eckert 1940, pp. 101–114.
  35. ^ Light, Jennifer S. (July 1999). "When Computers Were Women". Technology and Culture. 40 (3): 455–483. doi:10.1353/tech.1999.0128. S2CID 108407884.
  36. ^ Hunt 1998.
  37. ^ "Friden Model STW-10 Electro-Mechanical Calculator". Archived from the original on 2011-05-14. Retrieved 2015-08-11.
  38. ^ "Simple and Silent". Office Magazine. December 1961. p. 1244.
  39. ^ "'Anita' der erste tragbare elektonische Rechenautomat" ['Anita' the first portable electronic computer]. Buromaschinen Mechaniker. November 1961. p. 207.
  40. ^ Halacy, Daniel Stephen (1970). Charles Babbage, Father of the Computer. Crowell-Collier Press. ISBN 0-02-741370-5.
  41. ^ "Babbage". Online stuff. Science Museum. 19 January 2007. Archived from the original on 2012-08-07. Retrieved 2012-08-01.
  42. ^ John Graham-Cumming (23 December 2010). "Let's build Babbage's ultimate mechanical computer". opinion. New Scientist. No. 2791. Archived from the original on 2012-08-05. Retrieved 2012-08-01.
  43. ^ "Babbage's Analytical Engine: The First True Digital Computer". The Analytical Engine. Archived from the original on 2008-08-21. Retrieved 2008-08-21.
  44. ^ "The Babbage Pages: Calculating Engines". Projects.exeter.ac.uk. 8 January 1997. Archived from the original on 2008-03-12. Retrieved 2024-04-23.
  45. ^ Robinson, Tim (28 May 2007). "Difference Engines". Meccano.us. Archived from the original on 2020-10-05. Retrieved 2012-08-01.
  46. ^ Menabrea & Lovelace 1843.
  47. ^ "The John Gabriel Byrne Computer Science Collection" (PDF). Archived from the original on 2019-04-16. Retrieved 2019-08-08.
  48. ^ "1907: was the first portable computer design Irish? | Ingenious Ireland". Archived from the original on 2022-12-02. Retrieved 2022-12-02.
  49. ^ L. Torres Quevedo. Ensayos sobre Automática – Su definicion. Extension teórica de sus aplicaciones, Revista de la Academia de Ciencias Exacta, Revista 12, pp. 391–418, 1914.
  50. ^ Torres Quevedo, Leonardo (19 November 1914). "Automática: Complemento de la Teoría de las Máquinas" (PDF). Revista de Obras Públicas: 575–583.
  51. ^ Torres Quevedo. L. (1915). "Essais sur l'Automatique - Sa définition. Etendue théorique de ses applications", Revue Génerale des Sciences Pures et Appliquées, vol. 2, pp. 601–611.
  52. ^ B. Randell. Electromechanical Calculating Machine, The Origins of Digital Computers, pp.109-120, 1982.
  53. ^ Randell, Brian. "From Analytical Engine to Electronic Digital Computer: The Contributions of Ludgate, Torres, and Bush" (PDF). Archived from the original (PDF) on 2013-09-21. Retrieved 2013-09-09.
  54. ^ Chua 1971, pp. 507–519.
  55. ^ a b c d "The Modern History of Computing". Stanford Encyclopedia of Philosophy. Metaphysics Research Lab, Stanford University. 2017. Archived from the original on 2010-07-12. Retrieved 2014-01-07.
  56. ^ Girvan, Ray (May–June 2003). "The revealed grace of the mechanism: computing after Babbage". Scientific Computing World. Archived from the original on 2012-11-03.
  57. ^ Torres, Leonardo (10 October 1895). "Memória sobre las Máquinas Algébricas" (PDF). Revista de Obras Públicas (in Spanish) (28): 217–222.
  58. ^ Leonardo Torres. Memoria sobre las máquinas algébricas: con un informe de la Real academia de ciencias exactas, fisicas y naturales, Misericordia, 1895.
  59. ^ Thomas, Federico (1 August 2008). "A short account on Leonardo Torres' endless spindle". Mechanism and Machine Theory. 43 (8). IFToMM: 1055–1063. doi:10.1016/j.mechmachtheory.2007.07.003. hdl:10261/30460. ISSN 0094-114X.
  60. ^ "Norden M9 Bombsight". National Museum of the USAF. Archived from the original on 2007-08-29. Retrieved 2008-05-17.
  61. ^ Coriolis 1836, pp. 5–9.
  62. ^ Tomayko, James E. (1985). "Helmut Hoelzer's Fully Electronic Analog Computer". IEEE Annals of the History of Computing. 7 (3): 227–240. doi:10.1109/MAHC.1985.10025. S2CID 15986944.
  63. ^ Neufeld, Michael J. (10 September 2013). The Rocket and the Reich: Peenemunde and the Coming of the Ballistic Missile Era. Smithsonian Institution. p. 138. ISBN 9781588344663. Archived from the original on 2023-02-02. Retrieved 2020-10-18.
  64. ^ Ulmann, Bernd (22 July 2013). Analog Computing. Walter de Gruyter. p. 38. ISBN 9783486755183. Archived from the original on 2023-02-02. Retrieved 2021-12-27.
  65. ^ a b Turing 1937, 1938
  66. ^ Copeland 2004, p. 22: "von Neumann ... firmly emphasized to me, and to others I am sure, that the fundamental conception is owing to Turing—insofar as not anticipated by Babbage, Lovelace and others. Letter by Stanley Frankel to Brian Randell, 1972."
  67. ^ a b Zuse, Horst. "Part 4: Konrad Zuse's Z1 and Z3 Computers". The Life and Work of Konrad Zuse. EPE Online. Archived from the original on 2008-06-01. Retrieved 2008-06-17.
  68. ^ Smith 2007, p. 60.
  69. ^ Welchman 1984, p. 77.
  70. ^ "A Computer Pioneer Rediscovered, 50 Years On". The New York Times. 20 April 1994. Archived from the original on 2016-11-04. Retrieved 2017-02-16.
  71. ^ Zuse 1993, p. 55.
  72. ^ "Zuse". Crash! The Story of IT. Archived from the original on 2008-03-18.
  73. ^ Rojas, Raúl (1998). How to Make Zuse's Z3 a Universal Computer. CiteSeerX 10.1.1.37.665.
  74. ^ Williams, F. C.; Kilburn, T. (25 September 1948). "Electronic Digital Computers". Nature. 162 (4117): 487. Bibcode:1948Natur.162..487W. doi:10.1038/162487a0. S2CID 4110351.
  75. ^ Da Cruz 2008.
  76. ^ "Computer Pioneers – George Stibitz". history.computer.org. Archived from the original on 2018-10-05. Retrieved 2018-11-08.
  77. ^ Ritchie, David (1986). The Computer Pioneers. New York: Simon and Schuster. p. 35. ISBN 067152397X.
  78. ^ Dunn, J. Michael; Hardegree, Gary M. (2001). Algebraic methods in philosophical logic. Oxford University Press US. p. 2. ISBN 978-0-19-853192-0. Archived from the original on 2023-02-02. Retrieved 2016-06-04.
  79. ^ Arthur Gottlob Frege. Begriffsschrift: eine der arithmetischen nachgebildete Formelsprache des reinen Denkens.
  80. ^ Shannon 1938.
  81. ^ Shannon 1940.
  82. ^ Shannon 1938, pp. 494–495.[verification needed]
  83. ^ Guarnieri, M. (2012). "The Age of Vacuum Tubes: Merging with Digital Computing [Historical]". IEEE Industrial Electronics Magazine. 6 (3): 52–55. doi:10.1109/MIE.2012.2207830. S2CID 41800914.
  84. ^ Pugh, Emerson W. (1996). Building IBM: Shaping an Industry and its Technology. The MIT Press.
  85. ^ "Patents and Innovation". IBM 100. 7 March 2012. Archived from the original on 2020-12-02. Retrieved 2020-12-01.
  86. ^ 15 January 1941 notice in the Des Moines Register
  87. ^ Burks, Alice R.; Burks, Arthur W. (1988). The First Electronic Computer: the Atanasoff story. Ann Arbor: University of Michigan Press. ISBN 0-472-10090-4.
  88. ^ Copeland 2006, p. 107.
  89. ^ Welchman 1984, pp. 138–145, 295–309.
  90. ^ Copeland 2006, p. 182.
  91. ^ Randell 1980, p. 9.
  92. ^ Budiansky 2000, p. 314.
  93. ^ "Bletchley's code-cracking Colossus". BBC News. 2 February 2010. Archived from the original on 2020-03-08. Retrieved 2012-10-19.
  94. ^ Fensom, Jim (8 November 2010), "Harry Fensom obituary", The Guardian, archived from the original on 2013-09-17, retrieved 2012-10-17
  95. ^ Sale, Tony. "Colossus - The Rebuild Story". The National Museum of Computing. Archived from the original on 2015-04-18.
  96. ^ Copeland 2006, p. 75.
  97. ^ Copeland 2006, p. 2.
  98. ^ Small, Albert W. (December 1944), The Special Fish Report, College Campus Washington: The American National Archive (NARA), archived from the original on 2011-05-15, retrieved 2019-01-11
  99. ^ Randell, Brian; Fensom, Harry; Milne, Frank A. (15 March 1995), "Obituary: Allen Coombs", The Independent, archived from the original on 2012-02-03, retrieved 2012-10-18
  100. ^ Flowers, T. H. (1983), "The Design of Colossus", Annals of the History of Computing, 5 (3): 239–252, doi:10.1109/MAHC.1983.10079, S2CID 39816473, archived from the original on 2006-03-26, retrieved 2019-03-03
  101. ^ Loerner, Brendan I. (25 November 2014). "How the World's First Computer Was Rescued From the Scrap Heap". Wired. Archived from the original on 2017-05-02. Retrieved 2017-03-07.
  102. ^ Evans 2018, p. 39.
  103. ^ "Generations of Computer". Archived from the original on 2015-07-02. Retrieved 2015-08-11.
  104. ^ Copeland 2004, pp. 21–22.
  105. ^ Copeland 2006, p. 104.
  106. ^ a b Wilkes, M. V. (1956). Automatic Digital Computers. New York: John Wiley & Sons. pp. 305 pages. QA76.W5 1956.
  107. ^ Alan Turing (1945). Proposed Electronic Calculator (PDF) (Report). Retrieved 2023-08-24.
  108. ^ Enticknap, Nicholas (Summer 1998), "Computing's Golden Jubilee", Resurrection (20), The Computer Conservation Society, ISSN 0958-7403, archived from the original on 2012-01-09, retrieved 2008-04-19
  109. ^ "Early computers at Manchester University", Resurrection, 1 (4), The Computer Conservation Society, Summer 1992, ISSN 0958-7403, archived from the original on 2017-08-28, retrieved 2010-07-07
  110. ^ "Why Williams-Kilburn Tube is a Better Name for the Williams Tube". Computer 50. Archived from the original on 2013-06-06.
  111. ^ Kilburn, Tom (1990), "From Cathode Ray Tube to Ferranti Mark I", Resurrection, 1 (2), The Computer Conservation Society, ISSN 0958-7403, archived from the original on 2020-06-27, retrieved 2012-03-15
  112. ^ "Early Electronic Computers (1946–51)", Computer 50, University of Manchester, archived from the original on 2009-01-05, retrieved 2008-11-16
  113. ^ Napper, R. B. E., "Introduction to the Mark 1", Computer 50, The University of Manchester, archived from the original on 2008-10-26, retrieved 2008-11-04
  114. ^ Lavington 1998, p. 20.
  115. ^ Ward, Mark (13 January 2011). "Pioneering Edsac computer to be built at Bletchley Park". BBC News. Archived from the original on 2018-06-20. Retrieved 2018-06-21.
  116. ^ Wilkes, W. V.; Renwick, W. (1950). "The EDSAC (Electronic delay storage automatic calculator)". Math. Comp. 4 (30): 61–65. doi:10.1090/s0025-5718-1950-0037589-7.
  117. ^ "A brief informal history of the Computer Laboratory". EDSAC 99. University of Cambridge Computer Laboratory. Archived from the original on 2013-05-06. Retrieved 2020-12-01.
  118. ^ "The Manchester Mark 1". Computer 50. Archived from the original on 2014-02-09. Retrieved 2014-01-05.
  119. ^ "Pioneer computer to be rebuilt". Cam. 62: 5. 2011. To be precise, EDSAC's first program printed a list of the squares of the integers from 0 to 99 inclusive.
  120. ^ EDSAC 99: 15–16 April 1999 (PDF), University of Cambridge Computer Laboratory, 6 May 1999, pp. 68–69, archived (PDF) from the original on 2020-09-26, retrieved 2013-06-29
  121. ^ Campbell-Kelly, Martin (July 2001). "Tutorial Guide to the EDSAC Simulator" (PDF). Department of Computer Science, University of Warwick. Archived from the original (PDF) on 2015-12-22. Retrieved 2016-11-18.
     • "Tutorial Guide to the EDSAC Simulator" (PDF). The EDSAC Replica Project, The National Museum of Computing. March 2018. Archived (PDF) from the original on 2015-12-22. Retrieved 2020-12-02.
  122. ^ Lavington 1998, p. 25.
  123. ^ Our Computer Heritage Pilot Study: Deliveries of Ferranti Mark I and Mark I Star computers., Computer Conservation Society, archived from the original on 2016-12-11, retrieved 2010-01-09
  124. ^ Lavington, Simon. "A brief history of British computers: the first 25 years (1948–1973)". British Computer Society. Archived from the original on 2010-07-05. Retrieved 2010-01-10.
  125. ^ a b 1634–1699: McCusker, J. J. (1997). How Much Is That in Real Money? A Historical Price Index for Use as a Deflator of Money Values in the Economy of the United States: Addenda et Corrigenda (PDF). American Antiquarian Society. 1700–1799: McCusker, J. J. (1992). How Much Is That in Real Money? A Historical Price Index for Use as a Deflator of Money Values in the Economy of the United States (PDF). American Antiquarian Society. 1800–present: Federal Reserve Bank of Minneapolis. "Consumer Price Index (estimate) 1800–". Retrieved 2024-02-29.
  126. ^ a b c Leclerc, Bruno (January 1990). "From Gamma 2 to Gamma E.T.: The Birth of Electronic Computing at Bull". Annals of the History of Computing. 12 (1): 5–22. doi:10.1109/MAHC.1990.10010. ISSN 0164-1239. S2CID 15227017.
  127. ^ Platoni, Kara (May–June 2006). "Love at First Byte". Stanford Magazine. Archived from the original on 2006-09-25.
  128. ^ V. M. Wolontis (18 August 1955) "A Complete Floating-Decimal Interpretive System for the I.B.M. 650 Magnetic Drum Calculator—Case 20878" Bell Telephone Laboratories Technical Memorandum MM-114-37, Reported in IBM Technical Newsletter No. 11, March 1956, as referenced in "Wolontis-Bell Interpreter". Annals of the History of Computing. 8 (1). IEEE: 74–76. January–March 1986. doi:10.1109/MAHC.1986.10008. S2CID 36692260.
  129. ^ Dudley, Leonard (2008). Information Revolution in the History of the West. Edward Elgar Publishing. p. 266. ISBN 978-1-84720-790-6. Retrieved 2020-08-30.
  130. ^ IBM (1957), SOAP II for the IBM 650 (PDF), C24-4000-0, archived (PDF) from the original on 2009-09-20, retrieved 2009-05-25
  131. ^ Horowitz & Hill 1989, p. 743.
  132. ^ Wilkes, M. V. (1992). "Edsac 2". IEEE Annals of the History of Computing. 14 (4): 49–56. doi:10.1109/85.194055. S2CID 11377060.
  133. ^ T. Kilburn; R. B. Payne; D. J. Howarth (1962). "The Atlas Supervisor". Atlas Computer. Archived from the original on 2009-12-31. Retrieved 2010-02-09.
  134. ^ US 2708722, Wang, An, "Pulse transfer controlling device", issued 1955-05-17 
  135. ^ "1953: Whirlwind computer debuts core memory". Computer History Museum. Archived from the original on 2018-05-08. Retrieved 2023-08-26.
  136. ^ N. Valery (21 August 1975). "Takeover in the memory market". New Scientist. pp. 419–421. Archived from the original on 2023-02-02. Retrieved 2019-01-22.
  137. ^ Wells, Benjamin (18 November 2010). "Unwinding performance and power on Colossus, an unconventional computer". Natural Computing. 10 (4). Springer Science and Business Media LLC: 1383–1405. doi:10.1007/s11047-010-9225-x. ISSN 1567-7818. S2CID 7492074.
  138. ^ Feynman, Leighton & Sands 1966, pp. 14–11 to 14–12.
  139. ^ IBM 1960.
  140. ^ Lavington 1998, pp. 34–35.
  141. ^ a b c Lavington 1998, p. 37.
  142. ^ a b Cooke-Yarborough, E.H. (1998). "Some early transistor applications in the UK". Engineering Science & Education Journal. 7 (3): 100–106. doi:10.1049/esej:19980301.
  143. ^ Cooke-Yarborough, E.H. (1957). Introduction to Transistor Circuits. Edinburgh: Oliver and Boyd.
  144. ^ Lavington, Simon (1980). Early British Computers. Manchester University Press. ISBN 0-7190-0803-4. Archived from the original on 2019-05-24. Retrieved 2014-01-07.
  145. ^ Cooke-Yarborough, E.H.; Barnes, R.C.M.; Stephen, J.H.; Howells, G.A. (1956). "A transistor digital computer". Proceedings of the IEE - Part B: Radio and Electronic Engineering. 103 (3S): 364–370. doi:10.1049/pi-b-1.1956.0076.
  146. ^ Lavington 1998, pp. 36–37.
  147. ^ "Metrovick". Exposuremeters.net. Archived from the original on 2014-01-07.
  148. ^ Simon 1991.
  149. ^ Mayo & Newcomb 2008.
  150. ^ Lavington 1998, p. 41.
  151. ^ Lavington 1998, pp. 44–45.
  152. ^ Lavington 1998, pp. 50–52.
  153. ^ Sao-Jie Chen; Guang-Huei Lin; Pao-Ann Hsiung; Yu-Hen Hu (2009). Hardware software co-design of a multimedia SOC platform. pp. 70–72.
  154. ^ Impagliazzo, John; Lee, John A. N. (2004). History of computing in education. Springer. p. 172. ISBN 1-4020-8135-9. Archived from the original on 2023-02-02. Retrieved 2016-06-04.
  155. ^ Sisson, Richard; Zacher, Christian K. (2006). The American Midwest: an interpretive encyclopedia. Indiana University Press. p. 1489. ISBN 0-253-34886-2. Archived from the original on 2023-02-02. Retrieved 2016-06-04.
  156. ^ Kilby 2000.
  157. ^ "The Chip that Jack Built". Texas Instruments. c. 2008. Archived from the original on 2017-08-05. Retrieved 2008-05-29.
  158. ^ Saxena, Arjun N. (2009). Invention of Integrated Circuits: Untold Important Facts. World Scientific. p. 140. ISBN 9789812814456. Archived from the original on 2023-02-02. Retrieved 2019-12-07.
  159. ^ a b "Integrated circuits". NASA. Archived from the original on 2019-07-21. Retrieved 2019-08-13.
  160. ^ US 2981877, Noyce, Robert, "Semiconductor device-and-lead structure", issued 1961-04-25, assigned to Fairchild Semiconductor Corporation 
  161. ^ "1959: Practical Monolithic Integrated Circuit Concept Patented". Computer History Museum. Archived from the original on 2019-10-24. Retrieved 2019-08-13.
  162. ^ Lojek, Bo (2007). History of Semiconductor Engineering. Springer Science & Business Media. p. 120. ISBN 9783540342588.
  163. ^ Bassett, Ross Knox (2007). To the Digital Age: Research Labs, Start-up Companies, and the Rise of MOS Technology. Johns Hopkins University Press. p. 46. ISBN 9780801886393. Archived from the original on 2023-02-02. Retrieved 2019-12-07.
  164. ^ Huff, Howard R.; Tsuya, H.; Gösele, U. (1998). Silicon Materials Science and Technology: Proceedings of the Eighth International Symposium on Silicon Materials Science and Technology. Electrochemical Society. pp. 181–182. ISBN 9781566771931. Archived from the original on 2023-02-02. Retrieved 2019-12-07.
  165. ^ Ceruzzi, Paul (2015). "Apollo Guidance Computer and the First Silicon Chips". SmithsonianNational Air and Space Museum. Archived from the original on 2021-05-22. Retrieved 2021-05-12.
  166. ^ "1960 - Metal Oxide Semiconductor (MOS) Transistor Demonstrated". The Silicon Engine. Computer History Museum. Archived from the original on 2019-10-27. Retrieved 2019-10-21.
  167. ^ a b "1970: MOS Dynamic RAM Competes with Magnetic Core Memory on Price". Computer History Museum. Archived from the original on 2021-10-26. Retrieved 2019-07-29.
  168. ^ Solid State Design - Vol. 6. Horizon House. 1965. Archived from the original on 2023-02-02. Retrieved 2020-10-18.
  169. ^ "DRAM". IBM100. IBM. 9 August 2017. Archived from the original on 2019-06-20. Retrieved 2019-09-20.
  170. ^ "1971: Reusable semiconductor ROM introduced". Computer History Museum. Archived from the original on 2019-10-03. Retrieved 2019-06-19.
  171. ^ "Not just a flash in the pan". The Economist. 11 March 2006. Archived from the original on 2019-09-25. Retrieved 2019-09-10.
  172. ^ a b c d Shirriff, Ken (30 August 2016). "The Surprising Story of the First Microprocessors". IEEE Spectrum. 53 (9). Institute of Electrical and Electronics Engineers: 48–54. doi:10.1109/MSPEC.2016.7551353. S2CID 32003640. Archived from the original on 2021-07-12. Retrieved 2019-10-13.
  173. ^ a b Intel 1971.
  174. ^ Patterson & Hennessy 1998, pp. 27–39.
  175. ^ Aspray, William (25 May 1994). "Oral-History: Tadashi Sasaki". Archived from the original on 2020-08-02. Sasaki credits the idea for a 4 bit-slice PMOS chip to a woman researcher's idea at Sharp Corporation, which was not accepted by the other members of the Sharp brainstorming group. A 40-million yen infusion from Busicom to Intel was made at Sasaki's behest, to exploit the 4 bit-slice PMOS chip.
  176. ^ Eckhouse & Morris 1979, pp. 1–2.
  177. ^ "R2E Micral N". www.system-cfg.com. Archived from the original on 2022-11-10. Retrieved 2022-12-02.
  178. ^ Shankland, Stephen (1 April 2009). "Google uncloaks once-secret server". Cnet. Archived from the original on 2014-07-16. Retrieved 2009-04-01. "Since 2005, its [Google's] data centers have been composed of standard shipping containers—each with 1,160 servers and a power consumption that can reach 250 kilowatts." —Ben Jai of Google.
  179. ^ Shankland, Stephen (30 May 2008). "Google spotlights data center inner workings". Cnet. Archived from the original on 2014-08-18. Retrieved 2008-05-31. "If you're running 10,000 machines, something is going to die every day." —Jeff Dean of Google.
  180. ^ "Google Groups". Archived from the original on 2011-09-13. Retrieved 2015-08-11.
  181. ^ Shrout, Ryan (2 December 2009). "Intel Shows 48-core x86 Processor as Single-chip Cloud Computer". PC Perspective. Archived from the original on 2010-08-14. Retrieved 2020-12-02.
     • "Intel unveils 48-core cloud computing silicon chip". BBC News. 3 December 2009. Archived from the original on 2012-12-06. Retrieved 2009-12-03.
  182. ^ Kohonen 1980, p. [page needed].
  183. ^ Mead & Conway 1980, pp. 11–36.
  184. ^ Energystar report (PDF) (Report). 2007. p. 4. Archived (PDF) from the original on 2013-10-22. Retrieved 2013-08-18.
  185. ^ Mossberg, Walt (9 July 2014). "How the PC is merging with the smartphone". Archived from the original on 2014-07-09. Retrieved 2014-07-09.
  186. ^ Knight, Will (10 November 2017). "IBM Raises the Bar with a 50-Qubit Quantum Computer". MIT Technology Review. Archived from the original on 2017-11-19. Retrieved 2017-11-10.
  187. ^ a b Julian Kelly; et al. (Google Quantum AI) (15 July 2021). "Exponential suppression of bit or phase errors with cyclic error correction" (PDF). Nature. 595 (7867): 383–387. doi:10.1038/s41586-021-03588-y. PMC 8279951. PMID 34262210. Cited in Adrian Cho (14 July 2021). "Physicists move closer to defeating errors in quantum computation". Science.
  188. ^ Pakkiam, P.; Timofeev, A. V.; House, M. G.; Hogg, M. R.; Kobayashi, T.; Koch, M.; Rogge, S.; Simmons, M. Y. (26 November 2018). "Single-Shot Single-Gate rf Spin Readout in Silicon". Physical Review X. 8 (4). 041032. arXiv:1809.01802. Bibcode:2018PhRvX...8d1032P. doi:10.1103/PhysRevX.8.041032. S2CID 119363882 – via APS.
  189. ^ Moore, Samuel K. (13 March 2019). "Google Builds Circuit to Solve One of Quantum Computing's Biggest Problems". IEEE Spectrum. Archived from the original on 2019-03-14. Retrieved 2019-03-14.
  190. ^ Ina Fried (14 November 2021). "Exclusive: IBM achieves quantum computing breakthrough". Axios. Archived from the original on 2021-11-15.
  191. ^ Juskalian, Russ (22 February 2017). "Practical Quantum Computers". MIT Technology Review. Archived from the original on 2021-06-23. Retrieved 2020-12-02.
  192. ^ MacKinnon, John D. (19 December 2018). "House Passes Bill to Create National Quantum Computing Program". The Wall Street Journal. Archived from the original on 2018-12-20. Retrieved 2018-12-20.
  193. ^ Princeton University (25 December 2019). "Quantum Computing Breakthrough: Silicon Qubits Interact at Long-Distance". SciTechDaily. Archived from the original on 2019-12-26. Retrieved 2019-12-26.
  194. ^ Smolin 2001, pp. 53–57. Pages 220–226 are annotated references and guide for further reading.
  195. ^ Burks, Goldstine & von Neumann 1947, pp. 1–464 reprinted in Datamation, September–October 1962. Note that preliminary discussion/design was the term later called system analysis/design, and even later, called system architecture.
  196. ^ "IEEE Annals of the History of Computing". Schloss Dagstuhl – Leibniz-Zentrum für Informatik. Archived from the original on 2011-03-20. Retrieved 2023-08-29.
  197. ^ "ORNL's Frontier First to Break the Exaflop Ceiling". top500.org. 30 May 2022. Archived from the original on 2022-06-02. Retrieved 2023-08-26.
  198. ^ McKay, Tom (22 June 2020). "Japan's New Fugaku Supercomputer Is Number One, Ranking in at 415 Petaflops". Gizmodo. Archived from the original on 2020-06-23. Retrieved 2020-06-23.

References

Further reading

External links