La historia de la informática es más larga que la historia del hardware informático y de la tecnología informática moderna e incluye la historia de los métodos pensados para el uso del lápiz y el papel o de la tiza y la pizarra, con o sin la ayuda de tablas.
La informática digital está íntimamente ligada a la representación de números . [1] Pero mucho antes de que surgieran abstracciones como el número , existían conceptos matemáticos al servicio de los propósitos de la civilización. Estos conceptos están implícitos en prácticas concretas como:
Con el tiempo, el concepto de números se volvió lo suficientemente concreto y familiar como para que surgiera la habilidad de contar, a veces con mnemotecnias cantadas para enseñar secuencias a otros. Todos los idiomas humanos conocidos, excepto el idioma piraha , tienen palabras para al menos los numerales "uno" y "dos", e incluso algunos animales como el mirlo pueden distinguir una cantidad sorprendente de elementos. [5]
Los avances en el sistema numérico y la notación matemática condujeron finalmente al descubrimiento de operaciones matemáticas como la suma, la resta, la multiplicación, la división, el cuadrado, la raíz cuadrada, etc. Con el tiempo, las operaciones se formalizaron y los conceptos sobre ellas se entendieron lo suficientemente bien como para ser enunciados formalmente e incluso demostrados . Véase, por ejemplo, el algoritmo de Euclides para hallar el máximo común divisor de dos números.
En la Alta Edad Media, el sistema de numeración posicional hindú-arábigo había llegado a Europa , lo que permitió el cálculo sistemático de números. Durante este período, la representación de un cálculo en papel permitió el cálculo de expresiones matemáticas y la tabulación de funciones matemáticas como la raíz cuadrada y el logaritmo común (para su uso en la multiplicación y la división), y las funciones trigonométricas . En la época de la investigación de Isaac Newton , el papel o pergamino era un importante recurso informático , e incluso en nuestra época actual, investigadores como Enrico Fermi cubrían trozos de papel al azar con cálculos, para satisfacer su curiosidad sobre una ecuación. [6] Incluso en el período de las calculadoras programables, Richard Feynman calculaba sin vacilar cualquier paso que desbordara la memoria de las calculadoras, a mano, solo para aprender la respuesta; en 1976 Feynman había comprado una calculadora HP-25 con una capacidad de 49 pasos de programa; si una ecuación diferencial requería más de 49 pasos para resolverse, podía continuar su cálculo a mano. [7]
Los enunciados matemáticos no tienen por qué ser únicamente abstractos; cuando un enunciado puede ilustrarse con números reales, los números pueden comunicarse y puede surgir una comunidad. Esto permite la repetición y verificación de enunciados que son el sello distintivo de las matemáticas y la ciencia. Este tipo de enunciados existen desde hace miles de años y en múltiples civilizaciones, como se muestra a continuación:
La herramienta más antigua conocida para el cálculo es el ábaco sumerio , y se cree que fue inventado en Babilonia entre el 2700 y el 2300 a. C. Su estilo original de uso era mediante líneas dibujadas en la arena con guijarros. [ cita requerida ]
Entre 1050 y 771 a. C. se inventó en la antigua China el carro que apuntaba hacia el sur . Fue el primer mecanismo de engranajes conocido que utilizaba un engranaje diferencial , que luego se utilizó en las computadoras analógicas . Los chinos también inventaron un ábaco más sofisticado alrededor del siglo II a. C., conocido como el ábaco chino . [ cita requerida ]
En el siglo III a. C., Arquímedes utilizó el principio mecánico del equilibrio (véase Palimpsesto de Arquímedes § El método de los teoremas mecánicos ) para calcular problemas matemáticos, como el número de granos de arena en el universo ( El calculador de arena ), que también requería una notación recursiva para los números (por ejemplo, la miríada de miríadas ).
Se cree que el mecanismo de Antikythera es el dispositivo de computación con engranajes más antiguo conocido. Fue diseñado para calcular posiciones astronómicas. Fue descubierto en 1901 en el naufragio del Antikythera frente a la isla griega de Antikythera, entre Kythera y Creta , y se ha datado en torno al año 100 a. C. [8]
Según Simon Singh , los matemáticos musulmanes también hicieron avances importantes en criptografía , como el desarrollo del criptoanálisis y el análisis de frecuencia por Alkindus . [9] [10] Las máquinas programables también fueron inventadas por ingenieros musulmanes , como el flautista automático por los hermanos Banū Mūsā . [11]
Durante la Edad Media, varios filósofos europeos intentaron producir dispositivos informáticos analógicos. Influenciado por los árabes y la escolástica , el filósofo mallorquín Ramon Llull (1232-1315) dedicó gran parte de su vida a definir y diseñar varias máquinas lógicas que, combinando verdades filosóficas sencillas e innegables, pudieran producir todo el conocimiento posible. Estas máquinas nunca llegaron a construirse, ya que eran más bien un experimento mental para producir nuevo conocimiento de forma sistemática; aunque podían realizar operaciones lógicas sencillas, seguían necesitando un ser humano para la interpretación de los resultados. Además, carecían de una arquitectura versátil, ya que cada máquina servía solo para fines muy concretos. A pesar de esto, la obra de Llull tuvo una fuerte influencia en Gottfried Leibniz (principios del siglo XVIII), quien desarrolló aún más sus ideas y construyó varias herramientas de cálculo utilizándolas.
El punto culminante de esta era temprana de la computación mecánica se puede ver en la máquina diferencial y su sucesora, la máquina analítica, ambas de Charles Babbage . Babbage nunca completó la construcción de ninguna de las dos máquinas, pero en 2002 Doron Swade y un grupo de otros ingenieros del Museo de Ciencias de Londres completaron la máquina diferencial de Babbage utilizando solo materiales que habrían estado disponibles en la década de 1840. [12] Siguiendo el diseño detallado de Babbage, pudieron construir una máquina funcional, lo que permite a los historiadores decir, con cierta confianza, que si Babbage hubiera podido completar su máquina diferencial, habría funcionado. [13] La máquina analítica, además de avanzada, combinó conceptos de su trabajo anterior y de otros para crear un dispositivo que, si se hubiera construido como estaba diseñado, habría poseído muchas propiedades de una computadora electrónica moderna, como una "memoria de borrador" interna equivalente a la RAM , múltiples formas de salida que incluían una campana, un trazador gráfico y una impresora simple, y una memoria "dura" programable de entrada y salida de tarjetas perforadas que podía modificar y leer. El avance clave que poseían los dispositivos de Babbage con respecto a los creados antes que él era que cada componente del dispositivo era independiente del resto de la máquina, de manera muy similar a los componentes de una computadora electrónica moderna. Este fue un cambio fundamental en el pensamiento; los dispositivos computacionales anteriores solo servían para un solo propósito, pero en el mejor de los casos tenían que ser desmontados y reconfigurados para resolver un nuevo problema. Los dispositivos de Babbage podían reprogramarse para resolver nuevos problemas mediante la entrada de nuevos datos y actuar sobre cálculos anteriores dentro de la misma serie de instrucciones. Ada Lovelace llevó este concepto un paso más allá al crear un programa para que la máquina analítica calculara los números de Bernoulli , un cálculo complejo que requería un algoritmo recursivo. Este se considera el primer ejemplo de un verdadero programa informático, una serie de instrucciones que actúan sobre datos que no se conocen en su totalidad hasta que se ejecuta el programa.
Siguiendo a Babbage, aunque sin conocer su trabajo anterior, Percy Ludgate [14] [15] en 1909 publicó el segundo de los dos únicos diseños de máquinas analíticas mecánicas en la historia. [16] Otros dos inventores, Leonardo Torres Quevedo [17] y Vannevar Bush , [18] también realizaron investigaciones de seguimiento basadas en el trabajo de Babbage. En sus Ensayos sobre automática (1914) Torres presentó el diseño de una máquina calculadora electromecánica e introdujo la idea de la aritmética de punto flotante . [19] [20] En 1920, para celebrar el centenario de la invención del aritmómetro , Torres presentó en París el Aritmómetro Electromecánico , una unidad aritmética conectada a una máquina de escribir remota, en la que se podían escribir comandos e imprimir los resultados automáticamente. [21] [22] En su artículo Instrumental Analysis (Análisis instrumental ) (1936), Bush analizaba el uso de las máquinas de tarjetas perforadas de IBM existentes para implementar el diseño de Babbage. Ese mismo año, inició el proyecto Rapid Arithmetical Machine (Máquina aritmética rápida) para investigar los problemas de la construcción de una computadora digital electrónica.
Varios ejemplos de computación analógica sobrevivieron hasta tiempos recientes. Un planímetro es un dispositivo que realiza integrales, utilizando la distancia como la cantidad analógica. Hasta la década de 1980, los sistemas de HVAC usaban el aire como la cantidad analógica y el elemento de control. A diferencia de las computadoras digitales modernas, las computadoras analógicas no son muy flexibles y necesitan ser reconfiguradas (es decir, reprogramadas) manualmente para cambiarlas de trabajar en un problema a otro. Las computadoras analógicas tenían una ventaja sobre las primeras computadoras digitales en el sentido de que podían usarse para resolver problemas complejos utilizando análogos de comportamiento, mientras que los primeros intentos de computadoras digitales fueron bastante limitados.
Como las computadoras eran raras en esta época, las soluciones a menudo estaban codificadas en formatos de papel como nomogramas , [23] que luego podían producir soluciones analógicas a estos problemas, como la distribución de presiones y temperaturas en un sistema de calefacción.
Es posible que algún día el "cerebro" [el ordenador] llegue a nuestro nivel [el de la gente común] y nos ayude con los cálculos de impuestos y contabilidad, pero esto es pura especulación y, hasta ahora, no hay señales de que vaya a ocurrir.
— El periódico británico The Star en un artículo de noticias de junio de 1949 sobre la computadora EDSAC , mucho antes de la era de las computadoras personales. [24]
En una carta de 1886, Charles Sanders Peirce describió cómo se podían llevar a cabo operaciones lógicas mediante circuitos de conmutación eléctricos. [25] Durante 1880-81 demostró que las puertas NOR solas (o puertas NAND solas ) se pueden utilizar para reproducir las funciones de todas las demás puertas lógicas , pero este trabajo al respecto no se publicó hasta 1933. [26] La primera prueba publicada fue realizada por Henry M. Sheffer en 1913, por lo que la operación lógica NAND a veces se denomina trazo de Sheffer ; la NOR lógica a veces se denomina flecha de Peirce . [27] En consecuencia, estas puertas a veces se denominan puertas lógicas universales . [28]
Con el tiempo, los tubos de vacío reemplazaron a los relés para las operaciones lógicas. La modificación de Lee De Forest , en 1907, de la válvula Fleming puede usarse como una puerta lógica. Ludwig Wittgenstein introdujo una versión de la tabla de verdad de 16 filas como proposición 5.101 del Tractatus Logico-Philosophicus (1921). Walther Bothe , inventor del circuito de coincidencia , recibió parte del Premio Nobel de Física de 1954, por la primera puerta AND electrónica moderna en 1924. Konrad Zuse diseñó y construyó puertas lógicas electromecánicas para su computadora Z1 (de 1935 a 1938).
La primera idea registrada de usar electrónica digital para computación fue el artículo de 1931 "El uso de tiratrones para el conteo automático de alta velocidad de fenómenos físicos" de CE Wynn-Williams . [29] De 1934 a 1936, el ingeniero de NEC Akira Nakashima , Claude Shannon y Victor Shestakov publicaron artículos que presentaban la teoría de circuitos de conmutación , utilizando electrónica digital para operaciones algebraicas booleanas . [30] [31] [32] [33]
En 1936, Alan Turing publicó su artículo fundamental On Computable Numbers, with an Application to the Entscheidungsproblem [34] en el que modeló el cálculo en términos de una cinta de almacenamiento unidimensional, lo que condujo a la idea de la máquina universal de Turing y los sistemas Turing-completos . [ cita requerida ]
El primer ordenador electrónico digital fue desarrollado en el período de abril de 1936 - junio de 1939, en el Departamento de Patentes de IBM, Endicott, Nueva York por Arthur Halsey Dickinson. [35] [36] [37] En este ordenador IBM introdujo un dispositivo de cálculo con teclado, procesador y salida electrónica (pantalla). El competidor de IBM fue el ordenador electrónico digital NCR3566, desarrollado en NCR, Dayton, Ohio por Joseph Desch y Robert Mumma en el período de abril de 1939 - agosto de 1939. [38] [39] Las máquinas IBM y NCR eran decimales, ejecutando sumas y restas en código de posición binario.
En diciembre de 1939, John Atanasoff y Clifford Berry completaron su modelo experimental para demostrar el concepto de la computadora Atanasoff-Berry (ABC), cuyo desarrollo comenzó en 1937. [40] Este modelo experimental es binario, ejecutaba sumas y restas en código binario octal y es el primer dispositivo informático electrónico digital binario. La computadora Atanasoff-Berry estaba destinada a resolver sistemas de ecuaciones lineales, aunque no era programable. La computadora nunca se completó realmente debido a la partida de Atanasoff de la Universidad Estatal de Iowa en 1942 para trabajar para la Marina de los Estados Unidos. [41] [42] Mucha gente atribuye a ABC muchas de las ideas utilizadas en desarrollos posteriores durante la era de la computación electrónica temprana. [43]
La computadora Z3 , construida por el inventor alemán Konrad Zuse en 1941, fue la primera máquina de computación programable y totalmente automática, pero no era electrónica.
Durante la Segunda Guerra Mundial, los cálculos balísticos los hacían mujeres, que eran contratadas como "computadoras". El término "computadora" siguió siendo un término que se refería principalmente a mujeres (ahora se lo considera "operadora") hasta 1945, año en el que adoptó la definición moderna de maquinaria que tiene en la actualidad. [44]
El ENIAC (Electronic Numerical Integrator And Computer) fue el primer ordenador electrónico de uso general, anunciado al público en 1946. Era Turing-completo, [45] digital y capaz de ser reprogramado para resolver una amplia gama de problemas informáticos. Las mujeres implementaron la programación de máquinas como el ENIAC y los hombres crearon el hardware. [44]
El Manchester Baby fue el primer ordenador electrónico con programa almacenado . Fue construido en la Universidad Victoria de Manchester por Frederic C. Williams , Tom Kilburn y Geoff Tootill , y ejecutó su primer programa el 21 de junio de 1948. [46]
William Shockley , John Bardeen y Walter Brattain en Bell Labs inventaron el primer transistor funcional , el transistor de contacto puntual , en 1947, seguido por el transistor de unión bipolar en 1948. [47] [48] En la Universidad de Manchester en 1953, un equipo bajo el liderazgo de Tom Kilburn diseñó y construyó la primera computadora transistorizada , llamada Transistor Computer , una máquina que usaba los transistores recientemente desarrollados en lugar de válvulas. [49] La primera computadora transistorizada con programa almacenado fue la ETL Mark III, desarrollada por el Laboratorio Electrotécnico de Japón [50] [51] [52] desde 1954 [53] hasta 1956. [51] Sin embargo, los primeros transistores de unión eran dispositivos relativamente voluminosos que eran difíciles de fabricar en una base de producción en masa , lo que los limitaba a una serie de aplicaciones especializadas. [54]
En 1954, el 95% de las computadoras en servicio se utilizaban para fines científicos y de ingeniería. [55]
El transistor de efecto de campo de metal-óxido-silicio (MOSFET), también conocido como transistor MOS, fue inventado en Bell Labs entre 1955 y 1960, [56] [57] [58] [59] [60] [61] [62] Fue el primer transistor verdaderamente compacto que podía miniaturizarse y producirse en masa para una amplia gama de usos. [54] El MOSFET hizo posible construir chips de circuitos integrados de alta densidad . [63] [64] El MOSFET es el transistor más utilizado en computadoras, [65] [66] y es el componente fundamental de la electrónica digital . [67]
El circuito integrado MOS de compuerta de silicio fue desarrollado por Federico Faggin en Fairchild Semiconductor en 1968. [68] Esto condujo al desarrollo del primer microprocesador de un solo chip , el Intel 4004. [ 69] El Intel 4004 fue desarrollado como un microprocesador de un solo chip de 1969 a 1970, liderado por Federico Faggin, Marcian Hoff y Stanley Mazor de Intel , y Masatoshi Shima de Busicom. [70] El chip fue diseñado y realizado principalmente por Faggin, con su tecnología MOS de compuerta de silicio. [69] El microprocesador condujo a la revolución de la microcomputadora, con el desarrollo de la microcomputadora , que más tarde se llamaría computadora personal (PC).
La mayoría de los primeros microprocesadores, como el Intel 8008 y el Intel 8080 , eran de 8 bits . Texas Instruments lanzó el primer microprocesador de 16 bits , el procesador TMS9900 , en junio de 1976. [71] Utilizaron el microprocesador en las computadoras TI-99/4 y TI-99/4A .
La década de 1980 trajo consigo avances significativos en materia de microprocesadores que tuvieron un gran impacto en los campos de la ingeniería y otras ciencias. El microprocesador Motorola 68000 tenía una velocidad de procesamiento muy superior a la de los demás microprocesadores que se utilizaban en ese momento. Por ello, disponer de un microprocesador más nuevo y rápido permitió que las microcomputadoras más nuevas que surgieron después fueran más eficientes en la cantidad de cálculos que podían realizar. Esto quedó de manifiesto en el lanzamiento en 1983 del Apple Lisa . El Lisa fue uno de los primeros ordenadores personales con una interfaz gráfica de usuario (GUI) que se vendió comercialmente. Funcionaba con la CPU Motorola 68000 y utilizaba unidades de disquete duales y un disco duro de 5 MB para el almacenamiento. La máquina también tenía 1 MB de RAM que se utilizaba para ejecutar software desde el disco sin tener que volver a leer el disco de forma persistente. [72] Después del fracaso de Lisa en términos de ventas, Apple lanzó su primer ordenador Macintosh , todavía funcionando con el microprocesador Motorola 68000, pero con sólo 128 KB de RAM, una unidad de disquete y sin disco duro para reducir el precio.
A finales de la década de 1980 y principios de la de 1990, las computadoras se volvieron más útiles para fines personales y laborales, como el procesamiento de textos . [73] En 1989, Apple lanzó la Macintosh Portable , pesaba 7,3 kg (16 lb) y era extremadamente cara, costando US$7300. En su lanzamiento, era una de las computadoras portátiles más potentes disponibles, pero debido al precio y al peso, no tuvo un gran éxito y se suspendió solo dos años después. Ese mismo año, Intel presentó la supercomputadora Touchstone Delta , que tenía 512 microprocesadores. Este avance tecnológico fue muy significativo, ya que se utilizó como modelo para algunos de los sistemas multiprocesador más rápidos del mundo. Incluso se utilizó como prototipo para los investigadores de Caltech, quienes utilizaron el modelo para proyectos como el procesamiento en tiempo real de imágenes satelitales y la simulación de modelos moleculares para varios campos de investigación.
En términos de supercomputación, la primera supercomputadora ampliamente reconocida fue la Control Data Corporation (CDC) 6600 [74] construida en 1964 por Seymour Cray . Su velocidad máxima era de 40 MHz o 3 millones de operaciones de punto flotante por segundo ( FLOPS ). La CDC 6600 fue reemplazada por la CDC 7600 en 1969; [75] aunque su velocidad de reloj normal no era más rápida que la 6600, la 7600 todavía era más rápida debido a su velocidad de reloj pico, que era aproximadamente 30 veces más rápida que la de la 6600. Aunque CDC era líder en supercomputadoras, su relación con Seymour Cray (que ya se estaba deteriorando) colapsó por completo. En 1972, Cray dejó CDC y comenzó su propia compañía, Cray Research Inc. [76] Con el apoyo de los inversores de Wall Street, una industria impulsada por la Guerra Fría, y sin las restricciones que tenía dentro de CDC, creó la supercomputadora Cray-1 . Con una velocidad de reloj de 80 MHz o 136 megaFLOPS, Cray se hizo un nombre en el mundo de la informática. En 1982, Cray Research produjo la Cray X-MP equipada con multiprocesamiento y en 1985 lanzó la Cray-2 , que continuó con la tendencia del multiprocesamiento y tenía una velocidad de reloj de 1,9 gigaFLOPS. Cray Research desarrolló la Cray Y-MP en 1988, sin embargo después tuvo dificultades para seguir produciendo supercomputadoras. Esto se debió en gran medida a que la Guerra Fría había terminado, y la demanda de informática de vanguardia por parte de las universidades y el gobierno disminuyó drásticamente y la demanda de unidades de microprocesamiento aumentó.
En 1998, David Bader desarrolló la primera supercomputadora Linux usando componentes de consumo. [77] Mientras estaba en la Universidad de Nuevo México, Bader buscó construir una supercomputadora que ejecutara Linux usando componentes de consumo listos para usar y una red de interconexión de baja latencia y alta velocidad. El prototipo utilizó un "AltaCluster" de Alta Technologies de ocho computadoras duales Intel Pentium II de 333 MHz que ejecutaban un núcleo Linux modificado. Bader adaptó una cantidad significativa de software para brindar soporte Linux para los componentes necesarios, así como código de miembros de la National Computational Science Alliance (NCSA) para garantizar la interoperabilidad, ya que ninguno de ellos se había ejecutado en Linux anteriormente. [78] Usando el exitoso diseño del prototipo, dirigió el desarrollo de "RoadRunner", la primera supercomputadora Linux para uso abierto por la comunidad científica y de ingeniería nacional a través de la National Technology Grid de la National Science Foundation. RoadRunner se puso en producción en abril de 1999. En el momento de su implementación, se consideró una de las 100 supercomputadoras más rápidas del mundo. [78] [79] Aunque los clústeres basados en Linux que usaban componentes de nivel de consumidor, como Beowulf , existían antes del desarrollo del prototipo de Bader y RoadRunner, carecían de la escalabilidad, el ancho de banda y las capacidades de computación paralela para ser considerados supercomputadoras "verdaderas". [78]
En la actualidad, los gobiernos del mundo y las instituciones educativas siguen utilizando supercomputadoras para realizar cálculos como simulaciones de desastres naturales, búsquedas de variantes genéticas dentro de una población relacionadas con enfermedades y más. A partir de abril de 2023 [actualizar], la supercomputadora más rápida es Frontier .
Partiendo de casos especiales conocidos, el cálculo de logaritmos y funciones trigonométricas se puede realizar buscando números en una tabla matemática e interpolando entre casos conocidos. Para diferencias lo suficientemente pequeñas, esta operación lineal era lo suficientemente precisa para su uso en navegación y astronomía en la Era de la Exploración . Los usos de la interpolación han prosperado en los últimos 500 años: en el siglo XX, Leslie Comrie y WJ Eckert sistematizaron el uso de la interpolación en tablas de números para el cálculo con tarjetas perforadas.
La solución numérica de ecuaciones diferenciales, en particular las ecuaciones de Navier-Stokes, fue un estímulo importante para la informática, con el enfoque numérico de Lewis Fry Richardson para resolver ecuaciones diferenciales. El primer pronóstico meteorológico computarizado fue realizado en 1950 por un equipo compuesto por los meteorólogos estadounidenses Jule Charney , Philip Duncan Thompson, Larry Gates y el meteorólogo noruego Ragnar Fjørtoft , el matemático aplicado John von Neumann y la programadora de ENIAC Klara Dan von Neumann . [80] [81] [82] Hasta el día de hoy, algunos de los sistemas informáticos más poderosos de la Tierra se utilizan para pronósticos meteorológicos . [83]
A finales de la década de 1960, los sistemas informáticos podían realizar manipulaciones algebraicas simbólicas lo suficientemente bien como para aprobar los cursos de cálculo de nivel universitario . [ cita requerida ]
Las mujeres suelen estar subrepresentadas en los campos STEM en comparación con sus homólogos masculinos. [84] En la era moderna, antes de la década de 1960, la informática se consideraba ampliamente como "trabajo de mujeres", ya que se asociaba con el funcionamiento de máquinas tabuladoras y otros trabajos mecánicos de oficina. [85] [86] La precisión de esta asociación variaba de un lugar a otro. En Estados Unidos, Margaret Hamilton recordó un entorno dominado por hombres, [87] mientras que Elsie Shutt recordó la sorpresa al ver que incluso la mitad de los operadores de computadoras en Raytheon eran hombres. [88] Los operadores de máquinas en Gran Bretaña eran en su mayoría mujeres hasta principios de la década de 1970. [89] A medida que estas percepciones cambiaron y la informática se convirtió en una carrera de alto estatus, el campo se volvió más dominado por los hombres. [90] [91] [92] La profesora Janet Abbate , en su libro Recoding Gender , escribe:
Sin embargo, las mujeres tuvieron una presencia significativa en las primeras décadas de la informática. Constituían la mayoría de los primeros programadores informáticos durante la Segunda Guerra Mundial; ocupaban puestos de responsabilidad e influencia en la industria informática en sus inicios; y estaban empleadas en cantidades que, aunque eran una pequeña minoría del total, se comparaban favorablemente con la representación de las mujeres en muchas otras áreas de la ciencia y la ingeniería. Algunas programadoras de los años 1950 y 1960 se habrían burlado de la idea de que la programación llegara a ser considerada una ocupación masculina, pero las experiencias y contribuciones de estas mujeres se olvidaron demasiado rápido. [93]
Algunos ejemplos notables de mujeres en la historia de la informática son:
{{cite web}}
: CS1 maint: varios nombres: lista de autores ( enlace ){{cite book}}
: CS1 maint: location missing publisher (link)(3+207+1 páginas) 10:00 min