stringtranslate.com

Informática teórica

La informática teórica es un subcampo de la informática y las matemáticas que se centra en los fundamentos abstractos y matemáticos de la computación .

Es difícil delimitar con precisión las áreas teóricas. El Grupo de Interés Especial sobre Algoritmos y Teoría de la Computación (SIGACT) de la ACM ofrece la siguiente descripción: [1]

TCS cubre una amplia variedad de temas, incluidos algoritmos , estructuras de datos , complejidad computacional , computación paralela y distribuida , computación probabilística , computación cuántica , teoría de autómatas , teoría de la información , criptografía , semántica y verificación de programas , teoría de juegos algorítmicos , aprendizaje automático , biología computacional , economía computacional , geometría computacional y teoría de números computacionales y álgebra . El trabajo en este campo a menudo se distingue por su énfasis en la técnica matemática y el rigor .

Historia

Si bien la inferencia lógica y la prueba matemática ya existían previamente, en 1931 Kurt Gödel demostró con su teorema de incompletitud que existen limitaciones fundamentales sobre qué afirmaciones pueden probarse o refutarse.

La teoría de la información se sumó al campo con una teoría matemática de la comunicación de Claude Shannon en 1948. En la misma década, Donald Hebb introdujo un modelo matemático del aprendizaje en el cerebro. Con la acumulación de datos biológicos que respaldaban esta hipótesis con algunas modificaciones, se establecieron los campos de las redes neuronales y el procesamiento distribuido paralelo . En 1971, Stephen Cook y, trabajando independientemente , Leonid Levin , demostraron que existen problemas prácticamente relevantes que son NP-completos , un resultado histórico en la teoría de la complejidad computacional . [2]

La investigación teórica moderna en informática se basa en estos desarrollos básicos, pero incluye muchos otros problemas matemáticos e interdisciplinarios que se han planteado, como se muestra a continuación:

Temas

Algoritmos

Un algoritmo es un procedimiento paso a paso para realizar cálculos. Los algoritmos se utilizan para el cálculo , el procesamiento de datos y el razonamiento automático .

Un algoritmo es un método eficaz expresado como una lista finita [3] de instrucciones bien definidas [4] para calcular una función . [5] A partir de un estado inicial y una entrada inicial (quizás vacía ), [6] las instrucciones describen un cálculo que, cuando se ejecuta , procede a través de un número finito [7] de estados sucesivos bien definidos, produciendo finalmente una "salida" [8] y terminando en un estado final. La transición de un estado al siguiente no es necesariamente determinista ; algunos algoritmos, conocidos como algoritmos aleatorios , incorporan una entrada aleatoria. [9]

Teoría de autómatas

La teoría de autómatas es el estudio de las máquinas abstractas y los autómatas , así como de los problemas computacionales que pueden resolverse mediante su uso. Es una teoría de la informática teórica, dentro de las matemáticas discretas (una sección de las matemáticas y también de la informática ). Autómata proviene de la palabra griega αὐτόματα que significa "autoactuante".

La teoría de autómatas es el estudio de máquinas virtuales autónomas para ayudar en la comprensión lógica del proceso de entrada y salida, sin o con etapas intermedias de cálculo (o cualquier función /proceso).

Teoría de la codificación

La teoría de la codificación es el estudio de las propiedades de los códigos y su idoneidad para una aplicación específica. Los códigos se utilizan para la compresión de datos , la criptografía , la corrección de errores y, más recientemente, también para la codificación de redes . Los códigos son estudiados por diversas disciplinas científicas (como la teoría de la información , la ingeniería eléctrica , las matemáticas y la informática ) con el fin de diseñar métodos de transmisión de datos eficientes y fiables . Esto normalmente implica la eliminación de la redundancia y la corrección (o detección) de errores en los datos transmitidos.

Teoría de la complejidad computacional

La teoría de la complejidad computacional es una rama de la teoría de la computación que se centra en clasificar los problemas computacionales según su dificultad inherente y relacionar esas clases entre sí. Se entiende por problema computacional una tarea que, en principio, es susceptible de ser resuelta por un ordenador, lo que equivale a afirmar que el problema puede resolverse mediante la aplicación mecánica de pasos matemáticos, como un algoritmo .

Un problema se considera inherentemente difícil si su solución requiere recursos significativos, sea cual sea el algoritmo utilizado. La teoría formaliza esta intuición, introduciendo modelos matemáticos de computación para estudiar estos problemas y cuantificando la cantidad de recursos necesarios para resolverlos, como el tiempo y el almacenamiento. También se utilizan otras medidas de complejidad , como la cantidad de comunicación (utilizada en la complejidad de la comunicación ), el número de puertas en un circuito (utilizado en la complejidad del circuito ) y el número de procesadores (utilizado en la computación paralela ). Una de las funciones de la teoría de la complejidad computacional es determinar los límites prácticos de lo que las computadoras pueden y no pueden hacer.

Geometría computacional

La geometría computacional es una rama de la informática dedicada al estudio de algoritmos que pueden expresarse en términos de geometría . Algunos problemas puramente geométricos surgen del estudio de algoritmos geométricos computacionales, y dichos problemas también se consideran parte de la geometría computacional.

El principal impulso para el desarrollo de la geometría computacional como disciplina fue el progreso en los gráficos por computadora y el diseño y fabricación asistidos por computadora ( CAD / CAM ), pero muchos problemas en la geometría computacional son de naturaleza clásica y pueden provenir de la visualización matemática .

Otras aplicaciones importantes de la geometría computacional incluyen la robótica (planificación de movimiento y problemas de visibilidad), los sistemas de información geográfica (SIG) (ubicación y búsqueda geométrica, planificación de rutas), el diseño de circuitos integrados (diseño y verificación de geometría de circuitos integrados), la ingeniería asistida por computadora (generación de mallas) y la visión por computadora (reconstrucción 3D).

Teoría del aprendizaje computacional

Los resultados teóricos del aprendizaje automático tratan principalmente de un tipo de aprendizaje inductivo llamado aprendizaje supervisado. En el aprendizaje supervisado, se dan muestras a un algoritmo que están etiquetadas de alguna manera útil. Por ejemplo, las muestras pueden ser descripciones de hongos y las etiquetas pueden indicar si los hongos son comestibles o no. El algoritmo toma estas muestras etiquetadas previamente y las usa para inducir un clasificador. Este clasificador es una función que asigna etiquetas a las muestras, incluidas las muestras que el algoritmo nunca ha visto antes. El objetivo del algoritmo de aprendizaje supervisado es optimizar alguna medida de rendimiento, como minimizar la cantidad de errores cometidos en muestras nuevas.

Teoría de números computacionales

La teoría de números computacionales , también conocida como teoría algorítmica de números , es el estudio de algoritmos para realizar cálculos numéricos teóricos . El problema más conocido en este campo es la factorización de números enteros .

Criptografía

La criptografía es la práctica y el estudio de técnicas para la comunicación segura en presencia de terceros (llamados adversarios ). [10] De manera más general, se trata de construir y analizar protocolos que superen la influencia de los adversarios [11] y que estén relacionados con varios aspectos de la seguridad de la información como la confidencialidad de los datos , la integridad de los datos , la autenticación y el no repudio . [12] La criptografía moderna cruza las disciplinas de las matemáticas , la informática y la ingeniería eléctrica . Las aplicaciones de la criptografía incluyen tarjetas ATM , contraseñas de computadora y comercio electrónico .

La criptografía moderna se basa en gran medida en la teoría matemática y la práctica de la ciencia informática; los algoritmos criptográficos están diseñados en torno a supuestos de dureza computacional , lo que hace que dichos algoritmos sean difíciles de romper en la práctica por cualquier adversario. Es teóricamente posible romper un sistema de este tipo, pero es inviable hacerlo por cualquier medio práctico conocido. Por lo tanto, estos esquemas se denominan computacionalmente seguros; los avances teóricos, por ejemplo, las mejoras en los algoritmos de factorización de números enteros y la tecnología informática más rápida requieren que estas soluciones se adapten continuamente. Existen esquemas teóricamente seguros de la información que se puede demostrar que no se pueden romper ni siquiera con un poder de cómputo ilimitado (un ejemplo es la libreta de un solo uso ), pero estos esquemas son más difíciles de implementar que los mejores mecanismos teóricamente rompibles pero computacionalmente seguros.

Estructuras de datos

Una estructura de datos es una forma particular de organizar datos en una computadora para que puedan usarse de manera eficiente . [13] [14]

Existen distintos tipos de estructuras de datos que se adaptan a distintos tipos de aplicaciones y algunas están altamente especializadas para tareas específicas. Por ejemplo, las bases de datos utilizan índices de árbol B para pequeños porcentajes de recuperación de datos y los compiladores y las bases de datos utilizan tablas hash dinámicas como tablas de búsqueda.

Las estructuras de datos proporcionan un medio para gestionar grandes cantidades de datos de manera eficiente para usos tales como bases de datos de gran tamaño y servicios de indexación de Internet . Por lo general, las estructuras de datos eficientes son clave para diseñar algoritmos eficientes . Algunos métodos de diseño formal y lenguajes de programación enfatizan las estructuras de datos, en lugar de los algoritmos, como el factor organizador clave en el diseño de software. El almacenamiento y la recuperación se pueden realizar en datos almacenados tanto en la memoria principal como en la memoria secundaria .

Computación distribuida

La computación distribuida estudia los sistemas distribuidos. Un sistema distribuido es un sistema de software en el que los componentes ubicados en computadoras en red se comunican y coordinan sus acciones mediante el envío de mensajes . [15] Los componentes interactúan entre sí para lograr un objetivo común. Tres características significativas de los sistemas distribuidos son: concurrencia de componentes, falta de un reloj global y falla independiente de los componentes. [15] Los ejemplos de sistemas distribuidos varían desde sistemas basados ​​en SOA hasta juegos en línea multijugador masivos , aplicaciones peer to peer y redes blockchain como Bitcoin .

Un programa informático que se ejecuta en un sistema distribuido se denomina programa distribuido , y la programación distribuida es el proceso de escribir dichos programas. [16] Existen muchas alternativas para el mecanismo de paso de mensajes, incluidos conectores tipo RPC y colas de mensajes . Un objetivo y un desafío importante de los sistemas distribuidos es la transparencia de la ubicación .

Complejidad basada en la información

La complejidad basada en información (IBC) estudia algoritmos óptimos y la complejidad computacional para problemas continuos. La IBC ha estudiado problemas continuos como la integración de trayectorias, ecuaciones diferenciales parciales, sistemas de ecuaciones diferenciales ordinarias, ecuaciones no lineales, ecuaciones integrales, puntos fijos e integración de muy alta dimensión.

Métodos formales

Los métodos formales son un tipo particular de técnicas basadas en matemáticas para la especificación , desarrollo y verificación de sistemas de software y hardware . [17] El uso de métodos formales para el diseño de software y hardware está motivado por la expectativa de que, como en otras disciplinas de ingeniería, realizar un análisis matemático apropiado puede contribuir a la confiabilidad y robustez de un diseño. [18]

Los métodos formales se describen mejor como la aplicación de una variedad bastante amplia de fundamentos teóricos de la ciencia informática, en particular cálculos lógicos , lenguajes formales , teoría de autómatas y semántica de programas , pero también sistemas de tipos y tipos de datos algebraicos a problemas de especificación y verificación de software y hardware. [19]

Teoría de la información

La teoría de la información es una rama de las matemáticas aplicadas , la ingeniería eléctrica y la informática que implica la cuantificación de la información . La teoría de la información fue desarrollada por Claude E. Shannon para encontrar límites fundamentales en las operaciones de procesamiento de señales , como la compresión de datos y el almacenamiento y la comunicación confiable de datos. Desde su inicio, se ha ampliado para encontrar aplicaciones en muchas otras áreas, incluida la inferencia estadística , el procesamiento del lenguaje natural , la criptografía , la neurobiología , [20] la evolución [21] y la función [22] de los códigos moleculares, la selección de modelos en estadística, [23] la física térmica, [24] la computación cuántica , la lingüística , la detección de plagio, [25] el reconocimiento de patrones , la detección de anomalías y otras formas de análisis de datos . [26]

Las aplicaciones de los temas fundamentales de la teoría de la información incluyen la compresión de datos sin pérdida (por ejemplo, archivos ZIP ), la compresión de datos con pérdida (por ejemplo, MP3 y JPEG ) y la codificación de canales (por ejemplo, para la línea de abonado digital (DSL) ). El campo está en la intersección de las matemáticas , la estadística , la informática , la física , la neurobiología y la ingeniería eléctrica . Su impacto ha sido crucial para el éxito de las misiones Voyager al espacio profundo, la invención del disco compacto, la viabilidad de los teléfonos móviles, el desarrollo de Internet , el estudio de la lingüística y de la percepción humana, la comprensión de los agujeros negros y muchos otros campos. Los subcampos importantes de la teoría de la información son la codificación de fuentes , la codificación de canales , la teoría de la complejidad algorítmica , la teoría de la información algorítmica , la seguridad teórica de la información y las medidas de información.

Aprendizaje automático

El aprendizaje automático es una disciplina científica que se ocupa de la construcción y el estudio de algoritmos que pueden aprender de los datos. [27] Estos algoritmos funcionan construyendo un modelo basado en entradas [28] : 2  y usándolo para hacer predicciones o tomar decisiones, en lugar de seguir solo instrucciones programadas explícitamente.

El aprendizaje automático puede considerarse un subcampo de la informática y la estadística . Tiene fuertes vínculos con la inteligencia artificial y la optimización , que aportan métodos, teorías y dominios de aplicación al campo. El aprendizaje automático se emplea en una variedad de tareas informáticas en las que el diseño y la programación de algoritmos explícitos basados ​​en reglas no es factible. Las aplicaciones de ejemplo incluyen el filtrado de spam , el reconocimiento óptico de caracteres (OCR), [29] los motores de búsqueda y la visión artificial . El aprendizaje automático a veces se confunde con la minería de datos , [30] aunque esta se centra más en el análisis exploratorio de datos. [31] El aprendizaje automático y el reconocimiento de patrones "pueden verse como dos facetas del mismo campo". [28] : vii 

Computación natural

La computación natural , [32] [33] también llamada computación natural, es una terminología introducida para englobar tres clases de métodos: 1) aquellos que se inspiran en la naturaleza para el desarrollo de nuevas técnicas de resolución de problemas; 2) aquellos que se basan en el uso de ordenadores para sintetizar fenómenos naturales; y 3) aquellos que emplean materiales naturales (por ejemplo, moléculas) para computar. Los principales campos de investigación que componen estas tres ramas son las redes neuronales artificiales , los algoritmos evolutivos , la inteligencia de enjambre , los sistemas inmunes artificiales , la geometría fractal, la vida artificial , la computación del ADN y la computación cuántica , entre otros.

Los paradigmas computacionales estudiados por la computación natural se abstraen de fenómenos naturales tan diversos como la autorreplicación , el funcionamiento del cerebro , la evolución darwiniana , el comportamiento grupal , el sistema inmunológico , las propiedades definitorias de las formas de vida, las membranas celulares y la morfogénesis . Además del hardware electrónico tradicional , estos paradigmas computacionales se pueden implementar en medios físicos alternativos como biomoléculas (ADN, ARN) o dispositivos de computación cuántica de iones atrapados.

De dos maneras, se pueden considerar los procesos que ocurren en la naturaleza como procesamiento de información. Tales procesos incluyen el autoensamblaje , los procesos de desarrollo , las redes de regulación genética , las redes de interacción proteína-proteína , las redes de transporte biológico ( transporte activo , transporte pasivo ) y el ensamblaje de genes en organismos unicelulares . Los esfuerzos por comprender los sistemas biológicos también incluyen la ingeniería de organismos semisintéticos y la comprensión del universo mismo desde el punto de vista del procesamiento de información. De hecho, incluso se propuso la idea de que la información es más fundamental que la materia o la energía. La tesis de Zuse-Fredkin, que se remonta a la década de 1960, afirma que todo el universo es un enorme autómata celular que actualiza continuamente sus reglas. [34] [35] Recientemente se ha sugerido que todo el universo es una computadora cuántica que calcula su propio comportamiento. [36]

El universo/naturaleza como mecanismo computacional se aborda [37] explorando la naturaleza con ayuda de las ideas de computabilidad y [38] estudiando los procesos naturales como cálculos (procesamiento de información).

[39]

Computación paralela

La computación paralela es una forma de computación en la que se llevan a cabo muchos cálculos simultáneamente, [40] operando sobre el principio de que los grandes problemas a menudo se pueden dividir en otros más pequeños, que luego se resuelven "en paralelo" . Hay varias formas diferentes de computación paralela: a nivel de bits , a nivel de instrucciones , de datos y de tareas . El paralelismo se ha empleado durante muchos años, principalmente en la computación de alto rendimiento , pero el interés en él ha crecido últimamente debido a las restricciones físicas que impiden el escalado de frecuencia . [41] Como el consumo de energía (y en consecuencia la generación de calor) por parte de las computadoras se ha convertido en una preocupación en los últimos años, [42] la computación paralela se ha convertido en el paradigma dominante en la arquitectura informática , principalmente en forma de procesadores multinúcleo . [43]

Los programas de computación en paralelo son más difíciles de escribir que los secuenciales, [44] porque la concurrencia introduce varias clases nuevas de errores potenciales de software , de los cuales las condiciones de carrera son las más comunes. La comunicación y la sincronización entre las diferentes subtareas suelen ser algunos de los mayores obstáculos para obtener un buen rendimiento de los programas en paralelo.

La máxima aceleración posible de un solo programa como resultado de la paralelización se conoce como ley de Amdahl .

Teoría de lenguajes de programación y semántica de programas

La teoría de los lenguajes de programación es una rama de la informática que se ocupa del diseño, la implementación, el análisis, la caracterización y la clasificación de los lenguajes de programación y sus características individuales . Se enmarca dentro de la disciplina de la informática teórica, tanto en función de las matemáticas , la ingeniería de software y la lingüística como en función de ellas. Es un área de investigación activa, con numerosas revistas académicas dedicadas a ellas.

En la teoría de lenguajes de programación , la semántica es el campo que se ocupa del estudio matemático riguroso del significado de los lenguajes de programación . Lo hace evaluando el significado de cadenas sintácticamente legales definidas por un lenguaje de programación específico, mostrando el cálculo involucrado. En un caso en el que la evaluación fuera de cadenas sintácticamente ilegales, el resultado sería no computacional. La semántica describe los procesos que sigue una computadora al ejecutar un programa en ese lenguaje específico. Esto se puede mostrar describiendo la relación entre la entrada y la salida de un programa, o una explicación de cómo se ejecutará el programa en una determinada plataforma , creando así un modelo de computación .

Computación cuántica

Un ordenador cuántico es un sistema de cálculo que hace uso directo de fenómenos mecánico-cuánticos , como la superposición y el entrelazamiento , para realizar operaciones sobre datos . [45] Los ordenadores cuánticos son diferentes de los ordenadores digitales basados ​​en transistores . Mientras que los ordenadores digitales requieren que los datos se codifiquen en dígitos binarios ( bits ), cada uno de los cuales está siempre en uno de dos estados definidos (0 o 1), la computación cuántica utiliza qubits (bits cuánticos), que pueden estar en superposiciones de estados. Un modelo teórico es la máquina cuántica de Turing , también conocida como ordenador cuántico universal. Los ordenadores cuánticos comparten similitudes teóricas con los ordenadores no deterministas y probabilísticos ; un ejemplo es la capacidad de estar en más de un estado simultáneamente. El campo de la computación cuántica fue introducido por primera vez por Yuri Manin en 1980 [46] y Richard Feynman en 1982. [47] [48] Una computadora cuántica con espines como bits cuánticos también fue formulada para su uso como espacio-tiempo cuántico en 1968. [49]

Se han llevado a cabo experimentos en los que se ejecutaron operaciones computacionales cuánticas en un número muy pequeño de qubits. [50] La investigación práctica y teórica continúa, y muchos gobiernos nacionales y agencias de financiación militar apoyan la investigación de computación cuántica para desarrollar computadoras cuánticas para fines tanto civiles como de seguridad nacional, como el criptoanálisis . [51]

Computación simbólica

El álgebra computacional , también llamada computación simbólica o computación algebraica, es un área científica que se refiere al estudio y desarrollo de algoritmos y software para manipular expresiones matemáticas y otros objetos matemáticos . Aunque, propiamente hablando, el álgebra computacional debería ser un subcampo de la computación científica , generalmente se consideran campos distintos porque la computación científica suele basarse en el cálculo numérico con números aproximados de punto flotante , mientras que la computación simbólica enfatiza el cálculo exacto con expresiones que contienen variables que no tienen ningún valor dado y, por lo tanto, se manipulan como símbolos (de ahí el nombre de computación simbólica ).

Las aplicaciones de software que realizan cálculos simbólicos se denominan sistemas de álgebra computacional , aludiendo el término sistema a la complejidad de las principales aplicaciones que incluyen, al menos, un método para representar datos matemáticos en una computadora, un lenguaje de programación de usuario (generalmente diferente del lenguaje utilizado para la implementación), un gestor de memoria dedicado, una interfaz de usuario para la entrada/salida de expresiones matemáticas, un gran conjunto de rutinas para realizar operaciones habituales, como simplificación de expresiones, diferenciación mediante la regla de la cadena , factorización de polinomios , integración indefinida , etc.

Integración a muy gran escala

La integración a muy gran escala ( VLSI ) es el proceso de creación de un circuito integrado (CI) mediante la combinación de miles de transistores en un solo chip. La VLSI comenzó en la década de 1970, cuando se estaban desarrollando tecnologías complejas de semiconductores y comunicación . El microprocesador es un dispositivo VLSI. Antes de la introducción de la tecnología VLSI, la mayoría de los CI tenían un conjunto limitado de funciones que podían realizar. Un circuito electrónico puede constar de una CPU , ROM , RAM y otra lógica de unión . La VLSI permite a los fabricantes de CI agregar todos estos circuitos en un solo chip.

Organizaciones

Revistas y boletines informativos

Conferencias

Véase también

Notas

  1. ^ "SIGACT" . Consultado el 19 de enero de 2017 .
  2. ^ Cook, Stephen A. (1971). "La complejidad de los procedimientos de demostración de teoremas". Actas del tercer simposio anual de la ACM sobre teoría de la computación - STOC '71 . págs. 151-158. doi :10.1145/800157.805047. ISBN 978-1-4503-7464-4.
  3. ^ "Cualquier algoritmo matemático clásico, por ejemplo, puede describirse en un número finito de palabras en inglés". Rogers, Hartley Jr. (1967). Teoría de funciones recursivas y computabilidad efectiva . McGraw-Hill.Página 2.
  4. ^ Bien definido respecto al agente que ejecuta el algoritmo: "Hay un agente computacional, generalmente humano, que puede reaccionar a las instrucciones y realizar los cálculos" (Rogers 1967, p. 2).
  5. ^ "un algoritmo es un procedimiento para calcular una función (con respecto a alguna notación elegida para números enteros) ... esta limitación (a las funciones numéricas) no produce ninguna pérdida de generalidad", (Rogers 1967, p. 1).
  6. ^ "Un algoritmo tiene cero o más entradas, es decir, cantidades que se le dan inicialmente antes de que el algoritmo comience" (Knuth 1973:5).
  7. ^ "Un procedimiento que tiene todas las características de un algoritmo excepto que posiblemente carece de finitud puede llamarse 'método computacional'" (Knuth 1973:5).
  8. ^ "Un algoritmo tiene una o más salidas, es decir, cantidades que tienen una relación específica con las entradas" (Knuth 1973:5).
  9. ^ Es discutible si un proceso con procesos internos aleatorios (sin incluir la entrada) es un algoritmo. Rogers opina que: "un cálculo se lleva a cabo de manera discreta y por pasos, sin el uso de métodos continuos o dispositivos analógicos... llevado a cabo de manera determinista, sin recurrir a métodos o dispositivos aleatorios, por ejemplo, dados" (Rogers 1967, p. 2).
  10. ^ Rivest, Ronald L. (1990). "Criptología". En J. Van Leeuwen (ed.). Manual de informática teórica . Vol. 1. Elsevier.
  11. ^ Bellare, Mihir; Rogaway, Phillip (21 de septiembre de 2005). "Introducción". Introducción a la criptografía moderna . pág. 10.
  12. ^ Menezes, AJ; van Oorschot, PC; Vanstone, SA (1997). Manual de criptografía aplicada. Taylor & Francis. ISBN 978-0-8493-8523-0.
  13. ^ Paul E. Black (ed.), entrada para estructura de datos en Dictionary of Algorithms and Data Structures . Instituto Nacional de Estándares y Tecnología de EE. UU . . 15 de diciembre de 2004. Versión en línea. Consultado el 21 de mayo de 2009.
  14. ^ Estructura de datos de entrada en la Encyclopædia Britannica (2009) Entrada en línea consultada el 21 de mayo de 2009.
  15. ^ ab Coulouris, George; Jean Dollimore ; Tim Kindberg; Gordon Blair (2011). Sistemas distribuidos: conceptos y diseño (5.ª ed.). Boston: Addison-Wesley. ISBN 978-0-132-14301-1.
  16. ^ Ghosh, Sukumar (2007). Sistemas distribuidos: un enfoque algorítmico . Chapman & Hall/CRC. pág. 10. ISBN 978-1-58488-564-1.
  17. ^ RW Butler (6 de agosto de 2001). "¿Qué son los métodos formales?" . Consultado el 16 de noviembre de 2006 .
  18. ^ C. Michael Holloway. "Why Engineers Should Consider Formal Methods" (PDF) . 16th Digital Avionics Systems Conference (27–30 de octubre de 1997). Archivado desde el original (PDF) el 16 de noviembre de 2006. Consultado el 16 de noviembre de 2006 .
  19. ^ Monin, págs. 3-4
  20. ^ F. Rieke; D. Warland; R. Ruyter van Steveninck; W. Bialek (1997). Spikes: Explorando el código neuronal . The MIT press. ISBN 978-0262681087.
  21. ^ Huelsenbeck, JP; Ronquist, F.; Nielsen, R.; Bollback, JP (14 de diciembre de 2001). "Inferencia bayesiana de la filogenia y su impacto en la biología evolutiva". Science . 294 (5550). Asociación Estadounidense para el Avance de la Ciencia (AAAS): 2310–2314. Bibcode :2001Sci...294.2310H. doi :10.1126/science.1065889. ISSN  0036-8075. PMID  11743192. S2CID  2138288.
  22. ^ Rando Allikmets, Wyeth W. Wasserman, Amy Hutchinson, Philip Smallwood, Jeremy Nathans, Peter K. Rogan, Thomas D. Schneider, Michael Dean (1998) Organización del gen ABCR: análisis de las secuencias promotoras y de unión de empalme, Gene 215 :1, 111–122
  23. ^ Burnham, KP y Anderson DR (2002) Selección de modelos e inferencia multimodelo: un enfoque práctico de teoría de la información, segunda edición (Springer Science, Nueva York) ISBN 978-0-387-95364-9
  24. ^ Jaynes, ET (15 de mayo de 1957). "Teoría de la información y mecánica estadística". Physical Review . 106 (4). American Physical Society (APS): 620–630. Código Bibliográfico :1957PhRv..106..620J. doi :10.1103/physrev.106.620. ISSN  0031-899X. S2CID  17870175.
  25. ^ Charles H. Bennett, Ming Li y Bin Ma (2003) Cartas en cadena e historias evolutivas Archivado el 7 de octubre de 2007 en Wayback Machine , Scientific American 288 :6, 76–81
  26. ^ David R. Anderson (1 de noviembre de 2003). «Algunos antecedentes sobre por qué las personas que trabajan en ciencias empíricas podrían querer entender mejor los métodos teóricos de la información» (PDF) . Archivado desde el original (PDF) el 23 de julio de 2011. Consultado el 23 de junio de 2010 .
  27. ^ Ron Kovahi; Foster Provost (1998). "Glosario de términos". Aprendizaje automático . 30 : 271–274. doi : 10.1023/A:1007411609915 .
  28. ^ ab CM Bishop (2006). Reconocimiento de patrones y aprendizaje automático . Springer. ISBN 978-0-387-31073-2.
  29. ^ Wernick, Yang, Brankov, Yourganov y Strother, Aprendizaje automático en imágenes médicas, IEEE Signal Processing Magazine , vol. 27, núm. 4, julio de 2010, págs. 25–38
  30. ^ Mannila, Heikki (1996). Minería de datos: aprendizaje automático, estadísticas y bases de datos . Conferencia internacional sobre gestión de bases de datos científicas y estadísticas. IEEE Computer Society.
  31. ^ Friedman, Jerome H. (1998). "Minería de datos y estadística: ¿cuál es la conexión?". Ciencias de la computación y estadística . 29 (1): 3–9.
  32. ^ G. Rozenberg, T. Back, J. Kok, Editores, Manual de computación natural, Springer Verlag, 2012
  33. ^ A. Brabazon, MO'Neill, S. McGarraghy. Algoritmos de computación natural, Springer Verlag, 2015
  34. ^ Fredkin, F. Mecánica digital: un proceso informativo basado en CA universal reversible. Physica D 45 (1990) 254-270
  35. ^ Zuse, K. Rechnender Raum. Elektronische Datenverarbeitung 8 (1967) 336-344
  36. ^ Lloyd, S. Programando el universo: un científico informático cuántico se enfrenta al cosmos. Knopf, 2006
  37. ^ Zenil, H. Un universo computable: comprensión y exploración de la naturaleza como computación. World Scientific Publishing Company, 2012
  38. ^ Dodig-Crnkovic, G. y Giovagnoli, R. COMPUTING NATURE. Springer, 2013
  39. ^ Rozenberg, Grzegorz (2001). "Computación natural". Tendencias actuales en informática teórica . pp. 543–690. doi :10.1142/9789812810403_0005. ISBN . 978-981-02-4473-6.
  40. ^ Gottlieb, Allan; Almasi, George S. (1989). Computación altamente paralela. Redwood City, California: Benjamin/Cummings. ISBN 978-0-8053-0177-9.
  41. ^ SV Adve et al. (noviembre de 2008). "Investigación en computación paralela en Illinois: la agenda de la UPCRC" Archivado el 9 de diciembre de 2008 en Wayback Machine (PDF). Parallel@Illinois, Universidad de Illinois en Urbana-Champaign. "Las principales técnicas para lograr estos beneficios en el rendimiento (mayor frecuencia de reloj y arquitecturas más inteligentes pero cada vez más complejas) están ahora chocando contra el llamado muro de potencia. La industria informática ha aceptado que los futuros aumentos en el rendimiento deben provenir en gran medida de un aumento en la cantidad de procesadores (o núcleos) en una matriz, en lugar de hacer que un solo núcleo funcione más rápido".
  42. ^ Asanovic et al. La vieja [sabiduría convencional] dice que la energía es gratuita, pero los transistores son caros. La nueva [sabiduría convencional] dice que la energía es cara, pero los transistores son "gratuitos".
  43. ^ Asanovic, Krste et al. (18 de diciembre de 2006). "El panorama de la investigación en computación paralela: una visión desde Berkeley" (PDF). Universidad de California, Berkeley. Informe técnico n.º UCB/EECS-2006-183. "Antigua [sabiduría convencional]: aumentar la frecuencia de reloj es el método principal para mejorar el rendimiento del procesador. Nueva [sabiduría convencional]: aumentar el paralelismo es el método principal para mejorar el rendimiento del procesador... Incluso representantes de Intel, una empresa generalmente asociada con la postura de que "cuanto mayor sea la velocidad de reloj, mejor", advirtieron que los enfoques tradicionales para maximizar el rendimiento a través de la maximización de la velocidad de reloj han sido llevados al límite".
  44. ^ Hennessy, John L.; Patterson, David A.; Larus, James R. (1999). Organización y diseño de computadoras: la interfaz hardware/software (2.ª ed., 3.ª edición impresa). San Francisco: Kaufmann. ISBN 978-1-55860-428-5.
  45. ^ Artículo de Neil Gershenfeld e Isaac L. Chuang titulado "Computación cuántica con moléculas" publicado en Scientific American
  46. ^ Manin, Yu. I. (1980). Vychislimoe i nevychislimoe [ Computable y no computable ] (en ruso). Sov.Radio. pp. 13–15. Archivado desde el original el 10 de mayo de 2013 . Consultado el 4 de marzo de 2013 .
  47. ^ Feynman, RP (1982). "Simulación de la física con ordenadores". Revista internacional de física teórica . 21 (6): 467–488. Código Bibliográfico :1982IJTP...21..467F. CiteSeerX 10.1.1.45.9310 . doi :10.1007/BF02650179. S2CID  124545445. 
  48. ^ Deutsch, David (6 de enero de 1992). "Computación cuántica". Physics World . 5 (6): 57–61. doi :10.1088/2058-7058/5/6/38.
  49. ^ Finkelstein, David (1968). "Estructura espacio-temporal en interacciones de alta energía". En Gudehus, T.; Kaiser, G. (eds.). Interacciones fundamentales en alta energía . Nueva York: Gordon & Breach.
  50. ^ "El nuevo control de qubits es un buen augurio para el futuro de la computación cuántica" . Consultado el 26 de octubre de 2014 .
  51. ^ Hoja de ruta de la ciencia y la tecnología de la información cuántica para tener una idea de hacia dónde se dirige la investigación.
  52. ^ abcde Ranking australiano de conferencias sobre TIC de 2007 Archivado el 2 de octubre de 2009 en Wayback Machine : nivel A+.
  53. ^ "MFCS 2017". Archivado desde el original el 10 de enero de 2018. Consultado el 9 de enero de 2018 .
  54. ^ RSE 2018
  55. ^ abcdefghij Ranking australiano de conferencias de TIC de 2007 Archivado el 2 de octubre de 2009 en Wayback Machine : nivel A.
  56. ^ Página web de SOFSEM (consultada el 3 de septiembre de 2024)
  57. ^ FCT 2011 (consultado el 3 de junio de 2013)

Lectura adicional

Enlaces externos