La computación no convencional (también conocida como computación alternativa o computación no estándar ) es la computación mediante cualquiera de una amplia gama de métodos nuevos o inusuales.
El término computación no convencional fue acuñado por Cristian S. Calude y John Casti y utilizado en la Primera Conferencia Internacional sobre Modelos de Computación No Convencionales [1] en 1998. [2]
La teoría general de la computación permite una variedad de métodos de computación. La tecnología informática se desarrolló primero utilizando sistemas mecánicos y luego evolucionó hacia el uso de dispositivos electrónicos. Otros campos de la física moderna ofrecen vías adicionales de desarrollo.
Un modelo de cálculo describe cómo se calcula la salida de una función matemática dada su entrada. El modelo describe cómo se organizan las unidades de cálculos, memorias y comunicaciones. [3] La complejidad computacional de un algoritmo se puede medir dado un modelo de computación. El uso de un modelo permite estudiar el desempeño de los algoritmos independientemente de las variaciones que son específicas de implementaciones particulares y tecnología específica.
Comúnmente se utiliza una amplia variedad de modelos; algunos se parecen mucho al funcionamiento de las computadoras convencionales (idealizadas), mientras que otros no. Algunos modelos comúnmente utilizados son máquinas de registro , máquinas de acceso aleatorio , máquinas de Turing , cálculo lambda , sistemas de reescritura , circuitos digitales , autómatas celulares y redes de Petri .
Históricamente, las computadoras mecánicas se utilizaban en la industria antes de la llegada del transistor .
Los ordenadores mecánicos siguen teniendo cierto interés hoy en día, tanto en la investigación como como ordenadores analógicos. Algunos ordenadores mecánicos tienen una relevancia teórica o didáctica, como los ordenadores de bolas de billar , mientras que se utilizaron eficazmente los hidráulicos como el MONIAC o el Integrador de agua . [4]
Si bien algunos son realmente simulados, otros no [ se necesita aclaración ] . No se hace ningún intento [ dudoso ] de construir una computadora que funcione mediante colisiones mecánicas de bolas de billar. La computadora dominó es otro esquema de computación mecánica teóricamente interesante. [ ¿por qué? ]
Una computadora analógica es un tipo de computadora que utiliza señales analógicas , que son cantidades físicas continuas, para modelar y resolver problemas. Estas señales pueden ser de naturaleza eléctrica , mecánica o hidráulica . Las computadoras analógicas se usaron ampliamente en aplicaciones científicas e industriales y, a menudo, eran más rápidas que las computadoras digitales en ese momento. Sin embargo, comenzaron a quedar obsoletos en las décadas de 1950 y 1960 y ahora se utilizan principalmente en aplicaciones específicas, como simuladores de vuelo de aviones y sistemas de control de enseñanza en universidades. [5] Ejemplos de dispositivos informáticos analógicos incluyen reglas de cálculo , nomogramas y mecanismos complejos para control de procesos y relés de protección. [6] El mecanismo de Antikythera , un dispositivo mecánico que calcula las posiciones de los planetas y la Luna, y el planímetro , un integrador mecánico para calcular el área de una forma 2D arbitraria, también son ejemplos de computación analógica.
La mayoría de las computadoras modernas son computadoras electrónicas con la arquitectura de Von Neumann basada en la electrónica digital, con una amplia integración posible tras la invención del transistor y el escalamiento de la ley de Moore .
La informática no convencional es, según un [ which? ] descripción de la conferencia, [7] "un área de investigación interdisciplinaria con el objetivo principal de enriquecer o ir más allá de los modelos estándar, como la arquitectura informática de Von Neumann y la máquina de Turing , que han dominado la informática durante más de medio siglo". Estos métodos modelan sus operaciones computacionales basándose en paradigmas no estándar y actualmente se encuentran en su mayoría en etapa de investigación y desarrollo.
Este comportamiento informático se puede "simular" [ se necesita aclaración ] utilizando microtransistores clásicos basados en silicio o tecnologías informáticas de estado sólido , pero su objetivo es lograr un nuevo tipo de informática.
Estos son ejemplos poco intuitivos y pedagógicos de que se puede hacer una computadora con casi cualquier cosa.
Una computadora de bolas de billar es un tipo de computadora mecánica que utiliza el movimiento de bolas de billar esféricas para realizar cálculos. En este modelo, los cables de un circuito booleano están representados por caminos por los que viajan las bolas, la presencia o ausencia de una bola en un camino codifica la señal en ese cable y las puertas se simulan mediante colisiones de bolas en puntos donde sus los caminos se cruzan. [8] [9]
Una computadora dominó es una computadora mecánica que utiliza fichas de dominó de pie para representar la amplificación o activación lógica de señales digitales. Estas construcciones se pueden usar para demostrar conceptos digitales e incluso se pueden usar para construir módulos simples de procesamiento de información. [10] [11]
Tanto las computadoras de bolas de billar como las computadoras de dominó son ejemplos de métodos informáticos no convencionales que utilizan objetos físicos para realizar cálculos.
La computación de reservorios es un marco computacional derivado de la teoría recurrente de redes neuronales que implica mapear señales de entrada en espacios computacionales de dimensiones superiores a través de la dinámica de un sistema fijo no lineal llamado reservorio. El depósito, que puede ser virtual o físico, está formado por unidades individuales no lineales que se conectan en bucles recurrentes, lo que le permite almacenar información. El entrenamiento se realiza solo en la etapa de lectura, ya que la dinámica del yacimiento es fija, y este marco permite el uso de sistemas naturalmente disponibles, tanto mecánicos clásicos como cuánticos, para reducir el costo computacional efectivo. Un beneficio clave de la computación de reservorios es que permite un algoritmo de aprendizaje simple y rápido, así como la implementación de hardware a través de reservorios físicos . [12] [13]
La computación tangible se refiere al uso de objetos físicos como interfaces de usuario para interactuar con información digital. Este enfoque tiene como objetivo aprovechar la capacidad humana para captar y manipular objetos físicos para facilitar la colaboración, el aprendizaje y el diseño. Las características de las interfaces de usuario tangibles incluyen el acoplamiento de representaciones físicas con información digital subyacente y la incorporación de mecanismos para el control interactivo. [14] Hay cinco propiedades que definen las interfaces de usuario tangibles, incluida la capacidad de multiplexar tanto la entrada como la salida en el espacio, el acceso y la manipulación concurrentes de los componentes de la interfaz, dispositivos específicos fuertes, dispositivos computacionales espacialmente conscientes y la reconfigurabilidad espacial de los dispositivos. [15]
El término "computadora humana" se refiere a personas que realizan cálculos matemáticos manualmente, a menudo trabajando en equipos y siguiendo reglas fijas. En el pasado, se empleaba a equipos de personas para realizar cálculos largos y tediosos, y el trabajo se dividía para completarse en paralelo. El término también se ha utilizado más recientemente para describir a personas con habilidades aritméticas mentales excepcionales, también conocidas como calculadoras mentales. [dieciséis]
La interacción humano-robot , o HRI, es el estudio de las interacciones entre humanos y robots. Se trata de contribuciones de campos como la inteligencia artificial, la robótica y la psicología. Los cobots , o robots colaborativos, están diseñados para la interacción directa con humanos dentro de espacios compartidos y pueden usarse para una variedad de tareas, [17] que incluyen el suministro de información, logística y tareas poco ergonómicas en entornos industriales.
La robótica enjambre es un campo de estudio que se centra en la coordinación y control de múltiples robots como un sistema. Inspirada en el comportamiento emergente observado en los insectos sociales, la robótica de enjambre implica el uso de reglas individuales relativamente simples para producir comportamientos grupales complejos a través de la comunicación local y la interacción con el medio ambiente. [18] Este enfoque se caracteriza por el uso de un gran número de robots simples y promueve la escalabilidad mediante el uso de métodos de comunicación local como la radiofrecuencia o el infrarrojo.
La computación óptica es un tipo de computación que utiliza ondas de luz, a menudo producidas por láseres o fuentes incoherentes, para el procesamiento, almacenamiento y comunicación de datos. Si bien esta tecnología tiene el potencial de ofrecer un mayor ancho de banda que las computadoras tradicionales, que usan electrones, los dispositivos optoelectrónicos pueden consumir una cantidad significativa de energía en el proceso de convertir la energía electrónica en fotones y viceversa. Las computadoras totalmente ópticas tienen como objetivo eliminar la necesidad de estas conversiones, lo que lleva a un menor consumo de energía eléctrica. [19] Las aplicaciones de la informática óptica incluyen radares de apertura sintética y correlacionadores ópticos, que pueden utilizarse para la detección, seguimiento y clasificación de objetos. [20] [21]
La espintrónica es un campo de estudio que implica el uso del espín intrínseco y el momento magnético de los electrones en dispositivos de estado sólido. [22] [23] [24] Se diferencia de la electrónica tradicional en que explota el espín de los electrones como un grado adicional de libertad, lo que tiene aplicaciones potenciales en el almacenamiento y la transferencia de datos, [25] así como en la computación cuántica y neuromórfica. Los sistemas espintrónicos a menudo se crean utilizando semiconductores magnéticos diluidos y aleaciones de Heusler.
La atomtrónica es una forma de informática que implica el uso de átomos ultrafríos en circuitos coherentes de ondas de materia, que pueden tener componentes similares a los que se encuentran en los sistemas electrónicos u ópticos. [26] [27] Estos circuitos tienen aplicaciones potenciales en varios campos, incluida la investigación en física fundamental y el desarrollo de dispositivos prácticos como sensores y computadoras cuánticas.
La fluídica, o lógica fluídica, es el uso de la dinámica de fluidos para realizar operaciones analógicas o digitales en entornos donde la electrónica puede no ser confiable, como aquellos expuestos a altos niveles de interferencia electromagnética o radiación ionizante. Los dispositivos fluídicos funcionan sin partes móviles y pueden usar amplificación no lineal, similar a los transistores en la lógica digital electrónica. Los fluidos también se utilizan en nanotecnología y aplicaciones militares.
La computación cuántica, quizás el método de computación no convencional más conocido y desarrollado, es un tipo de computación que utiliza los principios de la mecánica cuántica, como la superposición y el entrelazamiento, para realizar cálculos. [28] [29] Las computadoras cuánticas utilizan qubits, que son análogos a los bits clásicos pero que pueden existir en múltiples estados simultáneamente, para realizar operaciones. Si bien es posible que las computadoras cuánticas actuales aún no superen a las computadoras clásicas en aplicaciones prácticas, tienen el potencial de resolver ciertos problemas computacionales, como la factorización de enteros, significativamente más rápido que las computadoras clásicas. Sin embargo, existen varios desafíos para construir computadoras cuánticas prácticas, incluida la dificultad de mantener los estados cuánticos de los qubits y la necesidad de corrección de errores. [30] [31] La teoría de la complejidad cuántica es el estudio de la complejidad computacional de los problemas con respecto a las computadoras cuánticas.
La Computación Cuántica Neuromórfica [32] [33] (abreviada como 'n.computación cuántica') es un tipo de computación no convencional que utiliza la computación neuromórfica para realizar operaciones cuánticas. Se sugirió que los algoritmos cuánticos , que son algoritmos que se ejecutan en un modelo realista de computación cuántica , pueden calcularse con la misma eficiencia que la computación cuántica neuromórfica. [34] [35] [36] [37] [38]
Tanto la computación cuántica tradicional como la computación cuántica neuromórfica son enfoques informáticos no convencionales basados en la física y no siguen la arquitectura de von Neumann . Ambos construyen un sistema (un circuito) que representa el problema físico en cuestión y luego aprovechan sus respectivas propiedades físicas del sistema para buscar el "mínimo". La computación cuántica neuromórfica y la computación cuántica comparten propiedades físicas similares durante el cálculo [39] [40] .
La computación superconductora es una forma de computación criogénica que utiliza las propiedades únicas de los superconductores, incluidos cables de resistencia cero y conmutación ultrarrápida, para codificar, procesar y transportar datos utilizando cuantos de flujo único. Se utiliza a menudo en computación cuántica y requiere enfriamiento a temperaturas criogénicas para su funcionamiento.
Los sistemas microelectromecánicos (MEMS) y los sistemas nanoelectromecánicos (NEMS) son tecnologías que implican el uso de dispositivos microscópicos con partes móviles, cuyo tamaño varía desde micrómetros hasta nanómetros. Estos dispositivos suelen constar de una unidad central de procesamiento (como un circuito integrado) y varios componentes que interactúan con su entorno, como sensores. [41] Las tecnologías MEMS y NEMS se diferencian de la nanotecnología molecular o la electrónica molecular en que también consideran factores como la química de la superficie y los efectos del electromagnetismo ambiental y la dinámica de fluidos. Las aplicaciones de estas tecnologías incluyen acelerómetros y sensores para detectar sustancias químicas. [42]
La computación molecular es una forma no convencional de computación que utiliza reacciones químicas para realizar cálculos. Los datos están representados por variaciones en las concentraciones químicas, [43] y el objetivo de este tipo de computación es utilizar las estructuras estables más pequeñas, como moléculas individuales, como componentes electrónicos. Este campo, también conocido como computación química o computación de reacción-difusión, es distinto de los campos relacionados de los polímeros conductores y la electrónica orgánica, que utilizan moléculas para afectar las propiedades generales de los materiales.
La computación de péptidos es un modelo computacional que utiliza péptidos y anticuerpos para resolver problemas NP-completos y ha demostrado ser computacionalmente universal. Ofrece ventajas sobre la computación del ADN, como un mayor número de componentes básicos e interacciones más flexibles, pero aún no se ha realizado en la práctica debido a la disponibilidad limitada de anticuerpos monoclonales específicos. [44] [45]
La computación del ADN es una rama de la informática no convencional que utiliza hardware de ADN y biología molecular para realizar cálculos. Es una forma de computación paralela que puede resolver ciertos problemas especializados de manera más rápida y eficiente que las computadoras electrónicas tradicionales. Si bien la computación del ADN no proporciona ninguna capacidad nueva en términos de teoría de computabilidad , puede realizar una gran cantidad de cálculos paralelos simultáneamente. Sin embargo, la computación del ADN tiene velocidades de procesamiento más lentas y es más difícil analizar los resultados en comparación con las computadoras digitales.
La computación de membranas, también conocida como sistemas P, [46] es un subcampo de la informática que estudia modelos de computación distribuida y paralela basados en la estructura y función de las membranas biológicas. En estos sistemas, objetos como símbolos o cadenas se procesan dentro de compartimentos definidos por membranas, y la comunicación entre compartimentos y con el entorno externo juega un papel fundamental en el cálculo. Los sistemas P son jerárquicos y se pueden representar gráficamente, con reglas que rigen la producción, el consumo y el movimiento de objetos dentro y entre regiones. Si bien estos sistemas se han mantenido en gran medida teóricos, [47] se ha demostrado que algunos tienen el potencial de resolver problemas NP-completos y se han propuesto como implementaciones de hardware para computación no convencional.
La computación biológica, también conocida como computación bioinspirada o computación natural, es el estudio del uso de modelos inspirados en la biología para resolver problemas informáticos, particularmente en los campos de la inteligencia artificial y el aprendizaje automático. Abarca una variedad de paradigmas computacionales que incluyen redes neuronales artificiales, algoritmos evolutivos, inteligencia de enjambre, sistemas inmunológicos artificiales y más, que pueden implementarse utilizando hardware electrónico tradicional o medios físicos alternativos, como biomoléculas o dispositivos de computación cuántica de iones atrapados. También incluye el estudio de la comprensión de los sistemas biológicos mediante la ingeniería de organismos semisintéticos y la visión de los procesos naturales como procesamiento de información. También se ha propuesto el concepto del propio universo como mecanismo computacional. [48] [49]
La computación neuromórfica implica el uso de circuitos electrónicos para imitar las arquitecturas neurobiológicas que se encuentran en el sistema nervioso humano, con el objetivo de crear sistemas neuronales artificiales inspirados en los biológicos. [50] [51] Estos sistemas se pueden implementar utilizando una variedad de hardware, como memristores, [52] memorias espintrónicas y transistores, [53] [54] y se pueden entrenar utilizando una variedad de enfoques basados en software, que incluyen retropropagación de errores [55] y reglas de aprendizaje canónico. [56] El campo de la ingeniería neuromórfica busca comprender cómo el diseño y la estructura de los sistemas neuronales artificiales afectan su cálculo, representación de información, adaptabilidad y función general, con el objetivo final de crear sistemas que exhiban propiedades similares a las que se encuentran en la naturaleza. . Las computadoras Wetware, que están compuestas de neuronas vivas, son una forma conceptual de computación neuromórfica que se ha explorado en prototipos limitados. [57]
Los autómatas celulares son modelos discretos de computación que consisten en una cuadrícula de celdas en un número finito de estados, como encendido y apagado. El estado de cada celda está determinado por una regla fija basada en los estados de la celda y sus vecinas. Hay cuatro clasificaciones principales de autómatas celulares, que van desde patrones que se estabilizan hasta alcanzar la homogeneidad hasta aquellos que se vuelven extremadamente complejos y potencialmente completos en Turing. La computación amorfa se refiere al estudio de sistemas computacionales que utilizan una gran cantidad de procesadores paralelos con capacidad computacional e interacciones locales limitadas, independientemente del sustrato físico. Se pueden encontrar ejemplos de computación amorfa natural en biología del desarrollo, biología molecular, redes neuronales e ingeniería química. El objetivo de la computación amorfa es comprender y diseñar sistemas novedosos mediante la caracterización de algoritmos amorfos como abstracciones.
La computación evolutiva es un tipo de inteligencia artificial y computación blanda que utiliza algoritmos inspirados en la evolución biológica para encontrar soluciones optimizadas a una amplia gama de problemas. Implica generar un conjunto inicial de soluciones candidatas, eliminar estocásticamente las soluciones menos deseadas e introducir pequeños cambios aleatorios para crear una nueva generación. La población de soluciones está sujeta a selección y mutación natural o artificial, lo que resulta en una evolución hacia una mayor aptitud según la función de aptitud elegida. La computación evolutiva ha demostrado ser eficaz en diversos entornos problemáticos y tiene aplicaciones tanto en informática como en biología evolutiva.
La computación ternaria es un tipo de computación que utiliza lógica ternaria , o base 3, en sus cálculos en lugar del sistema binario más común . Las computadoras ternarias usan trits, o dígitos ternarios, que se pueden definir de varias maneras, incluido el ternario desequilibrado, el ternario desequilibrado fraccionario, el ternario equilibrado y la lógica de estado desconocido. Las computadoras cuánticas ternarias usan qutrits en lugar de trits. La computación ternaria ha sido reemplazada en gran medida por computadoras binarias, pero se ha propuesto su uso en dispositivos de alta velocidad y bajo consumo de energía que utilizan la unión Josephson como una celda de memoria ternaria equilibrada.
La computación reversible es un tipo de computación no convencional en la que el proceso computacional se puede revertir hasta cierto punto. Para que un cálculo sea reversible, la relación entre los estados y sus sucesores debe ser uno a uno y el proceso no debe resultar en un aumento de la entropía física. Los circuitos cuánticos son reversibles siempre que no colapsen los estados cuánticos, y las funciones reversibles son biyectivas, lo que significa que tienen el mismo número de entradas que de salidas. [59]
La computación del caos es un tipo de computación no convencional que utiliza sistemas caóticos para realizar cálculos. Los sistemas caóticos se pueden utilizar para crear puertas lógicas y se pueden cambiar rápidamente entre diferentes patrones, lo que los hace útiles para aplicaciones tolerantes a fallas y computación paralela. La computación del caos se ha aplicado a diversos campos como la meteorología, la fisiología y las finanzas.
La computación estocástica es un método de cálculo que representa valores continuos como flujos de bits aleatorios y realiza operaciones complejas utilizando operaciones bit a bit simples en los flujos. Puede verse como una computadora híbrida analógica/digital y se caracteriza por su propiedad de precisión progresiva, donde la precisión del cálculo aumenta a medida que se extiende el flujo de bits. La computación estocástica se puede utilizar en sistemas iterativos para lograr una convergencia más rápida, pero también puede ser costosa debido a la necesidad de generar flujos de bits aleatorios y es vulnerable a fallas si no se cumple el supuesto de flujos de bits independientes. También tiene una capacidad limitada para realizar determinadas funciones digitales.
1613 'RB' Yong Mans Gleanings 1, He leído la computadora más auténtica del Times y el mejor aritmético que jamás haya existido, y él reduce tus días a un número corto.