La conciencia artificial [1] ( AC ), también conocida como conciencia de máquina ( MC ), [2] [3] conciencia sintética [4] o conciencia digital , [5] es la conciencia que se supone que es posible en la inteligencia artificial . [6] También es el campo de estudio correspondiente, que extrae conocimientos de la filosofía de la mente , la filosofía de la inteligencia artificial , la ciencia cognitiva y la neurociencia . La misma terminología puede usarse con el término " sentiencia " en lugar de " conciencia " cuando se designa específicamente la conciencia fenoménica (la capacidad de sentir qualia ). [7]
Algunos estudiosos creen que la conciencia se genera por la interoperación de varias partes del cerebro ; estos mecanismos se denominan correlatos neuronales de la conciencia o NCC. Algunos creen además que construir un sistema (por ejemplo, un sistema informático ) que pueda emular esta interoperación NCC daría como resultado un sistema consciente. [8]
Como existen muchos tipos hipotéticos de conciencia , existen muchas implementaciones potenciales de conciencia artificial. En la literatura filosófica, quizás la taxonomía más común de la conciencia sea la de variantes de "acceso" y "fenoménicas". La conciencia de acceso se refiere a aquellos aspectos de la experiencia que se pueden aprehender, mientras que la conciencia fenoménica se refiere a aquellos aspectos de la experiencia que aparentemente no se pueden aprehender, sino que se caracterizan cualitativamente en términos de "sensaciones crudas", "cómo es" o qualia. [9]
Los teóricos de la identidad de tipos y otros escépticos sostienen que la conciencia sólo puede realizarse en sistemas físicos particulares porque la conciencia tiene propiedades que dependen necesariamente de la constitución física. [10] [11] [12] [13]
En su artículo "Conciencia artificial: utopía o posibilidad real", Giorgio Buttazzo dice que una objeción común a la conciencia artificial es que "al trabajar en modo totalmente automatizado, [las computadoras] no pueden exhibir creatividad, ni reprogramación (lo que significa que ya no pueden ser reprogramado, desde el replanteamiento), las emociones o el libre albedrío . Una computadora, como una lavadora, es una esclava operada por sus componentes." [14]
Para otros teóricos (por ejemplo, los funcionalistas ), que definen los estados mentales en términos de roles causales, cualquier sistema que pueda instanciar el mismo patrón de roles causales, independientemente de la constitución física, instanciará los mismos estados mentales, incluida la conciencia. [15]
Uno de los argumentos más explícitos a favor de la plausibilidad de la sensibilidad artificial proviene de David Chalmers . Su propuesta es, a grandes rasgos, que los tipos correctos de cálculos son suficientes para la posesión de una mente consciente. Chalmers propone que un sistema implementa un cálculo si "la estructura causal del sistema refleja la estructura formal del cálculo", y que cualquier sistema que implemente ciertos cálculos es sensible. [dieciséis]
La parte más controvertida de la propuesta de Chalmers es que las propiedades mentales son "organizacionalmente invariantes". Las propiedades mentales son de dos tipos, psicológicas y fenomenológicas. Las propiedades psicológicas, como la creencia y la percepción, son aquellas que se "caracterizan por su papel causal". Con la ayuda de trabajos anteriores, [17] [18] dice que "[s]istemas con la misma topología causal... compartirán sus propiedades psicológicas".
Las propiedades fenomenológicas, a diferencia de las propiedades psicológicas, no se pueden definir en términos de sus roles causales. Por lo tanto, establecer que las propiedades fenomenológicas son consecuencia de una topología causal requiere argumentos. Chalmers proporciona su argumento Dancing Qualia para este propósito. [19]
Chalmers comienza asumiendo que su principio de invariancia organizacional es falso: que agentes con organizaciones causales idénticas podrían tener experiencias diferentes. Luego nos pide que concibamos la transformación de un agente en otro mediante la sustitución de partes (partes neuronales reemplazadas por silicio, por ejemplo) preservando al mismo tiempo su organización causal. La experiencia del agente bajo transformación cambiaría (a medida que las partes fueran reemplazadas), pero no habría ningún cambio en la topología causal y, por lo tanto, no habría medios por los cuales el agente pudiera "notar" el cambio en la experiencia; Chalmers considera que este estado de cosas es un reducto ad absurdum inverosímil y establece que su principio de invariancia organizacional debe ser casi con certeza cierto.
Críticos [ ¿quién? ] de la sensibilidad artificial objetan que Chalmers da por sentado que todas las propiedades mentales y conexiones externas están suficientemente capturadas por una organización causal abstracta.
En 2022, el ingeniero de Google, Blake Lemoine, hizo una afirmación viral de que el chatbot LaMDA de Google era sensible. Lemoine proporcionó como prueba las respuestas humanas del chatbot a muchas de sus preguntas; sin embargo, la comunidad científica consideró que el comportamiento del chatbot probablemente era una consecuencia del mimetismo, más que de la sensibilidad de la máquina. La afirmación de Lemoine fue ampliamente ridiculizada por ser ridícula. [20] Sin embargo, mientras el filósofo Nick Bostrom afirma que es poco probable que LaMDA esté consciente, además plantea la pregunta de "¿qué motivos tendría una persona para estar seguro de ello?" Uno tendría que tener acceso a información inédita sobre la arquitectura de LaMDA, y también tendría que entender cómo funciona la conciencia, y luego descubrir cómo mapear la filosofía en la máquina: "(En ausencia de estos pasos), parece que uno Debería ser tal vez un poco incierto... bien podría haber otros sistemas ahora, o en un futuro relativamente cercano, que comenzarían a satisfacer los criterios". [21]
El método más conocido para probar la inteligencia de las máquinas es la prueba de Turing . Pero cuando se interpreta como únicamente observacional, esta prueba contradice los principios de la filosofía de la ciencia de la dependencia teórica de las observaciones . También se ha sugerido que debería tomarse en serio la recomendación de Alan Turing de imitar no la conciencia de un adulto humano, sino la de un niño humano. [22]
La qualia, o conciencia fenomenológica, es un fenómeno inherente en primera persona. Aunque varios sistemas pueden mostrar numerosos signos de comportamiento correlacionados con la conciencia funcional, no existe una manera concebible de que las pruebas en tercera persona puedan tener acceso a características fenomenológicas en primera persona. Por eso, además de la falta de una definición empírica de sintiencia, [23] una prueba de sintiencia presente en AC puede ser imposible.
En 2014, Victor Argonov sugirió una prueba no de Turing para la sensibilidad de las máquinas basada en la capacidad de las máquinas para producir juicios filosóficos. [24] Sostiene que una máquina determinista debe considerarse consciente si es capaz de producir juicios sobre todas las propiedades problemáticas de la conciencia (como los qualia o la vinculación ) sin tener conocimiento filosófico innato (precargado) sobre estos temas, sin discusiones filosóficas mientras aprendizaje, y no hay modelos informativos de otras criaturas en su memoria (dichos modelos pueden contener implícita o explícitamente conocimiento sobre la conciencia de estas criaturas). Sin embargo, esta prueba sólo puede utilizarse para detectar, pero no para refutar, la existencia de la conciencia. Un resultado positivo prueba que la máquina es consciente pero un resultado negativo no prueba nada. Por ejemplo, la ausencia de juicios filosóficos puede deberse a la falta del intelecto de la máquina, no a la ausencia de conciencia.
Si se sospechara que una máquina en particular era consciente, sus derechos serían una cuestión ética que habría que evaluar (por ejemplo, qué derechos tendría según la ley). Por ejemplo, una computadora consciente que fue poseída y utilizada como herramienta o computadora central dentro de una máquina más grande es una ambigüedad particular. ¿ Deberían elaborarse leyes para tal caso? La conciencia también requeriría en este caso una definición jurídica. Debido a que la conciencia artificial sigue siendo en gran medida un tema teórico, dicha ética no se ha discutido ni desarrollado en gran medida, aunque a menudo ha sido un tema de ficción (ver más abajo).
En 2021, el filósofo alemán Thomas Metzinger abogó por una moratoria global sobre la fenomenología sintética hasta 2050. Metzinger afirma que los humanos tienen el deber de cuidar de cualquier IA sensible que creen, y que proceder demasiado rápido corre el riesgo de crear una "explosión de sufrimiento artificial". [25]
Bernard Baars y otros sostienen que hay varios aspectos de la conciencia necesarios para que una máquina sea artificialmente consciente. [26] Las funciones de la conciencia sugeridas por Baars son: Definición y establecimiento de contexto, adaptación y aprendizaje, edición, señalización y depuración, reclutamiento y control, priorización y control de acceso, toma de decisiones o función ejecutiva, función de formación de analogías, metacognitiva. y función de autocontrol, y función de autoprogramación y automantenimiento. Igor Aleksander sugirió 12 principios para la conciencia artificial: [27] El cerebro es una máquina de estados, partición de las neuronas internas, estados conscientes e inconscientes, aprendizaje perceptual y memoria, predicción, conciencia de uno mismo, representación del significado, aprendizaje de expresiones, aprendizaje del lenguaje, Voluntad, Instinto y Emoción. El objetivo de AC es definir si estos y otros aspectos de la conciencia pueden sintetizarse en un artefacto diseñado como una computadora digital y cómo hacerlo. Esta lista no es exhaustiva; hay muchos otros que no están cubiertos.
La conciencia podría ser un aspecto requerido, pero existen muchos problemas con la definición exacta de conciencia . Los resultados de los experimentos de neuroescaneo en monos sugieren que un proceso, no sólo un estado u objeto, activa las neuronas. La conciencia incluye crear y probar modelos alternativos de cada proceso basados en la información recibida a través de los sentidos o imaginada, [ se necesita aclaración ] y también es útil para hacer predicciones. Este tipo de modelado necesita mucha flexibilidad. Crear un modelo de este tipo incluye modelar el mundo físico, modelar los propios estados y procesos internos y modelar otras entidades conscientes.
Hay al menos tres tipos de conciencia: [28] conciencia de agencia, conciencia de meta y conciencia sensoriomotora, que también puede ser consciente o no. Por ejemplo, en la conciencia de agencia, puedes ser consciente de que ayer realizaste una determinada acción, pero ahora no eres consciente de ello. En la conciencia de meta, puedes ser consciente de que debes buscar un objeto perdido, pero ahora no eres consciente de ello. En la conciencia sensoriomotora, puedes ser consciente de que tu mano está apoyada sobre un objeto, pero ahora no eres consciente de ello.
Debido a que los objetos de la conciencia son a menudo conscientes, la distinción entre conciencia y conciencia con frecuencia se confunde o se utilizan como sinónimos. [29]
Los acontecimientos conscientes interactúan con los sistemas de memoria en el aprendizaje, el ensayo y la recuperación. [30] El modelo IDA [31] aclara el papel de la conciencia en la actualización de la memoria perceptiva, [32] la memoria episódica transitoria y la memoria procedimental . Las memorias transitorias episódicas y declarativas tienen representaciones distribuidas en IDA; Hay pruebas de que esto también ocurre en el sistema nervioso. [33] En IDA, estas dos memorias se implementan computacionalmente utilizando una versión modificada de la arquitectura de memoria distribuida Sparse de Kanerva . [34]
El aprendizaje también se considera necesario para la conciencia artificial. Según Bernard Baars, se necesita experiencia consciente para representar y adaptarse a acontecimientos novedosos y significativos. [26] Según Axel Cleeremans y Luis Jiménez, el aprendizaje se define como "un conjunto de procesos de adaptación filogenéticamente [ sic ] avanzados que dependen críticamente de una sensibilidad evolucionada a la experiencia subjetiva para permitir a los agentes permitirse un control flexible sobre sus acciones en situaciones complejas, entornos impredecibles". [35]
Igor Aleksander considera importante para la inteligencia artificial la capacidad de predecir (o anticipar ) acontecimientos previsibles . [36] El principio emergentista de borradores múltiples propuesto por Daniel Dennett en La Conciencia Explicada puede ser útil para la predicción: implica la evaluación y selección del "borrador" más apropiado para adaptarse al entorno actual. La anticipación incluye la predicción de las consecuencias de las propias acciones propuestas y la predicción de las consecuencias de acciones probables de otras entidades.
Las relaciones entre los estados del mundo real se reflejan en la estructura de estados de un organismo consciente, lo que le permite predecir eventos. [36] Una máquina artificialmente consciente debería poder anticipar eventos correctamente para estar lista para responder a ellos cuando ocurran o tomar medidas preventivas para evitar eventos anticipados. La implicación aquí es que la máquina necesita componentes flexibles en tiempo real que construyan modelos espaciales, dinámicos, estadísticos, funcionales y de causa-efecto del mundo real y de los mundos predichos, lo que permitirá demostrar que posee conciencia artificial en el presente. y futuro y no sólo en el pasado. Para hacer esto, una máquina consciente debe hacer predicciones coherentes y planes de contingencia, no sólo en mundos con reglas fijas como un tablero de ajedrez, sino también para entornos nuevos que pueden cambiar, que se ejecutarán sólo cuando sea apropiado para simular y controlar la realidad real. mundo.
Las experiencias subjetivas o qualia son ampliamente consideradas como el difícil problema de la conciencia . De hecho, se considera que plantea un desafío al fisicalismo , y mucho menos al computacionalismo .
Stan Franklin (1995, 2003) define un agente autónomo como poseedor de conciencia funcional cuando es capaz de realizar varias de las funciones de la conciencia identificadas por la Teoría del espacio de trabajo global de Bernard Baars . [26] [37] Su creación IDA (Agente de distribución inteligente) es una implementación de software de GWT, lo que lo hace funcionalmente consciente por definición. La tarea de IDA es negociar nuevas asignaciones para los marineros de la Marina de los EE. UU. después de que finalicen su período de servicio, haciendo coincidir las habilidades y preferencias de cada individuo con las necesidades de la Marina. IDA interactúa con las bases de datos de la Marina y se comunica con los marineros a través de un diálogo de correo electrónico en lenguaje natural mientras obedece a un gran conjunto de políticas de la Marina. El modelo computacional IDA se desarrolló entre 1996 y 2001 en el Grupo de Investigación de Software "Consciente" de Stan Franklin en la Universidad de Memphis . "Consta de aproximadamente un cuarto de millón de líneas de código Java y consume casi por completo los recursos de una estación de trabajo de alta gama del año 2001". Se basa en gran medida en codelets , que son "miniagentes de propósito especial, relativamente independientes, que normalmente se implementan como una pequeña pieza de código que se ejecuta como un hilo separado". En la arquitectura de arriba hacia abajo de IDA, las funciones cognitivas de alto nivel se modelan explícitamente. [38] [39]
Si bien IDA es funcionalmente consciente por definición, Franklin "no atribuye una conciencia fenomenal a su propio agente de software 'consciente', IDA, a pesar de sus muchos comportamientos humanos. Esto a pesar de observar a varios detallistas de la Marina de los EE. UU. asintiendo repetidamente con la cabeza diciendo 'Sí, así es como lo hago' mientras observo las acciones internas y externas de IDA mientras realiza su tarea". IDA se ha ampliado a LIDA (Agente de distribución inteligente de aprendizaje).
La arquitectura cognitiva de CLARION postula una representación de dos niveles que explica la distinción entre procesos mentales conscientes e inconscientes. CLARION ha tenido éxito en dar cuenta de una variedad de datos psicológicos. Se han simulado una serie de tareas de aprendizaje de habilidades conocidas utilizando CLARION que abarcan un espectro que va desde habilidades reactivas simples hasta habilidades cognitivas complejas. Las tareas incluyen tareas de tiempo de reacción en serie (SRT), tareas de aprendizaje de gramática artificial (AGL), tareas de control de procesos (PC), tarea de inferencia categórica (CI), tarea de aritmética alfabética (AA) y la Torre de Hanoi (TOH). tarea. [40] Entre ellos, SRT, AGL y PC son tareas típicas de aprendizaje implícito, muy relevantes para el tema de la conciencia, ya que operacionalizaron la noción de conciencia en el contexto de experimentos psicológicos.
Ben Goertzel creó una IA incorporada a través del proyecto OpenCog de código abierto . El código incluye mascotas virtuales incorporadas capaces de aprender comandos simples en inglés, así como integración con robótica del mundo real, realizado en la Universidad Politécnica de Hong Kong .
Pentti Haikonen considera que la informática clásica basada en reglas es inadecuada para lograr la CA: "el cerebro definitivamente no es una computadora. El pensamiento no es una ejecución de cadenas de comandos programadas. El cerebro tampoco es una calculadora numérica. No pensamos con números". En lugar de intentar alcanzar la mente y la conciencia identificando e implementando sus reglas computacionales subyacentes, Haikonen propone "una arquitectura cognitiva especial para reproducir los procesos de percepción , imágenes internas , habla interna , dolor , placer , emociones y las funciones cognitivas detrás de estos. Esto La arquitectura ascendente produciría funciones de nivel superior mediante el poder de las unidades de procesamiento elementales, las neuronas artificiales , sin algoritmos ni programas ". Haikonen cree que, cuando se implemente con suficiente complejidad, esta arquitectura desarrollará la conciencia, que considera "un estilo y forma de operación, caracterizado por la representación distribuida de señales, el proceso de percepción, la presentación de informes entre modalidades y la disponibilidad para la retrospección". [41] [42]
Haikonen no está solo en esta visión del proceso de la conciencia, o en la visión de que la CA surgirá espontáneamente en agentes autónomos que tienen una arquitectura de complejidad adecuada inspirada en neuronas; estos son compartidos por muchos. [43] [44] Se informó que una implementación de baja complejidad de la arquitectura propuesta por Haikonen no era capaz de CA, pero exhibía emociones como se esperaba. Posteriormente, Haikonen actualizó y resumió su arquitectura. [45] [46]
Murray Shanahan describe una arquitectura cognitiva que combina la idea de Baars de un espacio de trabajo global con un mecanismo de simulación interna ("imaginación"). [47] [2] [3] [48]
Junichi Takeno, de la Universidad Meiji de Japón , está investigando la autoconciencia en los robots . [49] Takeno afirma que ha desarrollado un robot capaz de discriminar entre una imagen propia en un espejo y cualquier otra que tenga una imagen idéntica. [50] [51] [52] Takeno afirma que primero ideó el módulo computacional llamado MoNAD, que tiene una función de autoconciencia, y luego construyó el sistema de conciencia artificial formulando las relaciones entre emociones, sentimientos y razón conectando los módulos en una jerarquía (Igarashi, Takeno 2007). Takeno completó un experimento de cognición de imagen especular utilizando un robot equipado con el sistema MoNAD. Takeno propuso la teoría del cuerpo propio afirmando que "los humanos sienten que su propia imagen reflejada está más cerca de ellos mismos que de una parte real de ellos mismos". El punto más importante en el desarrollo de la conciencia artificial o en la clarificación de la conciencia humana es el desarrollo de una función de autoconciencia, y afirma haber demostrado evidencia física y matemática de esto en su tesis. [53] También demostró que los robots pueden estudiar episodios en la memoria en los que se estimularon las emociones y utilizar esta experiencia para tomar acciones predictivas para prevenir la recurrencia de emociones desagradables (Torigoe, Takeno 2009).
Igor Aleksander , profesor emérito de Ingeniería de Sistemas Neurales en el Imperial College , ha investigado extensamente las redes neuronales artificiales y escribió en su libro de 1996 Mentes imposibles: Mis neuronas, mi conciencia que los principios para crear una máquina consciente ya existen pero que se necesitarían cuarenta años. entrenar una máquina así para que comprenda el lenguaje . [54] Queda por demostrar si esto es cierto y el principio básico establecido en Mentes imposibles —que el cerebro es una máquina de estados neuronales— está abierto a dudas. [55]
Stephen Thaler propuso una posible conexión entre conciencia y creatividad en su patente de 1994, denominada "Dispositivo para la generación autónoma de información útil" (DAGUI), [56] [57] [ 58 ] o la llamada "Máquina de creatividad", en cuyos críticos computacionales gobiernan la inyección de ruido sináptico y la degradación en las redes neuronales para inducir falsos recuerdos o confabulaciones que pueden calificar como ideas o estrategias potenciales. [59] Recluta esta arquitectura y metodología neuronal para explicar la sensación subjetiva de la conciencia, afirmando que conjuntos neuronales similares impulsados por ruido dentro del cerebro tienen una importancia dudosa para la actividad cortical general. [60] [61] [62] La teoría de Thaler y las patentes resultantes en la conciencia de las máquinas se inspiraron en experimentos en los que interrumpió internamente redes neuronales entrenadas para impulsar una sucesión de patrones de activación neuronal que comparó con una corriente de conciencia. [61] [63] [64] [65] [66]
En 2011, Michael Graziano y Sabine Kastler publicaron un artículo titulado "La conciencia humana y su relación con la neurociencia social: una nueva hipótesis" que propone una teoría de la conciencia como esquema de atención. [67] Graziano publicó una discusión ampliada de esta teoría en su libro "La conciencia y el cerebro social". [8] Esta Teoría de la Conciencia del Esquema de Atención, como él la llamó, propone que el cerebro rastrea la atención a varios estímulos sensoriales a través de un esquema de atención, análogo al esquema corporal bien estudiado que rastrea el lugar espacial del cuerpo de una persona. [8] Esto se relaciona con la conciencia artificial al proponer un mecanismo específico de manejo de la información, que produce lo que supuestamente experimentamos y describimos como conciencia, y que debería poder ser duplicado por una máquina que utilice la tecnología actual. Cuando el cerebro descubre que la persona X es consciente de la cosa Y, en realidad está modelando el estado en el que la persona X está aplicando una mejora atencional a Y. En la teoría del esquema de atención, el mismo proceso se puede aplicar a uno mismo. El cerebro rastrea la atención hacia diversos estímulos sensoriales, y la propia conciencia es un modelo esquematizado de la propia atención. Graziano propone ubicaciones específicas en el cerebro para este proceso y sugiere que dicha conciencia es una característica computarizada construida por un sistema experto en el cerebro.
Hod Lipson define el "automodelado" como un componente necesario de la autoconciencia o conciencia en los robots. El "automodelado" consiste en que un robot ejecuta un modelo interno o simulación de sí mismo . [68] [69]