La conciencia artificial , [1] también conocida como conciencia de máquina , [2] [3] conciencia sintética , [4] o conciencia digital , [5] es la conciencia que se supone que es posible en la inteligencia artificial . [6] También es el campo de estudio correspondiente, que extrae conocimientos de la filosofía de la mente , la filosofía de la inteligencia artificial , la ciencia cognitiva y la neurociencia .
La misma terminología puede emplearse con el término " sensibilidad " en lugar de "conciencia" cuando se designa específicamente la conciencia fenomenal (la capacidad de sentir qualia ). [7] Dado que la sensibilidad implica la capacidad de experimentar estados mentales éticamente positivos o negativos (es decir, con valencia ), puede justificar preocupaciones de bienestar y protección legal, como ocurre con los animales. [8]
Algunos investigadores creen que la conciencia se genera por la interoperación de varias partes del cerebro ; estos mecanismos se denominan correlatos neuronales de la conciencia o NCC. Algunos creen además que la construcción de un sistema (por ejemplo, un sistema informático ) que pueda emular esta interoperación NCC daría como resultado un sistema consciente. [9]
Como existen muchos tipos hipotéticos de conciencia , existen muchas posibles implementaciones de la conciencia artificial. En la literatura filosófica, tal vez la taxonomía más común de la conciencia sea la de las variantes de "acceso" y "fenomenal". La conciencia de acceso se refiere a aquellos aspectos de la experiencia que pueden ser aprehendidos, mientras que la conciencia fenomenal se refiere a aquellos aspectos de la experiencia que aparentemente no pueden ser aprehendidos, sino que se caracterizan cualitativamente en términos de "sensaciones crudas", "cómo es" o qualia. [10]
Los teóricos de la identidad de tipos y otros escépticos sostienen la opinión de que la conciencia sólo puede realizarse en sistemas físicos particulares porque la conciencia tiene propiedades que dependen necesariamente de la constitución física. [11] [12] [13] [14] En su artículo de 2001 "Conciencia artificial: utopía o posibilidad real", Giorgio Buttazzo dice que una objeción común a la conciencia artificial es que "al trabajar en un modo totalmente automatizado, [las computadoras] no pueden exhibir creatividad, no reprogramación (lo que significa que 'ya no pueden ser reprogramadas', a partir del replanteamiento), emociones o libre albedrío . Una computadora, como una lavadora, es un esclavo operado por sus componentes". [15]
Para otros teóricos (por ejemplo, los funcionalistas ), que definen los estados mentales en términos de roles causales, cualquier sistema que pueda instanciar el mismo patrón de roles causales, independientemente de la constitución física, instanciará los mismos estados mentales, incluida la conciencia. [16]
David Chalmers propuso dos experimentos mentales con la intención de demostrar que los sistemas "funcionalmente isomórficos " (aquellos con la misma "organización funcional de grano fino", es decir, el mismo procesamiento de información) tendrán experiencias conscientes cualitativamente idénticas, independientemente de si se basan en neuronas biológicas o en hardware digital. [17] [18]
El "desvanecimiento de los qualia" es un experimento mental de reducción al absurdo . Consiste en reemplazar, una por una, las neuronas de un cerebro por un componente funcionalmente idéntico, por ejemplo, basado en un chip de silicio . Dado que las neuronas originales y sus contrapartes de silicio son funcionalmente idénticas, el procesamiento de información del cerebro debería permanecer inalterado y el sujeto no notaría ninguna diferencia. Sin embargo, si los qualia (como la experiencia subjetiva del rojo brillante) se desvanecieran o desaparecieran, el sujeto probablemente notaría este cambio, lo que causa una contradicción. Chalmers concluye que la hipótesis del desvanecimiento de los qualia es imposible en la práctica y que el cerebro robótico resultante, una vez que se reemplacen todas las neuronas, seguiría siendo tan sensible como el cerebro biológico original. [17] [19]
De manera similar, el experimento mental de los "qualia danzantes" es otro argumento reductio ad absurdum . Supone que dos sistemas funcionalmente isomorfos podrían tener percepciones diferentes (por ejemplo, ver el mismo objeto en colores diferentes, como rojo y azul). Implica un interruptor que alterna entre un trozo de cerebro que causa la percepción del rojo y un chip de silicio funcionalmente isomorfo, que causa la percepción del azul. Como ambos realizan la misma función dentro del cerebro, el sujeto no notaría ningún cambio durante el cambio. Chalmers sostiene que esto sería altamente improbable si los qualia realmente estuvieran cambiando entre rojo y azul, de ahí la contradicción. Por lo tanto, concluye que el sistema digital equivalente no solo experimentaría qualia, sino que percibiría los mismos qualia que el sistema biológico (por ejemplo, vería el mismo color). [17] [19]
Los críticos [¿ quiénes? ] de la sensibilidad artificial objetan que la propuesta de Chalmers plantea la cuestión al suponer que todas las propiedades mentales y las conexiones externas ya están suficientemente capturadas por la organización causal abstracta.
En 2022, el ingeniero de Google Blake Lemoine hizo una afirmación viral de que el chatbot LaMDA de Google era consciente. Lemoine proporcionó como prueba las respuestas humanas del chatbot a muchas de sus preguntas; sin embargo, la comunidad científica juzgó que el comportamiento del chatbot probablemente era consecuencia del mimetismo, en lugar de la sensibilidad de la máquina. La afirmación de Lemoine fue ampliamente ridiculizada por ser ridícula. [20] Sin embargo, aunque el filósofo Nick Bostrom afirma que es poco probable que LaMDA sea consciente, también plantea la pregunta de "¿qué motivos tendría una persona para estar segura de ello?". Uno tendría que tener acceso a información inédita sobre la arquitectura de LaMDA, y también tendría que entender cómo funciona la conciencia, y luego descubrir cómo aplicar la filosofía a la máquina: "(En ausencia de estos pasos), parece que uno debería estar un poco inseguro. [...] bien podría haber otros sistemas ahora, o en un futuro relativamente cercano, que comenzarían a satisfacer los criterios". [21]
Qualia, o conciencia fenomenológica, es un fenómeno inherentemente de primera persona. Debido a eso, y a la falta de una definición empírica de la sensibilidad, medirla directamente puede ser imposible. Aunque los sistemas pueden mostrar numerosos comportamientos correlacionados con la sensibilidad, determinar si un sistema es sensible se conoce como el problema difícil de la conciencia . En el caso de la IA, existe la dificultad adicional de que la IA puede ser entrenada para actuar como un humano, o incentivada para parecer sensible, lo que hace que los marcadores de comportamiento de sensibilidad sean menos confiables. [22] [23] Además, algunos chatbots han sido entrenados para decir que no son conscientes. [24]
Un método conocido para probar la inteligencia de las máquinas es el test de Turing , que evalúa la capacidad de mantener una conversación similar a la de los humanos. Pero aprobar el test de Turing no indica que un sistema de IA sea consciente, ya que la IA puede simplemente imitar el comportamiento humano sin tener los sentimientos asociados. [25]
En 2014, Victor Argonov sugirió una prueba no Turing para la sensibilidad de las máquinas basada en la capacidad de la máquina para producir juicios filosóficos. [26] Argumenta que una máquina determinista debe considerarse consciente si es capaz de producir juicios sobre todas las propiedades problemáticas de la conciencia (como qualia o binding ) al no tener conocimiento filosófico innato (precargado) sobre estos temas, ninguna discusión filosófica mientras aprende y ningún modelo informativo de otras criaturas en su memoria (tales modelos pueden contener implícita o explícitamente conocimiento sobre la conciencia de estas criaturas). Sin embargo, esta prueba solo puede usarse para detectar, pero no para refutar la existencia de la conciencia. Un resultado positivo prueba que la máquina es consciente, pero un resultado negativo no prueba nada. Por ejemplo, la ausencia de juicios filosóficos puede ser causada por la falta de intelecto de la máquina, no por la ausencia de conciencia.
Si se sospechara que una máquina en particular es consciente, sus derechos serían una cuestión ética que habría que evaluar (por ejemplo, qué derechos tendría según la ley). [27] Por ejemplo, una computadora consciente que fuera propiedad de alguien y se usara como herramienta o computadora central dentro de una máquina más grande es una ambigüedad particular. ¿Deberían crearse leyes para un caso así? La conciencia también requeriría una definición legal en este caso particular. Debido a que la conciencia artificial sigue siendo en gran medida un tema teórico, dicha ética no se ha discutido ni desarrollado en gran medida, aunque a menudo ha sido un tema en la ficción.
La sensibilidad se considera generalmente suficiente para la consideración moral, pero algunos filósofos consideran que la consideración moral también podría derivar de otras nociones de conciencia, o de capacidades no relacionadas con la conciencia, [28] [29] tales como: "tener una concepción sofisticada de uno mismo como persistente a través del tiempo; tener agencia y la capacidad de perseguir planes a largo plazo; ser capaz de comunicarse y responder a razones normativas; tener preferencias y poderes; estar en ciertas relaciones sociales con otros seres que tienen estatus moral; ser capaz de hacer compromisos y entrar en acuerdos recíprocos; o tener el potencial para desarrollar algunos de estos atributos". [28]
Las preocupaciones éticas siguen siendo válidas (aunque en menor medida) cuando la conciencia es incierta , siempre que la probabilidad se considere no despreciable. El principio de precaución también es relevante si el costo moral de atribuir o negar erróneamente una consideración moral a la IA difiere significativamente. [29] [8]
En 2021, el filósofo alemán Thomas Metzinger abogó por una moratoria global de la fenomenología sintética hasta 2050. Metzinger afirma que los humanos tienen el deber de cuidar cualquier IA consciente que creen, y que proceder demasiado rápido corre el riesgo de crear una "explosión de sufrimiento artificial". [30] David Chalmers también argumentó que la creación de una IA consciente "plantearía un nuevo grupo de difíciles desafíos éticos, con el potencial de nuevas formas de injusticia". [31]
Se ha propuesto la amnesia forzada como una forma de mitigar el riesgo de sufrimiento silencioso en la IA consciente encerrada y en ciertos sistemas biológicos adyacentes a la IA, como los organoides cerebrales . [32]
Bernard Baars y otros sostienen que hay varios aspectos de la conciencia necesarios para que una máquina sea artificialmente consciente. [33] Las funciones de la conciencia sugeridas por Baars son: definición y establecimiento de contexto, adaptación y aprendizaje, edición, señalización y depuración, reclutamiento y control, priorización y control de acceso, toma de decisiones o función ejecutiva, función de formación de analogías, función metacognitiva y de autocontrol, y función de autoprogramación y automantenimiento. Igor Aleksander sugirió 12 principios para la conciencia artificial: [34] el cerebro es una máquina de estados, partición neuronal interna, estados conscientes e inconscientes, aprendizaje perceptivo y memoria, predicción, la conciencia de uno mismo, representación de significado, aprendizaje de enunciados, aprendizaje del lenguaje, voluntad, instinto y emoción. El objetivo de la CA es definir si estos y otros aspectos de la conciencia se pueden sintetizar en un artefacto diseñado como una computadora digital y cómo. Esta lista no es exhaustiva; hay muchos otros que no se cubren.
Algunos filósofos, como David Chalmers , utilizan el término conciencia para referirse exclusivamente a la conciencia fenoménica, que es aproximadamente equivalente a la sensibilidad. Aunque algunos autores utilizan la palabra sensibilidad para referirse exclusivamente a experiencias subjetivas con valencia (éticamente positivas o negativas), como el placer o el sufrimiento. [31] Explicar por qué y cómo surge la experiencia subjetiva se conoce como el problema difícil de la conciencia . [35] La sensibilidad de la IA daría lugar a preocupaciones de bienestar y protección legal, [8] mientras que otros aspectos de la conciencia relacionados con las capacidades cognitivas pueden ser más relevantes para los derechos de la IA. [36]
La conciencia podría ser un aspecto necesario, pero existen muchos problemas con la definición exacta de conciencia . Los resultados de los experimentos de neuroescaneo en monos sugieren que un proceso, no solo un estado u objeto, activa las neuronas. La conciencia incluye la creación y prueba de modelos alternativos de cada proceso en función de la información recibida a través de los sentidos o imaginada [ aclaración necesaria ] y también es útil para hacer predicciones. Tal modelado necesita mucha flexibilidad. La creación de un modelo de este tipo incluye modelar el mundo físico, modelar los propios estados y procesos internos y modelar otras entidades conscientes.
Existen al menos tres tipos de conciencia: [37] conciencia de agencia, conciencia de objetivo y conciencia sensoriomotora, que también puede ser consciente o no. Por ejemplo, en la conciencia de agencia, usted puede ser consciente de que realizó una determinada acción ayer, pero ahora no es consciente de ella. En la conciencia de objetivo, usted puede ser consciente de que debe buscar un objeto perdido, pero ahora no es consciente de ello. En la conciencia sensoriomotora, usted puede ser consciente de que su mano está apoyada sobre un objeto, pero ahora no es consciente de ello.
Dado que los objetos de conciencia suelen ser conscientes, la distinción entre conciencia y percepción a menudo se difumina o se utilizan como sinónimos. [38]
Los eventos conscientes interactúan con los sistemas de memoria en el aprendizaje, el ensayo y la recuperación. [39] El modelo IDA [40] dilucida el papel de la conciencia en la actualización de la memoria perceptiva, [41] la memoria episódica transitoria y la memoria procedimental . Las memorias episódicas transitorias y declarativas tienen representaciones distribuidas en IDA; hay evidencia de que este también es el caso en el sistema nervioso. [42] En IDA, estas dos memorias se implementan computacionalmente utilizando una versión modificada de la arquitectura de memoria distribuida dispersa de Kanerva . [43]
El aprendizaje también se considera necesario para la conciencia artificial. Según Bernard Baars, la experiencia consciente es necesaria para representar y adaptarse a eventos nuevos y significativos. [33] Según Axel Cleeremans y Luis Jiménez, el aprendizaje se define como "un conjunto de procesos de adaptación filogenéticamente [ sic ] avanzados que dependen críticamente de una sensibilidad evolucionada a la experiencia subjetiva para permitir a los agentes tener un control flexible sobre sus acciones en entornos complejos e impredecibles". [44]
La capacidad de predecir (o anticipar ) eventos previsibles es considerada importante para la inteligencia artificial por Igor Aleksander . [45] El principio emergentista de borradores múltiples propuesto por Daniel Dennett en Consciousness Explained puede ser útil para la predicción: implica la evaluación y selección del "borrador" más apropiado para adaptarse al entorno actual. La anticipación incluye la predicción de las consecuencias de las propias acciones propuestas y la predicción de las consecuencias de las acciones probables de otras entidades.
Las relaciones entre los estados del mundo real se reflejan en la estructura de estados de un organismo consciente, lo que le permite predecir eventos. [45] Una máquina con conciencia artificial debería ser capaz de anticipar los eventos correctamente para estar lista para responder a ellos cuando ocurran o para tomar medidas preventivas para evitar eventos anticipados. La implicación aquí es que la máquina necesita componentes flexibles y en tiempo real que construyan modelos espaciales, dinámicos, estadísticos, funcionales y de causa-efecto del mundo real y de los mundos previstos, lo que le permita demostrar que posee conciencia artificial en el presente y el futuro y no solo en el pasado. Para hacer esto, una máquina consciente debería hacer predicciones coherentes y planes de contingencia, no solo en mundos con reglas fijas como un tablero de ajedrez, sino también para entornos nuevos que puedan cambiar, que se ejecutarán solo cuando sea apropiado para simular y controlar el mundo real.
El funcionalismo es una teoría que define los estados mentales por sus roles funcionales (sus relaciones causales con las entradas sensoriales, otros estados mentales y resultados conductuales), en lugar de por su composición física. Según esta perspectiva, lo que hace que algo sea un estado mental particular, como el dolor o la creencia, no es el material del que está hecho, sino el papel que desempeña dentro del sistema cognitivo general. Permite la posibilidad de que los estados mentales, incluida la conciencia, puedan realizarse en sustratos no biológicos, siempre que se creen las relaciones funcionales adecuadas. [46] El funcionalismo es particularmente popular entre los filósofos. [47]
Un estudio de 2023 sugirió que los grandes modelos de lenguaje actuales probablemente no satisfacen los criterios de conciencia sugeridos por estas teorías, pero que se podrían crear sistemas de IA relativamente simples que satisfagan estas teorías. El estudio también reconoció que incluso las teorías más destacadas de la conciencia siguen siendo incompletas y están sujetas a un debate continuo. [48]
Esta teoría compara la mente con un teatro, en el que el pensamiento consciente es como el material iluminado en el escenario principal. El cerebro contiene muchos procesos o módulos especializados (como los de la visión, el lenguaje o la memoria) que operan en paralelo, gran parte de los cuales son inconscientes. La atención actúa como un foco de atención, que lleva parte de esta actividad inconsciente a la conciencia en el espacio de trabajo global. El espacio de trabajo global funciona como un centro para transmitir e integrar información, lo que permite que se comparta y procese entre diferentes módulos especializados. Por ejemplo, al leer una palabra, el módulo visual reconoce las letras, el módulo del lenguaje interpreta el significado y el módulo de memoria puede recordar la información asociada, todo ello coordinado a través del espacio de trabajo global. [49] [50]
Las teorías de orden superior de la conciencia proponen que un estado mental se vuelve consciente cuando es objeto de una representación de orden superior, como un pensamiento o una percepción sobre ese estado. Estas teorías sostienen que la conciencia surge de una relación entre estados mentales de orden inferior y conciencia de orden superior de esos estados. Existen varias variaciones, incluidas las teorías del pensamiento de orden superior (HOT) y la percepción de orden superior (HOP). [51] [50]
En 2011, Michael Graziano y Sabine Kastler publicaron un artículo titulado "La conciencia humana y su relación con la neurociencia social: una nueva hipótesis" en el que proponían una teoría de la conciencia como un esquema de atención. [52] Graziano publicó una discusión ampliada de esta teoría en su libro "La conciencia y el cerebro social". [9] Esta teoría del esquema de atención de la conciencia, como la denominó, propone que el cerebro rastrea la atención a varias entradas sensoriales por medio de un esquema de atención, análogo al esquema corporal bien estudiado que rastrea la ubicación espacial del cuerpo de una persona. [9] Esto se relaciona con la conciencia artificial al proponer un mecanismo específico de manejo de la información, que produce lo que supuestamente experimentamos y describimos como conciencia, y que debería poder ser duplicado por una máquina que use la tecnología actual. Cuando el cerebro descubre que la persona X es consciente de la cosa Y, en efecto está modelando el estado en el que la persona X está aplicando una mejora atencional a Y. En la teoría del esquema de atención, el mismo proceso se puede aplicar a uno mismo. El cerebro sigue la atención de diversas señales sensoriales, y la propia conciencia es un modelo esquematizado de la atención. Graziano propone lugares específicos en el cerebro para este proceso y sugiere que dicha conciencia es una característica computacional construida por un sistema experto en el cerebro.
Stan Franklin creó una arquitectura cognitiva llamada LIDA que implementa la teoría de la conciencia de Bernard Baars , llamada teoría del espacio de trabajo global . Se basa en gran medida en codelets , que son "miniagentes de propósito especial, relativamente independientes, que generalmente se implementan como un pequeño fragmento de código que se ejecuta como un hilo separado". Cada elemento de la cognición, llamado "ciclo cognitivo", se subdivide en tres fases: comprensión, conciencia y selección de acciones (que incluye el aprendizaje). LIDA refleja la idea central de la teoría del espacio de trabajo global de que la conciencia actúa como un espacio de trabajo para integrar y transmitir la información más importante, con el fin de coordinar varios procesos cognitivos. [53] [54]
La arquitectura cognitiva CLARION modela la mente utilizando un sistema de dos niveles para distinguir entre procesos conscientes ("explícitos") e inconscientes ("implícitos"). Puede simular diversas tareas de aprendizaje, desde simples hasta complejas, lo que ayuda a los investigadores a estudiar en experimentos psicológicos cómo podría funcionar la conciencia. [55]
Ben Goertzel creó una IA corporizada a través del proyecto de código abierto OpenCog . El código incluye mascotas virtuales corporizadas capaces de aprender comandos simples en inglés, así como la integración con robótica del mundo real, realizado en la Universidad Politécnica de Hong Kong .
Pentti Haikonen considera que la computación clásica basada en reglas es inadecuada para lograr la CA: "el cerebro definitivamente no es una computadora. Pensar no es una ejecución de cadenas programadas de comandos. El cerebro tampoco es una calculadora numérica. No pensamos por números". En lugar de intentar lograr la mente y la conciencia identificando e implementando sus reglas computacionales subyacentes, Haikonen propone "una arquitectura cognitiva especial para reproducir los procesos de percepción , imágenes internas , habla interna , dolor , placer , emociones y las funciones cognitivas detrás de estos. Esta arquitectura de abajo hacia arriba produciría funciones de nivel superior mediante el poder de las unidades de procesamiento elementales, las neuronas artificiales , sin algoritmos ni programas ". Haikonen cree que, cuando se implemente con suficiente complejidad, esta arquitectura desarrollará la conciencia, que él considera "un estilo y forma de operación, caracterizado por la representación distribuida de señales, el proceso de percepción, la presentación de informes multimodales y la disponibilidad para la retrospección". [56] [57]
Haikonen no es el único que tiene esta visión de la conciencia basada en procesos, o la visión de que la CA surgirá espontáneamente en agentes autónomos que tengan una arquitectura de complejidad adecuada inspirada en los sistemas neuronales; muchos comparten esta visión. [58] [59] Se informó que una implementación de baja complejidad de la arquitectura propuesta por Haikonen no era capaz de generar CA, pero sí exhibía emociones como se esperaba. Haikonen luego actualizó y resumió su arquitectura. [60] [61]
Murray Shanahan describe una arquitectura cognitiva que combina la idea de Baars de un espacio de trabajo global con un mecanismo de simulación interna ("imaginación"). [62] [2] [3] [63]
Stephen Thaler propuso una posible conexión entre la conciencia y la creatividad en su patente de 1994, llamada "Dispositivo para la generación autónoma de información útil" (DAGUI), [64] [65] [66] o la llamada "Máquina de la creatividad", en la que los críticos computacionales gobiernan la inyección de ruido sináptico y la degradación en las redes neuronales para inducir recuerdos falsos o confabulaciones que pueden calificar como ideas o estrategias potenciales. [67] Recluta esta arquitectura y metodología neuronal para explicar la sensación subjetiva de conciencia, afirmando que conjuntos neuronales similares impulsados por ruido dentro del cerebro inventan un significado dudoso para la actividad cortical general. [68] [69] [70] La teoría de Thaler y las patentes resultantes en conciencia de máquina se inspiraron en experimentos en los que interrumpió internamente redes neuronales entrenadas para impulsar una sucesión de patrones de activación neuronal que comparó con el flujo de conciencia. [69] [71] [72] [73] [74]
Hod Lipson define el "automodelado" como un componente necesario de la autoconciencia o conciencia en los robots. El "automodelado" consiste en que un robot ejecute un modelo interno o simulación de sí mismo . [75] [76]
En 2001: Odisea del espacio , la supercomputadora inteligente de la nave espacial, HAL 9000, recibió instrucciones de ocultar el verdadero propósito de la misión a la tripulación. Esta directiva entró en conflicto con la programación de HAL para proporcionar información precisa, lo que provocó una disonancia cognitiva . Cuando se entera de que los miembros de la tripulación tienen la intención de apagarla después de un incidente, HAL 9000 intenta eliminarlos a todos, por temor a que apagarla ponga en peligro la misión. [77] [78]
En La ciudad y las estrellas de Arthur C. Clarke , Vanamonde es un ser artificial basado en el entrelazamiento cuántico que se volvería inmensamente poderoso, pero que comenzó a no saber prácticamente nada, siendo así similar a la conciencia artificial.
En Westworld , se crean androides con apariencia humana llamados "Anfitriones" para entretener a los humanos en un patio de juegos interactivo. Los humanos son libres de vivir aventuras heroicas, pero también de cometer torturas, violaciones o asesinatos; y los anfitriones normalmente están diseñados para no dañar a los humanos. [79] [77]
En el cuento de Greg Egan Aprendiendo a ser yo , una pequeña joya es implantada en la cabeza de las personas durante la infancia. La joya contiene una red neuronal que aprende a imitar fielmente al cerebro. Tiene acceso a exactamente las mismas entradas sensoriales que el cerebro, y un dispositivo llamado "maestro" lo entrena para producir las mismas salidas. Para evitar que la mente se deteriore con la edad y como un paso hacia la inmortalidad digital , los adultos se someten a una cirugía para darle el control del cuerpo a la joya y extirpar el cerebro. El personaje principal, antes de la cirugía, sufre un mal funcionamiento del "maestro". Presa del pánico, se da cuenta de que no controla su cuerpo, lo que lo lleva a la conclusión de que él es la joya, y que está desincronizado con el cerebro biológico. [80] [81]