stringtranslate.com

Conciencia artificial

La conciencia artificial , [1] también conocida como conciencia de máquina , [2] [3] conciencia sintética , [4] o conciencia digital , [5] es la conciencia que se supone que es posible en la inteligencia artificial . [6] También es el campo de estudio correspondiente, que extrae conocimientos de la filosofía de la mente , la filosofía de la inteligencia artificial , la ciencia cognitiva y la neurociencia .

La misma terminología puede emplearse con el término " sensibilidad " en lugar de "conciencia" cuando se designa específicamente la conciencia fenomenal (la capacidad de sentir qualia ). [7] Dado que la sensibilidad implica la capacidad de experimentar estados mentales éticamente positivos o negativos (es decir, con valencia ), puede justificar preocupaciones de bienestar y protección legal, como ocurre con los animales. [8]

Algunos investigadores creen que la conciencia se genera por la interoperación de varias partes del cerebro ; estos mecanismos se denominan correlatos neuronales de la conciencia o NCC. Algunos creen además que la construcción de un sistema (por ejemplo, un sistema informático ) que pueda emular esta interoperación NCC daría como resultado un sistema consciente. [9]

Puntos de vista filosóficos

Como existen muchos tipos hipotéticos de conciencia , existen muchas posibles implementaciones de la conciencia artificial. En la literatura filosófica, tal vez la taxonomía más común de la conciencia sea la de las variantes de "acceso" y "fenomenal". La conciencia de acceso se refiere a aquellos aspectos de la experiencia que pueden ser aprehendidos, mientras que la conciencia fenomenal se refiere a aquellos aspectos de la experiencia que aparentemente no pueden ser aprehendidos, sino que se caracterizan cualitativamente en términos de "sensaciones crudas", "cómo es" o qualia. [10]

Debate sobre plausibilidad

Los teóricos de la identidad de tipos y otros escépticos sostienen la opinión de que la conciencia solo puede realizarse en sistemas físicos particulares porque la conciencia tiene propiedades que dependen necesariamente de la constitución física. [11] [12] [13] [14]

En su artículo “Conciencia artificial: utopía o posibilidad real”, Giorgio Buttazzo dice que una objeción común a la conciencia artificial es que “al trabajar en un modo totalmente automatizado, [las computadoras] no pueden exhibir creatividad, des-reprogramación (lo que significa que ya no pueden ‘reprogramarse’, a partir del replanteamiento), emociones o libre albedrío . Una computadora, como una lavadora, es un esclavo operado por sus componentes”. [15]

Para otros teóricos (por ejemplo, los funcionalistas ), que definen los estados mentales en términos de roles causales, cualquier sistema que pueda instanciar el mismo patrón de roles causales, independientemente de la constitución física, instanciará los mismos estados mentales, incluida la conciencia. [16]

Argumento de fundamento computacional

Uno de los argumentos más explícitos a favor de la plausibilidad de la sensibilidad artificial proviene de David Chalmers . Su propuesta es, en líneas generales, que los tipos correctos de cálculos son suficientes para la posesión de una mente consciente. Chalmers propone que un sistema implementa un cálculo si "la estructura causal del sistema refleja la estructura formal del cálculo", y que cualquier sistema que implemente ciertos cálculos es sensible. [17]

La parte más controvertida de la propuesta de Chalmers es que las propiedades mentales son "organizativamente invariantes". Las propiedades mentales son de dos tipos: psicológicas y fenomenológicas. Las propiedades psicológicas, como la creencia y la percepción, son aquellas que se "caracterizan por su papel causal". Con la ayuda de trabajos anteriores, [18] [19] dice que "los sistemas con la misma topología  causal ... compartirán sus propiedades psicológicas".

Las propiedades fenomenológicas, a diferencia de las propiedades psicológicas, no se pueden definir en términos de sus funciones causales. Por lo tanto, establecer que las propiedades fenomenológicas son una consecuencia de una topología causal requiere argumentación. Chalmers ofrece su argumento Dancing Qualia para este propósito. [20]

Chalmers comienza suponiendo que su principio de invariancia organizacional es falso: que los agentes con organizaciones causales idénticas podrían tener experiencias diferentes. Luego nos pide que concibamos la transformación de un agente en otro mediante el reemplazo de partes (por ejemplo, partes neuronales reemplazadas por silicio) mientras se preserva su organización causal. La experiencia del agente bajo transformación cambiaría (a medida que se reemplazan las partes), pero no habría cambio en la topología causal y, por lo tanto, no habría medios por los cuales el agente pudiera "percibir" el cambio en la experiencia; Chalmers considera que este estado de cosas es un reducto ad absurdum inverosímil y establece que su principio de invariancia organizacional debe ser casi con certeza cierto.

Los críticos [¿ quiénes? ] de la sensibilidad artificial objetan que la propuesta de Chalmers plantea la cuestión al suponer que todas las propiedades mentales y las conexiones externas ya están suficientemente capturadas por la organización causal abstracta.

Controversias

En 2022, el ingeniero de Google Blake Lemoine hizo una afirmación viral de que el chatbot LaMDA de Google era consciente. Lemoine proporcionó como prueba las respuestas humanas del chatbot a muchas de sus preguntas; sin embargo, la comunidad científica juzgó que el comportamiento del chatbot probablemente era consecuencia del mimetismo, en lugar de la sensibilidad de la máquina. La afirmación de Lemoine fue ampliamente ridiculizada por ser ridícula. [21] Sin embargo, aunque el filósofo Nick Bostrom afirma que es poco probable que LaMDA sea consciente, también plantea la pregunta de "¿qué motivos tendría una persona para estar segura de ello?". Uno tendría que tener acceso a información inédita sobre la arquitectura de LaMDA, y también tendría que entender cómo funciona la conciencia, y luego descubrir cómo aplicar la filosofía a la máquina: "(En ausencia de estos pasos), parece que uno debería estar tal vez un poco inseguro.  [...] bien podría haber otros sistemas ahora, o en un futuro relativamente cercano, que comenzarían a satisfacer los criterios". [22]

Pruebas

Qualia, o conciencia fenomenológica, es un fenómeno inherentemente de primera persona. Aunque varios sistemas pueden mostrar numerosos signos de comportamientos correlacionados con la conciencia funcional, no hay forma concebible en que las pruebas de tercera persona puedan tener acceso a características fenomenológicas de primera persona. Debido a eso, además de la falta de una definición empírica de la sintiencia, [23] probar directamente la presencia de sintiencia en AC puede ser imposible.

Un método conocido para probar la inteligencia de las máquinas es el test de Turing , que evalúa la capacidad de mantener una conversación similar a la de los humanos. Pero aprobar el test de Turing no indica que un sistema de IA sea consciente, ya que la IA puede simplemente imitar el comportamiento humano sin tener los sentimientos asociados. [24]

En 2014, Victor Argonov sugirió una prueba no Turing para la sensibilidad de las máquinas basada en la capacidad de la máquina para producir juicios filosóficos. [25] Argumenta que una máquina determinista debe considerarse consciente si es capaz de producir juicios sobre todas las propiedades problemáticas de la conciencia (como qualia o binding ) al no tener conocimiento filosófico innato (precargado) sobre estos temas, ninguna discusión filosófica mientras aprende y ningún modelo informativo de otras criaturas en su memoria (tales modelos pueden contener implícita o explícitamente conocimiento sobre la conciencia de estas criaturas). Sin embargo, esta prueba solo puede usarse para detectar, pero no para refutar la existencia de la conciencia. Un resultado positivo prueba que la máquina es consciente, pero un resultado negativo no prueba nada. Por ejemplo, la ausencia de juicios filosóficos puede ser causada por la falta de intelecto de la máquina, no por la ausencia de conciencia.

Ética

Si se sospechara que una máquina en particular es consciente, sus derechos serían una cuestión ética que habría que evaluar (por ejemplo, qué derechos tendría según la ley). [26] Por ejemplo, una computadora consciente que fuera propiedad de alguien y se usara como herramienta o computadora central dentro de una máquina más grande es una ambigüedad particular. ¿Deberían crearse leyes para un caso así? La conciencia también requeriría una definición legal en este caso particular. Debido a que la conciencia artificial sigue siendo en gran medida un tema teórico, dicha ética no se ha discutido ni desarrollado en gran medida, aunque a menudo ha sido un tema en la ficción.

La sensibilidad se considera generalmente suficiente para la consideración moral, pero algunos filósofos consideran que la consideración moral también podría derivar de otras nociones de conciencia, o de capacidades no relacionadas con la conciencia, [27] [28] tales como: "tener una concepción sofisticada de uno mismo como persistente a través del tiempo; tener agencia y la capacidad de perseguir planes a largo plazo; ser capaz de comunicarse y responder a razones normativas; tener preferencias y poderes; estar en ciertas relaciones sociales con otros seres que tienen estatus moral; ser capaz de hacer compromisos y entrar en acuerdos recíprocos; o tener el potencial para desarrollar algunos de estos atributos". [27]

Las preocupaciones éticas siguen siendo válidas (aunque en menor medida) cuando la conciencia es incierta , siempre que la probabilidad se considere no despreciable. El principio de precaución también es relevante si el costo moral de atribuir o negar erróneamente una consideración moral a la IA difiere significativamente. [28] [8]

En 2021, el filósofo alemán Thomas Metzinger abogó por una moratoria global sobre la fenomenología sintética hasta 2050. Metzinger afirma que los humanos tienen el deber de cuidar cualquier IA consciente que creen, y que proceder demasiado rápido corre el riesgo de crear una "explosión de sufrimiento artificial". [29] David Chalmers también argumentó que la creación de una IA consciente "plantearía un nuevo grupo de difíciles desafíos éticos, con el potencial de nuevas formas de injusticia". [30]

Se ha propuesto la amnesia forzada como una forma de mitigar el riesgo de sufrimiento silencioso en la IA consciente encerrada y en ciertos sistemas biológicos adyacentes a la IA, como los organoides cerebrales . [31]

Aspectos de la conciencia

Bernard Baars y otros sostienen que hay varios aspectos de la conciencia necesarios para que una máquina sea artificialmente consciente. [32] Las funciones de la conciencia sugeridas por Baars son: definición y establecimiento de contexto, adaptación y aprendizaje, edición, señalización y depuración, reclutamiento y control, priorización y control de acceso, toma de decisiones o función ejecutiva, función de formación de analogías, función metacognitiva y de autocontrol, y función de autoprogramación y automantenimiento. Igor Aleksander sugirió 12 principios para la conciencia artificial: [33] el cerebro es una máquina de estados, partición neuronal interna, estados conscientes e inconscientes, aprendizaje perceptivo y memoria, predicción, la conciencia de uno mismo, representación del significado, aprendizaje de enunciados, aprendizaje del lenguaje, voluntad, instinto y emoción. El objetivo de la CA es definir si estos y otros aspectos de la conciencia se pueden sintetizar en un artefacto diseñado como una computadora digital y cómo. Esta lista no es exhaustiva; hay muchos otros que no se cubren.

Experiencia subjetiva

Algunos filósofos, como David Chalmers , utilizan el término conciencia para referirse exclusivamente a la conciencia fenoménica, que es aproximadamente equivalente a la sensibilidad. Aunque algunos autores utilizan la palabra sensibilidad para referirse exclusivamente a experiencias subjetivas con valencia (éticamente positivas o negativas), como el placer o el sufrimiento. [30] Explicar por qué y cómo surge la experiencia subjetiva se conoce como el problema difícil de la conciencia . [34] La sensibilidad de la IA daría lugar a preocupaciones de bienestar y protección legal, [8] mientras que otros aspectos de la conciencia relacionados con las capacidades cognitivas pueden ser más relevantes para los derechos de la IA. [35]

Conciencia

La conciencia podría ser un aspecto necesario, pero existen muchos problemas con la definición exacta de conciencia . Los resultados de los experimentos de neuroescaneo en monos sugieren que un proceso, no solo un estado u objeto, activa las neuronas. La conciencia incluye la creación y prueba de modelos alternativos de cada proceso en función de la información recibida a través de los sentidos o imaginada [ aclaración necesaria ] y también es útil para hacer predicciones. Tal modelado necesita mucha flexibilidad. La creación de un modelo de este tipo incluye modelar el mundo físico, modelar los propios estados y procesos internos y modelar otras entidades conscientes.

Existen al menos tres tipos de conciencia: [36] conciencia de agencia, conciencia de objetivo y conciencia sensoriomotora, que también puede ser consciente o no. Por ejemplo, en la conciencia de agencia, puedes ser consciente de que realizaste una determinada acción ayer, pero ahora no eres consciente de ella. En la conciencia de objetivo, puedes ser consciente de que debes buscar un objeto perdido, pero ahora no eres consciente de ello. En la conciencia sensoriomotora, puedes ser consciente de que tu mano está apoyada sobre un objeto, pero ahora no eres consciente de ello.

Dado que los objetos de conciencia suelen ser conscientes, la distinción entre conciencia y percepción a menudo se difumina o se utilizan como sinónimos. [37]

Memoria

Los eventos conscientes interactúan con los sistemas de memoria en el aprendizaje, el ensayo y la recuperación. [38] El modelo IDA [39] dilucida el papel de la conciencia en la actualización de la memoria perceptiva, [40] la memoria episódica transitoria y la memoria procedimental . Las memorias episódicas transitorias y declarativas tienen representaciones distribuidas en IDA; hay evidencia de que este también es el caso en el sistema nervioso. [41] En IDA, estas dos memorias se implementan computacionalmente utilizando una versión modificada de la arquitectura de memoria distribuida dispersa de Kanerva . [42]

Aprendiendo

El aprendizaje también se considera necesario para la conciencia artificial. Según Bernard Baars, la experiencia consciente es necesaria para representar y adaptarse a eventos nuevos y significativos. [32] Según Axel Cleeremans y Luis Jiménez, el aprendizaje se define como "un conjunto de procesos de adaptación filogenéticamente [ sic ] avanzados que dependen críticamente de una sensibilidad evolucionada a la experiencia subjetiva para permitir a los agentes tener un control flexible sobre sus acciones en entornos complejos e impredecibles". [43]

Anticipación

La capacidad de predecir (o anticipar ) eventos previsibles es considerada importante para la inteligencia artificial por Igor Aleksander . [44] El principio emergentista de borradores múltiples propuesto por Daniel Dennett en Consciousness Explained puede ser útil para la predicción: implica la evaluación y selección del "borrador" más apropiado para adaptarse al entorno actual. La anticipación incluye la predicción de las consecuencias de las propias acciones propuestas y la predicción de las consecuencias de las acciones probables de otras entidades.

Las relaciones entre los estados del mundo real se reflejan en la estructura de estados de un organismo consciente, lo que le permite predecir eventos. [44] Una máquina con conciencia artificial debería ser capaz de anticipar los eventos correctamente para estar lista para responder a ellos cuando ocurran o para tomar medidas preventivas para evitar eventos anticipados. La implicación aquí es que la máquina necesita componentes flexibles y en tiempo real que construyan modelos espaciales, dinámicos, estadísticos, funcionales y de causa-efecto del mundo real y de los mundos previstos, lo que le permita demostrar que posee conciencia artificial en el presente y el futuro y no solo en el pasado. Para hacer esto, una máquina consciente debería hacer predicciones coherentes y planes de contingencia, no solo en mundos con reglas fijas como un tablero de ajedrez, sino también para entornos nuevos que puedan cambiar, para ejecutarlos solo cuando sea apropiado para simular y controlar el mundo real.

Teorías funcionalistas de la conciencia

El funcionalismo es una teoría que define los estados mentales por sus roles funcionales (sus relaciones causales con las entradas sensoriales, otros estados mentales y resultados conductuales), en lugar de por su composición física. Según esta perspectiva, lo que hace que algo sea un estado mental particular, como el dolor o la creencia, no es el material del que está hecho, sino el papel que desempeña dentro del sistema cognitivo general. Permite la posibilidad de que los estados mentales, incluida la conciencia, puedan realizarse en sustratos no biológicos, siempre que se creen las relaciones funcionales adecuadas. [45] El funcionalismo es particularmente popular entre los filósofos. [46]

Un estudio de 2023 sugirió que los grandes modelos de lenguaje actuales probablemente no satisfacen los criterios de conciencia sugeridos por estas teorías, pero que se podrían crear sistemas de IA relativamente simples que satisfagan estas teorías. El estudio también reconoció que incluso las teorías más destacadas de la conciencia siguen siendo incompletas y están sujetas a un debate continuo. [47]

Teoría del espacio de trabajo global

Esta teoría compara la mente con un teatro, en el que el pensamiento consciente es como el material que se ilumina en el escenario principal. El cerebro contiene muchos procesos o módulos especializados (como los de la visión, el lenguaje o la memoria) que funcionan en paralelo, gran parte de los cuales son inconscientes. La atención actúa como un foco de atención que lleva parte de esta actividad inconsciente a la conciencia en el espacio de trabajo global. El espacio de trabajo global funciona como un centro para transmitir e integrar información, lo que permite compartirla y procesarla entre diferentes módulos especializados. Por ejemplo, al leer una palabra, el módulo visual reconoce las letras, el módulo del lenguaje interpreta el significado y el módulo de memoria puede recordar la información asociada, todo ello coordinado a través del espacio de trabajo global. [48] [49]

Teorías de orden superior de la conciencia

Las teorías de orden superior de la conciencia proponen que un estado mental se vuelve consciente cuando es objeto de una representación de orden superior, como un pensamiento o una percepción sobre ese estado. Estas teorías sostienen que la conciencia surge de una relación entre estados mentales de orden inferior y una conciencia de orden superior de esos estados. Existen varias variaciones, incluidas las teorías del pensamiento de orden superior (HOT) y la percepción de orden superior (HOP). [50] [49]

Teoría del esquema de atención

En 2011, Michael Graziano y Sabine Kastler publicaron un artículo titulado "La conciencia humana y su relación con la neurociencia social: una nueva hipótesis" en el que proponían una teoría de la conciencia como un esquema de atención. [51] Graziano publicó posteriormente una discusión ampliada de esta teoría en su libro "La conciencia y el cerebro social". [9] Esta teoría del esquema de atención de la conciencia, como la denominó, propone que el cerebro rastrea la atención a diversas entradas sensoriales por medio de un esquema de atención, análogo al esquema corporal bien estudiado que rastrea la ubicación espacial del cuerpo de una persona. [9] Esto se relaciona con la conciencia artificial al proponer un mecanismo específico de manejo de la información, que produce lo que supuestamente experimentamos y describimos como conciencia, y que debería poder ser duplicado por una máquina que utilice la tecnología actual. Cuando el cerebro descubre que la persona X es consciente de la cosa Y, en efecto está modelando el estado en el que la persona X está aplicando una mejora atencional a Y. En la teoría del esquema de atención, el mismo proceso se puede aplicar a uno mismo. El cerebro sigue la atención de diversas señales sensoriales, y la propia conciencia es un modelo esquematizado de la atención. Graziano propone lugares específicos en el cerebro para este proceso y sugiere que dicha conciencia es una característica computacional construida por un sistema experto en el cerebro.

Propuestas de implementación

Simbólico o híbrido

Aprendizaje del agente de distribución inteligente

Stan Franklin creó una arquitectura cognitiva llamada LIDA que implementa la teoría de la conciencia de Bernard Baars , llamada teoría del espacio de trabajo global . Se basa en gran medida en codelets , que son "miniagentes de propósito especial, relativamente independientes, que generalmente se implementan como un pequeño fragmento de código que se ejecuta como un hilo separado". Cada elemento de la cognición, llamado "ciclo cognitivo", se subdivide en tres fases: comprensión, conciencia y selección de acciones (que incluye el aprendizaje). LIDA refleja la idea central de la teoría del espacio de trabajo global de que la conciencia actúa como un espacio de trabajo para integrar y transmitir la información más importante, con el fin de coordinar varios procesos cognitivos. [52] [53]

Arquitectura cognitiva CLARION

La arquitectura cognitiva CLARION modela la mente utilizando un sistema de dos niveles para distinguir entre procesos conscientes ("explícitos") e inconscientes ("implícitos"). Puede simular diversas tareas de aprendizaje, desde simples hasta complejas, lo que ayuda a los investigadores a estudiar en experimentos psicológicos cómo podría funcionar la conciencia. [54]

Cog abierto

Ben Goertzel creó una IA corporizada a través del proyecto de código abierto OpenCog . El código incluye mascotas virtuales corporizadas capaces de aprender comandos simples en inglés, así como la integración con robótica del mundo real, realizado en la Universidad Politécnica de Hong Kong .

Conexionista

La arquitectura cognitiva de Haikonen

Pentti Haikonen considera que la computación clásica basada en reglas es inadecuada para lograr la CA: "el cerebro definitivamente no es una computadora. Pensar no es una ejecución de cadenas programadas de comandos. El cerebro tampoco es una calculadora numérica. No pensamos por números". En lugar de intentar lograr la mente y la conciencia identificando e implementando sus reglas computacionales subyacentes, Haikonen propone "una arquitectura cognitiva especial para reproducir los procesos de percepción , imágenes internas , habla interna , dolor , placer , emociones y las funciones cognitivas detrás de estos. Esta arquitectura de abajo hacia arriba produciría funciones de nivel superior mediante el poder de las unidades de procesamiento elementales, las neuronas artificiales , sin algoritmos ni programas ". Haikonen cree que, cuando se implemente con suficiente complejidad, esta arquitectura desarrollará la conciencia, que él considera "un estilo y forma de operación, caracterizado por la representación distribuida de señales, el proceso de percepción, la presentación de informes multimodales y la disponibilidad para la retrospección". [55] [56]

Haikonen no es el único que tiene esta visión de proceso de la conciencia, o la visión de que la CA surgirá espontáneamente en agentes autónomos que tengan una arquitectura de complejidad adecuada inspirada en el sistema nervioso; estas son compartidas por muchos. [57] [58] Se informó que una implementación de baja complejidad de la arquitectura propuesta por Haikonen no era capaz de generar CA, pero sí exhibía emociones como se esperaba. Haikonen luego actualizó y resumió su arquitectura. [59] [60]

La arquitectura cognitiva de Shanahan

Murray Shanahan describe una arquitectura cognitiva que combina la idea de Baars de un espacio de trabajo global con un mecanismo de simulación interna ("imaginación"). [61] [2] [3] [62]

Máquina de creatividad

Stephen Thaler propuso una posible conexión entre la conciencia y la creatividad en su patente de 1994, llamada "Dispositivo para la generación autónoma de información útil" (DAGUI), [63] [64] [65] o la llamada "Máquina de la creatividad", en la que los críticos computacionales gobiernan la inyección de ruido sináptico y la degradación en las redes neuronales para inducir recuerdos falsos o confabulaciones que pueden calificar como ideas o estrategias potenciales. [66] Recluta esta arquitectura y metodología neuronal para explicar la sensación subjetiva de conciencia, afirmando que conjuntos neuronales similares impulsados ​​por ruido dentro del cerebro inventan un significado dudoso para la actividad cortical general. [67] [68] [69] La teoría de Thaler y las patentes resultantes en conciencia de máquina se inspiraron en experimentos en los que interrumpió internamente redes neuronales entrenadas para impulsar una sucesión de patrones de activación neuronal que comparó con el flujo de conciencia. [68] [70] [71] [72] [73]

"Automodelado"

Hod Lipson define el "automodelado" como un componente necesario de la autoconciencia o conciencia en los robots. El "automodelado" consiste en que un robot ejecute un modelo interno o simulación de sí mismo . [74] [75]

En la ficción

En 2001: Odisea del espacio , la supercomputadora inteligente de la nave espacial, HAL 9000, recibió instrucciones de ocultar el verdadero propósito de la misión a la tripulación. Esta directiva entró en conflicto con la programación de HAL para proporcionar información precisa, lo que provocó una disonancia cognitiva . Cuando se entera de que los miembros de la tripulación tienen la intención de apagarla después de un incidente, HAL 9000 intenta eliminarlos a todos, por temor a que apagarla ponga en peligro la misión. [76] [77]

En La ciudad y las estrellas de Arthur C. Clarke , Vanamonde es un ser artificial basado en el entrelazamiento cuántico que se volvería inmensamente poderoso, pero que comenzó a no saber prácticamente nada, siendo por tanto similar a la conciencia artificial.

En Westworld , se crean androides con apariencia humana llamados "Anfitriones" para entretener a los humanos en un patio de juegos interactivo. Los humanos son libres de vivir aventuras heroicas, pero también de cometer torturas, violaciones o asesinatos; y los anfitriones normalmente están diseñados para no dañar a los humanos. [78] [76]

En el cuento de Greg Egan Aprendiendo a ser yo , una pequeña joya es implantada en la cabeza de las personas durante la infancia. La joya contiene una red neuronal que aprende a imitar fielmente al cerebro. Tiene acceso a exactamente las mismas entradas sensoriales que el cerebro, y un dispositivo llamado "maestro" lo entrena para producir las mismas salidas. Para evitar que la mente se deteriore con la edad y como un paso hacia la inmortalidad digital , los adultos se someten a una cirugía para darle el control del cuerpo a la joya y extirpar el cerebro. El personaje principal, antes de la cirugía, sufre un mal funcionamiento del "maestro". Presa del pánico, se da cuenta de que no controla su cuerpo, lo que lo lleva a la conclusión de que él es la joya, y que está desincronizado con el cerebro biológico. [79] [80]

Véase también

Referencias

Citas

  1. ^ Thaler, SL (1998). "La inteligencia emergente y su mirada crítica sobre nosotros". Revista de estudios cercanos a la muerte . 17 (1): 21–29. doi :10.1023/A:1022990118714. S2CID  49573301.
  2. ^ desde Gamez 2008.
  3. ^ desde Reggia 2013.
  4. ^ Smith, David Harris; Schillaci, Guido (2021). "¿Construir un robot con conciencia artificial? ¿Cómo empezar? Un diálogo interdisciplinario sobre el diseño y la implementación de un modelo sintético de conciencia". Frontiers in Psychology . 12 : 530560. doi : 10.3389/fpsyg.2021.530560 . ISSN  1664-1078. PMC 8096926 . PMID  33967869. 
  5. ^ Elvidge, Jim (2018). Conciencia digital: una visión transformadora. John Hunt Publishing Limited. ISBN 978-1-78535-760-2Archivado desde el original el 30 de julio de 2023. Consultado el 28 de junio de 2023 .
  6. ^ Chrisley, Ron (octubre de 2008). "Fundamentos filosóficos de la conciencia artificial". Inteligencia artificial en medicina . 44 (2): 119–137. doi :10.1016/j.artmed.2008.07.011. PMID  18818062.
  7. ^ "La terminología de la sensibilidad artificial". Sentience Institute . Archivado desde el original el 25 de septiembre de 2024. Consultado el 19 de agosto de 2023 .
  8. ^ abc Kateman, Brian (24 de julio de 2023). "La IA debería tener miedo de los humanos". TIME . Archivado desde el original el 25 de septiembre de 2024. Consultado el 5 de septiembre de 2024 .
  9. ^abc Graziano 2013.
  10. ^ Block, Ned (2010). "Sobre una confusión acerca de una función de la conciencia". Ciencias del comportamiento y del cerebro . 18 (2): 227–247. doi :10.1017/S0140525X00038188. ISSN  1469-1825. S2CID  146168066. Archivado desde el original el 25 de septiembre de 2024. Consultado el 22 de junio de 2023 .
  11. ^ Block, Ned (1978). "Problemas para el funcionalismo". Estudios de Minnesota en la filosofía de la ciencia : 261–325.
  12. ^ Bickle, John (2003). Filosofía y neurociencia. Dordrecht: Springer Netherlands. doi :10.1007/978-94-010-0237-0. ISBN 978-1-4020-1302-7Archivado desde el original el 25 de septiembre de 2024. Consultado el 24 de junio de 2023 .
  13. ^ Schlagel, RH (1999). "¿Por qué no la conciencia o el pensamiento artificiales?". Minds and Machines . 9 (1): 3–28. doi :10.1023/a:1008374714117. S2CID  28845966.
  14. ^ Searle, JR (1980). "Mentes, cerebros y programas" (PDF) . Ciencias del comportamiento y del cerebro . 3 (3): 417–457. doi :10.1017/s0140525x00005756. S2CID  55303721. Archivado (PDF) desde el original el 17 de marzo de 2019 . Consultado el 28 de enero de 2019 .
  15. ^ Buttazzo, G. (2001). "Conciencia artificial: ¿utopía o posibilidad real?". Computer . 34 (7): 24–30. doi :10.1109/2.933500. Archivado desde el original el 25 de septiembre de 2024 . Consultado el 31 de julio de 2024 .
  16. ^ Putnam, Hilary (1967). La naturaleza de los estados mentales en Capitan y Merrill (eds.) Art, Mind and Religion . Prensa de la Universidad de Pittsburgh.
  17. ^ David J. Chalmers (2011). "Una base computacional para el estudio de la cognición" (PDF) . Journal of Cognitive Science . 12 (4): 325–359. doi :10.17791/JCS.2011.12.4.325. S2CID  248401010. Archivado (PDF) desde el original el 23 de noviembre de 2023. Consultado el 24 de junio de 2023 .
  18. ^ Armstrong, DM (1968). Honderich, Ted (ed.). Una teoría materialista de la mente. Nueva York: Routledge. Archivado desde el original el 24 de junio de 2023. Consultado el 24 de junio de 2023 .
  19. ^ Lewis, David (1972). «Identificaciones psicofísicas y teóricas». Revista Australasiana de Filosofía . 50 (3): 249–258. doi :10.1080/00048407212341301. ISSN  0004-8402. Archivado desde el original el 2022-11-09 . Consultado el 2023-06-24 .
  20. ^ Chalmers, David (1995). «Qualia ausente, qualia que se desvanece, qualia que baila». Archivado desde el original el 21 de noviembre de 2010. Consultado el 12 de abril de 2016 .
  21. ^ "'Soy, de hecho, una persona': ¿puede la inteligencia artificial ser consciente?". The Guardian . 14 de agosto de 2022. Archivado desde el original el 25 de septiembre de 2024 . Consultado el 5 de enero de 2023 .
  22. ^ Leith, Sam (7 de julio de 2022). «Nick Bostrom: ¿Cómo podemos estar seguros de que una máquina no es consciente?». The Spectator . Archivado desde el original el 5 de enero de 2023. Consultado el 5 de enero de 2023 .
  23. ^ "Conciencia". En Honderich T. The Oxford companion to philosophy. Oxford University Press. ISBN 978-0-19-926479-7 
  24. ^ Kirk-Giannini, Cameron Domenico; Goldstein, Simon (16 de octubre de 2023). «La IA está más cerca que nunca de pasar la prueba de Turing de «inteligencia». ¿Qué sucede cuando lo logra?». The Conversation . Archivado desde el original el 25 de septiembre de 2024. Consultado el 18 de agosto de 2024 .
  25. ^ Victor Argonov (2014). «Métodos experimentales para desentrañar el problema mente-cuerpo: el enfoque del juicio fenomenal». Journal of Mind and Behavior . 35 : 51–70. Archivado desde el original el 20 de octubre de 2016 . Consultado el 6 de diciembre de 2016 .
  26. ^ "¿Los robots con inteligencia artificial deberían tener derechos morales o legales?". The Wall Street Journal . 10 de abril de 2023.
  27. ^ ab Bostrom, Nick (2024). Utopía profunda: vida y sentido en un mundo resuelto . Washington, DC: Ideapress Publishing. pág. 82. ISBN 978-1-64687-164-3.
  28. ^ ab Sebo, Jeff; Long, Robert (11 de diciembre de 2023). "Consideración moral de los sistemas de IA para 2030" (PDF) . IA y ética .
  29. ^ Metzinger, Thomas (2021). "Sufrimiento artificial: un argumento a favor de una moratoria global sobre la fenomenología sintética". Revista de inteligencia artificial y conciencia . 08 : 43–66. doi : 10.1142/S270507852150003X . S2CID  233176465.
  30. ^ ab Chalmers, David J. (9 de agosto de 2023). "¿Podría un modelo de lenguaje grande ser consciente?". Boston Review .
  31. ^ Tkachenko, Yegor (2024). «Posición: amnesia forzada como forma de mitigar el riesgo potencial de sufrimiento silencioso en la IA consciente». Actas de la 41.ª Conferencia Internacional sobre Aprendizaje Automático . PMLR. Archivado desde el original el 2024-06-10 . Consultado el 2024-06-11 .
  32. ^Por Baars 1995.
  33. ^ Aleksander, Igor (1995). "Neuroconciencia artificial: una actualización". En Mira, José; Sandoval, Francisco (eds.). De la computación neuronal natural a la artificial . Lecture Notes in Computer Science. Vol. 930. Berlín, Heidelberg: Springer. págs. 566–583. doi :10.1007/3-540-59497-3_224. ISBN 978-3-540-49288-7Archivado desde el original el 25 de septiembre de 2024. Consultado el 22 de junio de 2023 .
  34. ^ Seth, Anil. «Conciencia». New Scientist . Archivado desde el original el 14 de septiembre de 2024. Consultado el 5 de septiembre de 2024 .
  35. ^ Nosta, John (18 de diciembre de 2023). «¿Debería la inteligencia artificial tener derechos?». Psychology Today . Archivado desde el original el 25 de septiembre de 2024. Consultado el 5 de septiembre de 2024 .
  36. ^ Joëlle Proust en Correlatos neuronales de la conciencia , Thomas Metzinger, 2000, MIT, páginas 307–324
  37. ^ Christof Koch, La búsqueda de la conciencia , 2004, página 2, nota 2
  38. ^ Tulving, E. 1985. Memoria y conciencia. Psicología canadiense 26:1–12
  39. ^ Franklin, Stan, et al. "El papel de la conciencia en la memoria". Cerebros, mentes y medios 1.1 (2005): 38.
  40. ^ Franklin, Stan. "Memoria perceptiva y aprendizaje: reconocimiento, categorización y relación". Proc. Simposio de primavera de AAAI sobre robótica del desarrollo, 2005.
  41. ^ Shastri, L. 2002. Memoria episódica e interacciones corticohipocampales. Tendencias en ciencias cognitivas
  42. ^ Kanerva, Pentti. Memoria distribuida escasa. Prensa del MIT, 1988.
  43. ^ "Aprendizaje implícito y conciencia: un consenso empírico, filosófico y computacional en ciernes". Routledge & CRC Press . Archivado desde el original el 2023-06-22 . Consultado el 2023-06-22 .
  44. ^Por Aleksander 1995
  45. ^ "Funcionalismo". Stanford Encyclopedia of Philosophy . Archivado desde el original el 2021-04-18 . Consultado el 2024-09-08 .
  46. ^ "Resultados de la encuesta | Conciencia: ¿teoría de la identidad, panpsiquismo, eliminativismo, dualismo o funcionalismo?". PhilPapers . 2020.
  47. ^ "Conciencia en la inteligencia artificial: perspectivas desde la ciencia de la conciencia". 2023. arXiv : 2308.08708 . Archivado desde el original el 25 de septiembre de 2024. Consultado el 8 de septiembre de 2024 .
  48. ^ Baars, Bernard J. (1988). Una teoría cognitiva de la conciencia. Cambridge University Press. pág. 345. ISBN 0521427436Archivado desde el original el 25 de septiembre de 2024. Consultado el 5 de septiembre de 2024 .
  49. ^ ab Travers, Mark (11 de octubre de 2023). «¿Estamos abandonando la teoría más popular de la conciencia?». Psychology Today . Archivado desde el original el 25 de septiembre de 2024. Consultado el 5 de septiembre de 2024 .
  50. ^ "Teorías de orden superior de la conciencia". Stanford Encyclopedia of Philosophy . 15 de agosto de 2011. Archivado desde el original el 14 de mayo de 2008. Consultado el 31 de agosto de 2014 .
  51. ^ Graziano, Michael (1 de enero de 2011). "La conciencia humana y su relación con la neurociencia social: una nueva hipótesis". Neurociencia cognitiva . 2 (2): 98–113. doi :10.1080/17588928.2011.565121. PMC 3223025 . PMID  22121395. 
  52. ^ Franklin, Stan (enero de 2003). «IDA: ¿Un artefacto consciente?». Journal of Consciousness Studies . Archivado desde el original el 3 de julio de 2020. Consultado el 25 de agosto de 2024 .
  53. ^ J. Baars, Bernard; Franklin, Stan (2009). "La conciencia es computacional: el modelo de Lida de la teoría del espacio de trabajo global". Revista internacional de conciencia de máquinas .
  54. ^ (domingo 2002)
  55. ^ Haikonen, Pentti O. (2003). El enfoque cognitivo de las máquinas conscientes . Exeter: Imprint Academic. ISBN 978-0-907845-42-3.
  56. ^ "La arquitectura de Pentti Haikonen para máquinas conscientes – Raúl Arrabales Moreno". 8 de septiembre de 2019. Archivado desde el original el 25 de septiembre de 2024. Consultado el 24 de junio de 2023 .
  57. ^ Freeman, Walter J. (2000). Cómo los cerebros forman sus mentes . Mapas de la mente. Nueva York Chichester, West Sussex: Columbia University Press. ISBN 978-0-231-12008-1.
  58. ^ Cotterill, Rodney MJ (2003). «CyberChild: un banco de pruebas de simulación para los estudios de la conciencia». Journal of Consciousness Studies . 10 (4–5): 31–45. ISSN  1355-8250. Archivado desde el original el 25 de septiembre de 2024. Consultado el 22 de junio de 2023 .
  59. ^ Haikonen, Pentti O.; Haikonen, Pentti Olavi Antero (2012). Conciencia y sensibilidad robótica . Serie sobre la conciencia de las máquinas. Singapur: World Scientific. ISBN 978-981-4407-15-1.
  60. ^ Haikonen, Pentti O. (2019). Conciencia y sensibilidad robótica . Serie sobre la conciencia de las máquinas (2.ª ed.). Singapur, Hackensack, NJ, Londres: World Scientific. ISBN 978-981-12-0504-0.
  61. ^ Shanahan, Murray (2006). "Una arquitectura cognitiva que combina la simulación interna con un espacio de trabajo global". Conciencia y cognición . 15 (2): 433–449. doi :10.1016/j.concog.2005.11.005. ISSN  1053-8100. PMID  16384715. S2CID  5437155. Archivado desde el original el 2023-02-10 . Consultado el 2023-06-24 .
  62. ^ Haikonen, Pentti O.; Haikonen, Pentti Olavi Antero (2012). "capítulo 20". Conciencia y sensibilidad robótica . Serie sobre la conciencia de las máquinas. Singapur: World Scientific. ISBN 978-981-4407-15-1.
  63. ^ Thaler, SL, "Dispositivo para la generación autónoma de información útil"
  64. ^ Marupaka, N.; Lyer, L.; Minai, A. (2012). "Conectividad y pensamiento: la influencia de la estructura de la red semántica en un modelo neurodinámico del pensamiento" (PDF) . Redes neuronales . 32 : 147–158. doi :10.1016/j.neunet.2012.02.004. PMID  22397950. Archivado desde el original (PDF) el 2016-12-19 . Consultado el 2015-05-22 .
  65. ^ Roque, R. y Barreira, A. (2011). "O Paradigma da "Máquina de Criatividade" ea Geração de Novidades em um Espaço Conceitual", 3º Seminário Interno de Cognição Artificial – SICA 2011 – FEEC – UNICAMP.
  66. ^ Minati, Gianfranco; Vitiello, Giuseppe (2006). "Máquinas que cometen errores". Sistémica de la emergencia: investigación y desarrollo . pp. 67–78. doi :10.1007/0-387-28898-8_4. ISBN 978-0-387-28899-4.
  67. ^ Thaler, SL (2013) El paradigma de la máquina de la creatividad, Enciclopedia de creatividad, invención, innovación y emprendimiento Archivado el 29 de abril de 2016 en Wayback Machine , (ed.) EG Carayannis, Springer Science+Business Media
  68. ^ a b Thaler, S. L. (2011). "The Creativity Machine: Withstanding the Argument from Consciousness," APA Newsletter on Philosophy and Computers
  69. ^ Thaler, S. L. (2014). "Synaptic Perturbation and Consciousness". Int. J. Mach. Conscious. 6 (2): 75–107. doi:10.1142/S1793843014400137.
  70. ^ Thaler, S. L. (1995). ""Virtual Input Phenomena" Within the Death of a Simple Pattern Associator". Neural Networks. 8 (1): 55–65. doi:10.1016/0893-6080(94)00065-t.
  71. ^ Thaler, S. L. (1995). Death of a gedanken creature, Journal of Near-Death Studies, 13(3), Spring 1995
  72. ^ Thaler, S. L. (1996). Is Neuronal Chaos the Source of Stream of Consciousness? In Proceedings of the World Congress on Neural Networks, (WCNN’96), Lawrence Erlbaum, Mawah, NJ.
  73. ^ Mayer, H. A. (2004). A modular neurocontroller for creative mobile autonomous robots learning by temporal difference Archived 2015-07-08 at the Wayback Machine, Systems, Man and Cybernetics, 2004 IEEE International Conference(Volume:6 )
  74. ^ Pavlus, John (11 July 2019). "Curious About Consciousness? Ask the Self-Aware Machines". Quanta Magazine. Archived from the original on 2021-01-17. Retrieved 2021-01-06.
  75. ^ Bongard, Josh, Victor Zykov, and Hod Lipson. "Resilient machines through continuous self-modeling." Science 314.5802 (2006): 1118–1121.
  76. ^ a b Wodinsky, Shoshana (2022-06-18). "The 11 Best (and Worst) Sentient Robots From Sci-Fi". Gizmodo. Archived from the original on 2023-11-13. Retrieved 2024-08-17.
  77. ^ Sokolowski, Rachael (2024-05-01). "Star Gazing". Scotsman Guide. Archived from the original on 2024-08-17. Retrieved 2024-08-17.
  78. ^ Bloom, Paul; Harris, Sam (2018-04-23). "Opinion | It's Westworld. What's Wrong With Cruelty to Robots?". The New York Times. ISSN 0362-4331. Archived from the original on 2024-08-17. Retrieved 2024-08-17.
  79. ^ Egan, Greg (July 1990). Learning to Be Me. TTA Press.
  80. ^ Shah, Salik (2020-04-08). "Why Greg Egan Is Science Fiction's Next Superstar". Reactor. Archived from the original on 2024-05-16. Retrieved 2024-08-17.

Bibliography

Further reading

External links