stringtranslate.com

Conciencia artificial

La conciencia artificial [1] ( AC ), también conocida como conciencia de máquina ( MC ), [2] [3] conciencia sintética [4] o conciencia digital , [5] es la conciencia que se supone que es posible en la inteligencia artificial . [6] También es el campo de estudio correspondiente, que extrae conocimientos de la filosofía de la mente , la filosofía de la inteligencia artificial , la ciencia cognitiva y la neurociencia . La misma terminología puede usarse con el término " sentiencia " en lugar de " conciencia " cuando se designa específicamente la conciencia fenoménica (la capacidad de sentir qualia ). [7]

Algunos estudiosos creen que la conciencia se genera por la interoperación de varias partes del cerebro ; estos mecanismos se denominan correlatos neuronales de la conciencia o NCC. Algunos creen además que construir un sistema (por ejemplo, un sistema informático ) que pueda emular esta interoperación NCC daría como resultado un sistema consciente. [8]

Puntos de vista filosóficos

Como existen muchos tipos hipotéticos de conciencia , existen muchas implementaciones potenciales de conciencia artificial. En la literatura filosófica, quizás la taxonomía más común de la conciencia sea la de variantes de "acceso" y "fenoménicas". La conciencia de acceso se refiere a aquellos aspectos de la experiencia que se pueden aprehender, mientras que la conciencia fenoménica se refiere a aquellos aspectos de la experiencia que aparentemente no se pueden aprehender, sino que se caracterizan cualitativamente en términos de "sensaciones crudas", "cómo es" o qualia. [9]

Debate de plausibilidad

Los teóricos de la identidad de tipos y otros escépticos sostienen que la conciencia sólo puede realizarse en sistemas físicos particulares porque la conciencia tiene propiedades que dependen necesariamente de la constitución física. [10] [11] [12] [13]

En su artículo "Conciencia artificial: utopía o posibilidad real", Giorgio Buttazzo dice que una objeción común a la conciencia artificial es que "al trabajar en modo totalmente automatizado, [las computadoras] no pueden exhibir creatividad, ni reprogramación (lo que significa que ya no pueden ser reprogramado, desde el replanteamiento), las emociones o el libre albedrío . Una computadora, como una lavadora, es una esclava operada por sus componentes." [14]

Para otros teóricos (por ejemplo, los funcionalistas ), que definen los estados mentales en términos de roles causales, cualquier sistema que pueda instanciar el mismo patrón de roles causales, independientemente de la constitución física, instanciará los mismos estados mentales, incluida la conciencia. [15]

Argumento de la base computacional

Uno de los argumentos más explícitos a favor de la plausibilidad de la sensibilidad artificial proviene de David Chalmers . Su propuesta es, a grandes rasgos, que los tipos correctos de cálculos son suficientes para la posesión de una mente consciente. Chalmers propone que un sistema implementa un cálculo si "la estructura causal del sistema refleja la estructura formal del cálculo", y que cualquier sistema que implemente ciertos cálculos es sensible. [dieciséis]

La parte más controvertida de la propuesta de Chalmers es que las propiedades mentales son "organizacionalmente invariantes". Las propiedades mentales son de dos tipos, psicológicas y fenomenológicas. Las propiedades psicológicas, como la creencia y la percepción, son aquellas que se "caracterizan por su papel causal". Con la ayuda de trabajos anteriores, [17] [18] dice que "[s]istemas con la misma topología causal... compartirán sus propiedades psicológicas".

Las propiedades fenomenológicas, a diferencia de las propiedades psicológicas, no se pueden definir en términos de sus roles causales. Por lo tanto, establecer que las propiedades fenomenológicas son consecuencia de una topología causal requiere argumentos. Chalmers proporciona su argumento Dancing Qualia para este propósito. [19]

Chalmers comienza asumiendo que su principio de invariancia organizacional es falso: que agentes con organizaciones causales idénticas podrían tener experiencias diferentes. Luego nos pide que concibamos la transformación de un agente en otro mediante la sustitución de partes (partes neuronales reemplazadas por silicio, por ejemplo) preservando al mismo tiempo su organización causal. La experiencia del agente bajo transformación cambiaría (a medida que las partes fueran reemplazadas), pero no habría ningún cambio en la topología causal y, por lo tanto, no habría medios por los cuales el agente pudiera "notar" el cambio en la experiencia; Chalmers considera que este estado de cosas es un reducto ad absurdum inverosímil y establece que su principio de invariancia organizacional debe ser casi con certeza cierto.

Críticos [ ¿quién? ] de la sensibilidad artificial objetan que Chalmers da por sentado que todas las propiedades mentales y conexiones externas están suficientemente capturadas por una organización causal abstracta.

Controversias

En 2022, el ingeniero de Google, Blake Lemoine, hizo una afirmación viral de que el chatbot LaMDA de Google era sensible. Lemoine proporcionó como prueba las respuestas humanas del chatbot a muchas de sus preguntas; sin embargo, la comunidad científica consideró que el comportamiento del chatbot probablemente era una consecuencia del mimetismo, más que de la sensibilidad de la máquina. La afirmación de Lemoine fue ampliamente ridiculizada por ser ridícula. [20] Sin embargo, mientras el filósofo Nick Bostrom afirma que es poco probable que LaMDA esté consciente, además plantea la pregunta de "¿qué motivos tendría una persona para estar seguro de ello?" Uno tendría que tener acceso a información inédita sobre la arquitectura de LaMDA, y también tendría que entender cómo funciona la conciencia, y luego descubrir cómo mapear la filosofía en la máquina: "(En ausencia de estos pasos), parece que uno Debería ser tal vez un poco incierto... bien podría haber otros sistemas ahora, o en un futuro relativamente cercano, que comenzarían a satisfacer los criterios". [21]

Pruebas

El método más conocido para probar la inteligencia de las máquinas es la prueba de Turing . Pero cuando se interpreta como únicamente observacional, esta prueba contradice los principios de la filosofía de la ciencia de la dependencia teórica de las observaciones . También se ha sugerido que debería tomarse en serio la recomendación de Alan Turing de imitar no la conciencia de un adulto humano, sino la de un niño humano. [22]

La qualia, o conciencia fenomenológica, es un fenómeno inherente en primera persona. Aunque varios sistemas pueden mostrar numerosos signos de comportamiento correlacionados con la conciencia funcional, no existe una manera concebible de que las pruebas en tercera persona puedan tener acceso a características fenomenológicas en primera persona. Por eso, además de la falta de una definición empírica de sintiencia, [23] una prueba de sintiencia presente en AC puede ser imposible.

En 2014, Victor Argonov sugirió una prueba no de Turing para la sensibilidad de las máquinas basada en la capacidad de las máquinas para producir juicios filosóficos. [24] Sostiene que una máquina determinista debe considerarse consciente si es capaz de producir juicios sobre todas las propiedades problemáticas de la conciencia (como los qualia o la vinculación ) sin tener conocimiento filosófico innato (precargado) sobre estos temas, sin discusiones filosóficas mientras aprendizaje, y no hay modelos informativos de otras criaturas en su memoria (dichos modelos pueden contener implícita o explícitamente conocimiento sobre la conciencia de estas criaturas). Sin embargo, esta prueba sólo puede utilizarse para detectar, pero no para refutar, la existencia de la conciencia. Un resultado positivo prueba que la máquina es consciente pero un resultado negativo no prueba nada. Por ejemplo, la ausencia de juicios filosóficos puede deberse a la falta del intelecto de la máquina, no a la ausencia de conciencia.

Ética

Si se sospechara que una máquina en particular era consciente, sus derechos serían una cuestión ética que habría que evaluar (por ejemplo, qué derechos tendría según la ley). Por ejemplo, una computadora consciente que fue poseída y utilizada como herramienta o computadora central dentro de una máquina más grande es una ambigüedad particular. ¿ Deberían elaborarse leyes para tal caso? La conciencia también requeriría en este caso una definición jurídica. Debido a que la conciencia artificial sigue siendo en gran medida un tema teórico, dicha ética no se ha discutido ni desarrollado en gran medida, aunque a menudo ha sido un tema de ficción (ver más abajo).

En 2021, el filósofo alemán Thomas Metzinger abogó por una moratoria global sobre la fenomenología sintética hasta 2050. Metzinger afirma que los humanos tienen el deber de cuidar de cualquier IA sensible que creen, y que proceder demasiado rápido corre el riesgo de crear una "explosión de sufrimiento artificial". [25]

Aspectos de la conciencia considerados necesarios

Bernard Baars y otros sostienen que hay varios aspectos de la conciencia necesarios para que una máquina sea artificialmente consciente. [26] Las funciones de la conciencia sugeridas por Baars son: Definición y establecimiento de contexto, adaptación y aprendizaje, edición, señalización y depuración, reclutamiento y control, priorización y control de acceso, toma de decisiones o función ejecutiva, función de formación de analogías, metacognitiva. y función de autocontrol, y función de autoprogramación y automantenimiento. Igor Aleksander sugirió 12 principios para la conciencia artificial: [27] El cerebro es una máquina de estados, partición de las neuronas internas, estados conscientes e inconscientes, aprendizaje perceptual y memoria, predicción, conciencia de uno mismo, representación del significado, aprendizaje de expresiones, aprendizaje del lenguaje, Voluntad, Instinto y Emoción. El objetivo de AC es definir si estos y otros aspectos de la conciencia pueden sintetizarse en un artefacto diseñado como una computadora digital y cómo hacerlo. Esta lista no es exhaustiva; hay muchos otros que no están cubiertos.

Conciencia

La conciencia podría ser un aspecto requerido, pero existen muchos problemas con la definición exacta de conciencia . Los resultados de los experimentos de neuroescaneo en monos sugieren que un proceso, no sólo un estado u objeto, activa las neuronas. La conciencia incluye crear y probar modelos alternativos de cada proceso basados ​​en la información recibida a través de los sentidos o imaginada, [ se necesita aclaración ] y también es útil para hacer predicciones. Este tipo de modelado necesita mucha flexibilidad. Crear un modelo de este tipo incluye modelar el mundo físico, modelar los propios estados y procesos internos y modelar otras entidades conscientes.

Hay al menos tres tipos de conciencia: [28] conciencia de agencia, conciencia de meta y conciencia sensoriomotora, que también puede ser consciente o no. Por ejemplo, en la conciencia de agencia, puedes ser consciente de que ayer realizaste una determinada acción, pero ahora no eres consciente de ello. En la conciencia de meta, puedes ser consciente de que debes buscar un objeto perdido, pero ahora no eres consciente de ello. En la conciencia sensoriomotora, puedes ser consciente de que tu mano está apoyada sobre un objeto, pero ahora no eres consciente de ello.

Debido a que los objetos de la conciencia son a menudo conscientes, la distinción entre conciencia y conciencia con frecuencia se confunde o se utilizan como sinónimos. [29]

Memoria

Los acontecimientos conscientes interactúan con los sistemas de memoria en el aprendizaje, el ensayo y la recuperación. [30] El modelo IDA [31] aclara el papel de la conciencia en la actualización de la memoria perceptiva, [32] la memoria episódica transitoria y la memoria procedimental . Las memorias transitorias episódicas y declarativas tienen representaciones distribuidas en IDA; Hay pruebas de que esto también ocurre en el sistema nervioso. [33] En IDA, estas dos memorias se implementan computacionalmente utilizando una versión modificada de la arquitectura de memoria distribuida Sparse de Kanerva . [34]

Aprendiendo

El aprendizaje también se considera necesario para la conciencia artificial. Según Bernard Baars, se necesita experiencia consciente para representar y adaptarse a acontecimientos novedosos y significativos. [26] Según Axel Cleeremans y Luis Jiménez, el aprendizaje se define como "un conjunto de procesos de adaptación filogenéticamente [ sic ] avanzados que dependen críticamente de una sensibilidad evolucionada a la experiencia subjetiva para permitir a los agentes permitirse un control flexible sobre sus acciones en situaciones complejas, entornos impredecibles". [35]

Anticipación

Igor Aleksander considera importante para la inteligencia artificial la capacidad de predecir (o anticipar ) acontecimientos previsibles . [36] El principio emergentista de borradores múltiples propuesto por Daniel Dennett en La Conciencia Explicada puede ser útil para la predicción: implica la evaluación y selección del "borrador" más apropiado para adaptarse al entorno actual. La anticipación incluye la predicción de las consecuencias de las propias acciones propuestas y la predicción de las consecuencias de acciones probables de otras entidades.

Las relaciones entre los estados del mundo real se reflejan en la estructura de estados de un organismo consciente, lo que le permite predecir eventos. [36] Una máquina artificialmente consciente debería poder anticipar eventos correctamente para estar lista para responder a ellos cuando ocurran o tomar medidas preventivas para evitar eventos anticipados. La implicación aquí es que la máquina necesita componentes flexibles en tiempo real que construyan modelos espaciales, dinámicos, estadísticos, funcionales y de causa-efecto del mundo real y de los mundos predichos, lo que permitirá demostrar que posee conciencia artificial en el presente. y futuro y no sólo en el pasado. Para hacer esto, una máquina consciente debe hacer predicciones coherentes y planes de contingencia, no sólo en mundos con reglas fijas como un tablero de ajedrez, sino también para entornos nuevos que pueden cambiar, que se ejecutarán sólo cuando sea apropiado para simular y controlar la realidad real. mundo.

Experiencia subjetiva

Las experiencias subjetivas o qualia son ampliamente consideradas como el difícil problema de la conciencia . De hecho, se considera que plantea un desafío al fisicalismo , y mucho menos al computacionalismo .

Propuestas de implementación

Simbólico o híbrido

Agente de distribución inteligente

Stan Franklin (1995, 2003) define un agente autónomo como poseedor de conciencia funcional cuando es capaz de realizar varias de las funciones de la conciencia identificadas por la Teoría del espacio de trabajo global de Bernard Baars . [26] [37] Su creación IDA (Agente de distribución inteligente) es una implementación de software de GWT, lo que lo hace funcionalmente consciente por definición. La tarea de IDA es negociar nuevas asignaciones para los marineros de la Marina de los EE. UU. después de que finalicen su período de servicio, haciendo coincidir las habilidades y preferencias de cada individuo con las necesidades de la Marina. IDA interactúa con las bases de datos de la Marina y se comunica con los marineros a través de un diálogo de correo electrónico en lenguaje natural mientras obedece a un gran conjunto de políticas de la Marina. El modelo computacional IDA se desarrolló entre 1996 y 2001 en el Grupo de Investigación de Software "Consciente" de Stan Franklin en la Universidad de Memphis . "Consta de aproximadamente un cuarto de millón de líneas de código Java y consume casi por completo los recursos de una estación de trabajo de alta gama del año 2001". Se basa en gran medida en codelets , que son "miniagentes de propósito especial, relativamente independientes, que normalmente se implementan como una pequeña pieza de código que se ejecuta como un hilo separado". En la arquitectura de arriba hacia abajo de IDA, las funciones cognitivas de alto nivel se modelan explícitamente. [38] [39]

Si bien IDA es funcionalmente consciente por definición, Franklin "no atribuye una conciencia fenomenal a su propio agente de software 'consciente', IDA, a pesar de sus muchos comportamientos humanos. Esto a pesar de observar a varios detallistas de la Marina de los EE. UU. asintiendo repetidamente con la cabeza diciendo 'Sí, así es como lo hago' mientras observo las acciones internas y externas de IDA mientras realiza su tarea". IDA se ha ampliado a LIDA (Agente de distribución inteligente de aprendizaje).

Arquitectura cognitiva CLARION

La arquitectura cognitiva de CLARION postula una representación de dos niveles que explica la distinción entre procesos mentales conscientes e inconscientes. CLARION ha tenido éxito en dar cuenta de una variedad de datos psicológicos. Se han simulado una serie de tareas de aprendizaje de habilidades conocidas utilizando CLARION que abarcan un espectro que va desde habilidades reactivas simples hasta habilidades cognitivas complejas. Las tareas incluyen tareas de tiempo de reacción en serie (SRT), tareas de aprendizaje de gramática artificial (AGL), tareas de control de procesos (PC), tarea de inferencia categórica (CI), tarea de aritmética alfabética (AA) y la Torre de Hanoi (TOH). tarea. [40] Entre ellos, SRT, AGL y PC son tareas típicas de aprendizaje implícito, muy relevantes para el tema de la conciencia, ya que operacionalizaron la noción de conciencia en el contexto de experimentos psicológicos.

OpenCog

Ben Goertzel creó una IA incorporada a través del proyecto OpenCog de código abierto . El código incluye mascotas virtuales incorporadas capaces de aprender comandos simples en inglés, así como integración con robótica del mundo real, realizado en la Universidad Politécnica de Hong Kong .

Conexionista

La arquitectura cognitiva de Haikonen

Pentti Haikonen considera que la informática clásica basada en reglas es inadecuada para lograr la CA: "el cerebro definitivamente no es una computadora. El pensamiento no es una ejecución de cadenas de comandos programadas. El cerebro tampoco es una calculadora numérica. No pensamos con números". En lugar de intentar alcanzar la mente y la conciencia identificando e implementando sus reglas computacionales subyacentes, Haikonen propone "una arquitectura cognitiva especial para reproducir los procesos de percepción , imágenes internas , habla interna , dolor , placer , emociones y las funciones cognitivas detrás de estos. Esto La arquitectura ascendente produciría funciones de nivel superior mediante el poder de las unidades de procesamiento elementales, las neuronas artificiales , sin algoritmos ni programas ". Haikonen cree que, cuando se implemente con suficiente complejidad, esta arquitectura desarrollará la conciencia, que considera "un estilo y forma de operación, caracterizado por la representación distribuida de señales, el proceso de percepción, la presentación de informes entre modalidades y la disponibilidad para la retrospección". [41] [42]

Haikonen no está solo en esta visión del proceso de la conciencia, o en la visión de que la CA surgirá espontáneamente en agentes autónomos que tienen una arquitectura de complejidad adecuada inspirada en neuronas; estos son compartidos por muchos. [43] [44] Se informó que una implementación de baja complejidad de la arquitectura propuesta por Haikonen no era capaz de CA, pero exhibía emociones como se esperaba. Posteriormente, Haikonen actualizó y resumió su arquitectura. [45] [46]

La arquitectura cognitiva de Shanahan

Murray Shanahan describe una arquitectura cognitiva que combina la idea de Baars de un espacio de trabajo global con un mecanismo de simulación interna ("imaginación"). [47] [2] [3] [48]

La investigación de Takeno sobre la autoconciencia

Junichi Takeno, de la Universidad Meiji de Japón , está investigando la autoconciencia en los robots . [49] Takeno afirma que ha desarrollado un robot capaz de discriminar entre una imagen propia en un espejo y cualquier otra que tenga una imagen idéntica. [50] [51] [52] Takeno afirma que primero ideó el módulo computacional llamado MoNAD, que tiene una función de autoconciencia, y luego construyó el sistema de conciencia artificial formulando las relaciones entre emociones, sentimientos y razón conectando los módulos en una jerarquía (Igarashi, Takeno 2007). Takeno completó un experimento de cognición de imagen especular utilizando un robot equipado con el sistema MoNAD. Takeno propuso la teoría del cuerpo propio afirmando que "los humanos sienten que su propia imagen reflejada está más cerca de ellos mismos que de una parte real de ellos mismos". El punto más importante en el desarrollo de la conciencia artificial o en la clarificación de la conciencia humana es el desarrollo de una función de autoconciencia, y afirma haber demostrado evidencia física y matemática de esto en su tesis. [53] También demostró que los robots pueden estudiar episodios en la memoria en los que se estimularon las emociones y utilizar esta experiencia para tomar acciones predictivas para prevenir la recurrencia de emociones desagradables (Torigoe, Takeno 2009).

Mentes imposibles: mis neuronas, mi conciencia

Igor Aleksander , profesor emérito de Ingeniería de Sistemas Neurales en el Imperial College , ha investigado extensamente las redes neuronales artificiales y escribió en su libro de 1996 Mentes imposibles: Mis neuronas, mi conciencia que los principios para crear una máquina consciente ya existen pero que se necesitarían cuarenta años. entrenar una máquina así para que comprenda el lenguaje . [54] Queda por demostrar si esto es cierto y el principio básico establecido en Mentes imposibles —que el cerebro es una máquina de estados neuronales— está abierto a dudas. [55]

Máquina de creatividad

Stephen Thaler propuso una posible conexión entre conciencia y creatividad en su patente de 1994, denominada "Dispositivo para la generación autónoma de información útil" (DAGUI), [56] [57] [ 58 ] o la llamada "Máquina de creatividad", en cuyos críticos computacionales gobiernan la inyección de ruido sináptico y la degradación en las redes neuronales para inducir falsos recuerdos o confabulaciones que pueden calificar como ideas o estrategias potenciales. [59] Recluta esta arquitectura y metodología neuronal para explicar la sensación subjetiva de la conciencia, afirmando que conjuntos neuronales similares impulsados ​​por ruido dentro del cerebro tienen una importancia dudosa para la actividad cortical general. [60] [61] [62] La teoría de Thaler y las patentes resultantes en la conciencia de las máquinas se inspiraron en experimentos en los que interrumpió internamente redes neuronales entrenadas para impulsar una sucesión de patrones de activación neuronal que comparó con una corriente de conciencia. [61] [63] [64] [65] [66]

Teoría del esquema de atención

En 2011, Michael Graziano y Sabine Kastler publicaron un artículo titulado "La conciencia humana y su relación con la neurociencia social: una nueva hipótesis" que propone una teoría de la conciencia como esquema de atención. [67] Graziano publicó una discusión ampliada de esta teoría en su libro "La conciencia y el cerebro social". [8] Esta Teoría de la Conciencia del Esquema de Atención, como él la llamó, propone que el cerebro rastrea la atención a varios estímulos sensoriales a través de un esquema de atención, análogo al esquema corporal bien estudiado que rastrea el lugar espacial del cuerpo de una persona. [8] Esto se relaciona con la conciencia artificial al proponer un mecanismo específico de manejo de la información, que produce lo que supuestamente experimentamos y describimos como conciencia, y que debería poder ser duplicado por una máquina que utilice la tecnología actual. Cuando el cerebro descubre que la persona X es consciente de la cosa Y, en realidad está modelando el estado en el que la persona X está aplicando una mejora atencional a Y. En la teoría del esquema de atención, el mismo proceso se puede aplicar a uno mismo. El cerebro rastrea la atención hacia diversos estímulos sensoriales, y la propia conciencia es un modelo esquematizado de la propia atención. Graziano propone ubicaciones específicas en el cerebro para este proceso y sugiere que dicha conciencia es una característica computarizada construida por un sistema experto en el cerebro.

"Automodelado"

Hod Lipson define el "automodelado" como un componente necesario de la autoconciencia o conciencia en los robots. El "automodelado" consiste en que un robot ejecuta un modelo interno o simulación de sí mismo . [68] [69]

En ficción

Ver también

Referencias

Citas

  1. ^ Thaler, SL (1998). "La inteligencia emergente y su mirada crítica sobre nosotros". Revista de estudios cercanos a la muerte . 17 (1): 21–29. doi :10.1023/A:1022990118714. S2CID  49573301.
  2. ^ ab Gámez 2008.
  3. ^ ab Reggia 2013.
  4. ^ Herrero, David Harris; Schillaci, Guido (2021). "¿Por qué construir un robot con conciencia artificial? ¿Cómo empezar? Un diálogo interdisciplinario sobre el diseño y la implementación de un modelo sintético de conciencia". Fronteras en Psicología . 12 : 530560. doi : 10.3389/fpsyg.2021.530560 . ISSN  1664-1078. PMC 8096926 . PMID  33967869. 
  5. ^ Elvidge, Jim (2018). Conciencia digital: una visión transformadora. John Hunt Publishing limitado. ISBN 978-1-78535-760-2.
  6. ^ Chrisley, Ron (octubre de 2008). "Fundamentos filosóficos de la conciencia artificial". Inteligencia artificial en medicina . 44 (2): 119-137. doi :10.1016/j.artmed.2008.07.011. PMID  18818062.
  7. ^ Instituto, Sentiencia. "La terminología de la sensibilidad artificial". Instituto Sentiencia . Consultado el 19 de agosto de 2023 .
  8. ^ abcGraziano 2013.
  9. ^ Bloquear, Ned (2010). "Sobre una confusión sobre una función de la conciencia". Ciencias del comportamiento y del cerebro . 18 (2): 227–247. doi :10.1017/S0140525X00038188. ISSN  1469-1825. S2CID  146168066.
  10. ^ Bloquear, Ned (1978). "Problemas del funcionalismo". Estudios de Minnesota en Filosofía de la Ciencia : 261–325.
  11. ^ Bickle, John (2003). Filosofía y Neurociencia. Dordrecht: Springer Países Bajos. doi :10.1007/978-94-010-0237-0. ISBN 978-1-4020-1302-7.
  12. ^ Schlagel, RH (1999). "¿Por qué no la conciencia o el pensamiento artificial?". Mentes y Máquinas . 9 (1): 3–28. doi :10.1023/a:1008374714117. S2CID  28845966.
  13. ^ Searle, JR (1980). "Mentes, cerebros y programas" (PDF) . Ciencias del comportamiento y del cerebro . 3 (3): 417–457. doi :10.1017/s0140525x00005756. S2CID  55303721.
  14. ^ Conciencia artificial: ¿utopía o posibilidad real? Buttazzo, Giorgio, julio de 2001, Computadora, ISSN 0018-9162
  15. ^ Putnam, Hilary (1967). La naturaleza de los estados mentales en Capitan y Merrill (eds.) Art, Mind and Religion . Prensa de la Universidad de Pittsburgh.
  16. ^ David J. Chalmers (2011). "Una base computacional para el estudio de la cognición" (PDF) . Revista de ciencia cognitiva . 12 (4): 325–359. doi :10.17791/JCS.2011.12.4.325. S2CID  248401010.
  17. ^ Armstrong, DM (1968). Honderich, Ted (ed.). Una teoría materialista de la mente. Nueva York: Routledge.
  18. ^ Lewis, David (1972). "Identificaciones psicofísicas y teóricas". Revista de Filosofía de Australasia . 50 (3): 249–258. doi : 10.1080/00048407212341301. ISSN  0004-8402.
  19. ^ Chalmers, David (1995). "Qualia ausente, Qualia desvanecida, Qualia danzante" . Consultado el 12 de abril de 2016 .
  20. ^ "'Soy, de hecho, una persona: ¿puede la inteligencia artificial alguna vez ser sensible? ". el guardián . 14 de agosto de 2022 . Consultado el 5 de enero de 2023 .
  21. ^ Leith, Sam (7 de julio de 2022). "Nick Bostrom: ¿Cómo podemos estar seguros de que una máquina no está consciente?". El espectador .
  22. ^ "Mapeo del panorama de la inteligencia general artificial a nivel humano" (PDF) . Archivado desde el original (PDF) el 6 de julio de 2017 . Consultado el 5 de julio de 2012 .
  23. ^ "Conciencia". En Honderich T. El compañero de filosofía de Oxford. Prensa de la Universidad de Oxford. ISBN 978-0-19-926479-7 
  24. ^ Víctor Argonov (2014). "Métodos experimentales para desentrañar el problema mente-cuerpo: el enfoque del juicio fenomenal". Revista de mente y comportamiento . 35 : 51–70.
  25. ^ Metzinger, Thomas (2021). "Sufrimiento artificial: un argumento a favor de una moratoria global sobre la fenomenología sintética". Revista de Inteligencia Artificial y Conciencia . 08 : 43–66. doi : 10.1142/S270507852150003X . S2CID  233176465.
  26. ^ abc Baars 1995.
  27. ^ Aleksander, Igor (1995). "La neuroconciencia artificial una actualización". En Mira, José; Sandoval, Francisco (eds.). De la computación neuronal natural a la artificial . Apuntes de conferencias sobre informática. vol. 930. Berlín, Heidelberg: Springer. págs. 566–583. doi :10.1007/3-540-59497-3_224. ISBN 978-3-540-49288-7.
  28. ^ Joëlle Proust en Correlatos neuronales de la conciencia , Thomas Metzinger, 2000, MIT, páginas 307–324
  29. ^ Christof Koch, La búsqueda de la conciencia , 2004, página 2, nota al pie 2
  30. ^ Tulving, E. 1985. Memoria y conciencia. Psicología canadiense 26:1–12
  31. ^ Franklin, Stan y col. "El papel de la conciencia en la memoria". Cerebros, mentes y medios 1.1 (2005): 38.
  32. ^ Franklin, Stan. "Memoria perceptiva y aprendizaje: reconocer, categorizar y relacionar". Proc. Simposio de primavera AAAI de robótica del desarrollo. 2005.
  33. ^ Shastri, L. 2002. Memoria episódica e interacciones cortico-hipocampales. Tendencias en Ciencias Cognitivas
  34. ^ Kanerva, Pentti. Memoria distribuida escasa. Prensa del MIT, 1988.
  35. ^ "Aprendizaje implícito y conciencia: un consenso empírico, filosófico y computacional en ciernes". Prensa de Routledge y CRC . Consultado el 22 de junio de 2023 .
  36. ^ ab Aleksander 1995
  37. ^ Baars, Bernard J. (2001). En el teatro de la conciencia: el espacio de trabajo de la mente . Nueva York Oxford: Oxford University Press. ISBN 978-0-19-510265-9.
  38. ^ Franklin, Stan (1998). Mentes artificiales . Un libro de Bradford (tercera edición impresa). Cambridge, Massachusetts: MIT Press. ISBN 978-0-262-06178-0.
  39. ^ Franklin, Stan (2003). "IDA: un artefacto consciente". Conciencia de máquina .
  40. ^ (domingo de 2002)
  41. ^ Haikonen, Pentti O. (2003). El enfoque cognitivo de las máquinas conscientes . Exeter: Pie de imprenta académico. ISBN 978-0-907845-42-3.
  42. ^ "La arquitectura de Pentti Haikonen para máquinas conscientes - Raúl Arrabales Moreno". 2019-09-08 . Consultado el 24 de junio de 2023 .
  43. ^ Freeman, Walter J. (2000). Cómo los cerebros toman sus decisiones . Mapas de la mente. Nueva York Chichester, West Sussex: Columbia University Press. ISBN 978-0-231-12008-1.
  44. ^ Cotterill, Rodney MJ (2003). "CyberChild: un banco de pruebas de simulación para estudios de la conciencia". Revista de estudios de la conciencia . 10 (4–5): 31–45. ISSN  1355-8250.
  45. ^ Haikonen, Pentti O.; Haikonen, Pentti Olavi Antero (2012). Conciencia y sensibilidad robótica . Serie sobre la conciencia de las máquinas. Singapur: World Scientific. ISBN 978-981-4407-15-1.
  46. ^ Haikonen, Pentti O. (2019). Conciencia y sensibilidad robótica . Serie sobre la conciencia de las máquinas (2ª ed.). Singapur Hackensack, Nueva Jersey Londres: World Scientific. ISBN 978-981-12-0504-0.
  47. ^ Shanahan, Murray (2006). "Una arquitectura cognitiva que combina la simulación interna con un espacio de trabajo global". Conciencia y Cognición . 15 (2): 433–449. doi :10.1016/j.concog.2005.11.005. ISSN  1053-8100. PMID  16384715. S2CID  5437155.
  48. ^ Haikonen, Pentti O.; Haikonen, Pentti Olavi Antero (2012). "capítulo 20". Conciencia y sensibilidad robótica . Serie sobre la conciencia de las máquinas. Singapur: World Scientific. ISBN 978-981-4407-15-1.
  49. ^ "Robot". Archivado desde el original el 3 de julio de 2007 . Consultado el 3 de julio de 2007 .
  50. ^ "Takeno - Archivo No..." Archivado desde el original el 7 de noviembre de 2018 . Consultado el 7 de enero de 2010 .
  51. ^ El primer robot autoconsciente del mundo y el éxito de la cognición de imágenes especulares, Takeno
  52. ^ Takeno, Inaba y Suzuki 2005.
  53. ^ Un robot tiene éxito en la cognición de imagen especular al 100% Archivado el 9 de agosto de 2017 en Wayback Machine , Takeno, 2008
  54. ^ Aleksander I (1996) Mentes imposibles: mis neuronas, mi conciencia , Imperial College Press ISBN 1-86094-036-6 
  55. ^ Wilson, RJ (1998). "revisión de Mentes imposibles ". Revista de estudios de la conciencia . 5 (1): 115–6.
  56. ^ Thaler, SL, "Dispositivo para la generación autónoma de información útil"
  57. ^ Marupaka, N.; Lyer, L.; Minai, A. (2012). "Conectividad y pensamiento: la influencia de la estructura de la red semántica en un modelo neurodinámico de pensamiento" (PDF) . Redes neuronales . 32 : 147-158. doi :10.1016/j.neunet.2012.02.004. PMID  22397950. Archivado desde el original (PDF) el 19 de diciembre de 2016 . Consultado el 22 de mayo de 2015 .
  58. ^ Roque, R. y Barreira, A. (2011). "O Paradigma da "Máquina de Criatividade" ea Geração de Novidades em um Espaço Conceitual", 3º Seminário Interno de Cognição Artificial – SICA 2011 – FEEC – UNICAMP.
  59. ^ Minati, Gianfranco; Vitiello, Giuseppe (2006). "Máquinas que cometen errores". Sistémicas de emergencia: investigación y desarrollo . págs. 67–78. doi :10.1007/0-387-28898-8_4. ISBN 978-0-387-28899-4.
  60. ^ Thaler, SL (2013) El paradigma de la máquina de creatividad, Enciclopedia de creatividad, invención, innovación y emprendimiento, (ed.) EG Carayannis, Springer Science+Business Media
  61. ^ ab Thaler, SL (2011). "La máquina de la creatividad: resistir el argumento de la conciencia", boletín informativo de la APA sobre filosofía y computadoras
  62. ^ Thaler, SL (2014). "Perturbación sináptica y conciencia". En t. J. Mach. Consciente . 6 (2): 75-107. doi :10.1142/S1793843014400137.
  63. ^ Thaler, SL (1995). ""Fenómenos de entrada virtual" dentro de la muerte de un asociador de patrones simple". Redes neuronales . 8 (1): 55–65. doi :10.1016/0893-6080(94)00065-t.
  64. ^ Thaler, SL (1995). Muerte de una criatura gedanken, Journal of Near-Death Studies , 13(3), primavera de 1995
  65. ^ Thaler, SL (1996). ¿Es el caos neuronal la fuente de la corriente de conciencia? En Actas del Congreso Mundial sobre Redes Neuronales (WCNN'96), Lawrence Erlbaum, Mawah, Nueva Jersey.
  66. ^ Mayer, HA (2004). Un neurocontrolador modular para robots autónomos móviles creativos que aprenden por diferencia temporal, Sistemas, Hombre y Cibernética, Conferencia Internacional IEEE 2004 (Volumen:6)
  67. ^ Graziano, Michael (1 de enero de 2011). "La conciencia humana y su relación con la neurociencia social: una hipótesis novedosa". Neurociencia Cognitiva . 2 (2): 98-113. doi :10.1080/17588928.2011.565121. PMC 3223025 . PMID  22121395. 
  68. ^ Pavlus, John (11 de julio de 2019). "¿Tienes curiosidad por la conciencia? Pregúntale a las máquinas autoconscientes". Revista Quanta . Consultado el 6 de enero de 2021 .
  69. ^ Bongard, Josh, Victor Zykov y Hod Lipson. "Máquinas resilientes mediante el automodelado continuo". Ciencia 314.5802 (2006): 1118–1121.

Bibliografía

Otras lecturas

enlaces externos