stringtranslate.com

habitación china

El argumento de la sala china sostiene que una computadora digital que ejecuta un programa no puede tener una " mente ", " comprensión " o " conciencia ", [a] independientemente de cuán inteligente o humano el programa pueda hacer que la computadora se comporte. El argumento fue presentado por el filósofo John Searle en su artículo "Minds, Brains, and Programs", publicado en Behavioral and Brain Sciences en 1980. [1] Gottfried Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis (1974) y Ned Block (1978). La versión de Searle ha sido ampliamente discutida en los años posteriores. [2] La pieza central del argumento de Searle es un experimento mental conocido como la habitación china . [3]

El argumento está dirigido contra las posiciones filosóficas del funcionalismo y el computacionalismo [4] que sostienen que la mente puede verse como un sistema de procesamiento de información que opera sobre símbolos formales, y que la simulación de un estado mental determinado es suficiente para su presencia. Específicamente, el argumento pretende refutar una posición que Searle llama la hipótesis fuerte de la IA : [b] "La computadora apropiadamente programada con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido que los seres humanos tienen mente". [C]

Aunque se presentó originalmente como reacción a las declaraciones de los investigadores de inteligencia artificial (IA), no es un argumento en contra de los objetivos de la investigación de IA convencional porque no muestra un límite en la cantidad de comportamiento "inteligente" que una máquina puede mostrar. [5] El argumento se aplica sólo a las computadoras digitales que ejecutan programas y no se aplica a las máquinas en general. [6]

Experimento mental de la habitación china

El experimento mental de Searle comienza con esta premisa hipotética: supongamos que la investigación sobre inteligencia artificial haya logrado construir una computadora que se comporta como si entendiera chino . Toma caracteres chinos como entrada y, siguiendo las instrucciones de un programa informático , produce otros caracteres chinos, que presenta como salida. Supongamos, dice Searle, que esta computadora realiza su tarea de manera tan convincente que pasa cómodamente la prueba de Turing : convence a un hablante de chino humano de que el programa es en sí mismo un hablante de chino vivo. A todas las preguntas que hace la persona, da respuestas apropiadas, de modo que cualquier hablante de chino estaría convencido de que está hablando con otro ser humano de habla china.

La pregunta que Searle quiere responder es la siguiente: ¿la máquina "entiende" literalmente el chino? ¿O simplemente simula la capacidad de entender chino? [7] [d] Searle llama a la primera posición "IA fuerte" y a la última "IA débil". [mi]

Searle entonces supone que está en una habitación cerrada y tiene un libro con una versión en inglés del programa de computadora, junto con suficientes papeles, lápices, borradores y archivadores. Searle podía recibir caracteres chinos a través de una ranura en la puerta, procesarlos de acuerdo con las instrucciones del programa y producir caracteres chinos como resultado, sin comprender nada del contenido de la escritura china. Si la computadora hubiera pasado la prueba de Turing de esta manera, se deduce, dice Searle, que él también lo haría, simplemente ejecutando el programa manualmente.

Searle afirma que no existe una diferencia esencial entre los roles de la computadora y él mismo en el experimento. Cada uno simplemente sigue un programa, paso a paso, produciendo un comportamiento que luego el usuario interpreta como una demostración de una conversación inteligente. Sin embargo, el propio Searle no podría entender la conversación. ("No hablo ni una palabra de chino", [10] señala.) Por lo tanto, sostiene, se deduce que el ordenador tampoco sería capaz de entender la conversación.

Searle sostiene que, sin "comprensión" (o " intencionalidad "), no podemos describir lo que la máquina hace como "pensamiento" y, puesto que no piensa, no tiene una "mente" en ningún sentido parecido al normal. la palabra. Por tanto, concluye que la hipótesis de la "IA fuerte" es falsa.

Historia

Gottfried Leibniz presentó un argumento similar en 1714 contra el mecanicismo (la idea de que todo lo que constituye un ser humano podría, en principio, explicarse en términos mecánicos. En otras palabras, que una persona, incluida su mente, no es más que una máquina muy compleja). . Leibniz utilizó el experimento mental de expandir el cerebro hasta que tuviera el tamaño de un molino . [11] A Leibniz le resultó difícil imaginar que una "mente" capaz de "percepción" pudiera construirse utilizando únicamente procesos mecánicos. [F]

El cibernético soviético Anatoly Dneprov presentó un argumento esencialmente idéntico en 1961, en la forma del cuento " El juego ". En él, un estadio de personas actúa como interruptores y células de memoria implementando un programa para traducir una frase de portugués, un idioma que ninguno de ellos conoce. [12] El juego fue organizado por un "Profesor Zarubin" para responder a la pregunta "¿Pueden pensar las máquinas matemáticas?" Hablando a través de Zarubin, Dneprov escribe "la única manera de demostrar que las máquinas pueden pensar es convertirse uno mismo en una máquina y examinar su proceso de pensamiento" y concluye, como lo hace Searle, "Hemos demostrado que incluso la simulación más perfecta de una máquina Pensar no es el proceso de pensar en sí mismo."

En 1974, Lawrence Davis imaginó la duplicación del cerebro utilizando líneas telefónicas y oficinas atendidas por personas, y en 1978 Ned Block imaginó a toda la población de China involucrada en tal simulación cerebral. Este experimento mental se llama cerebro chino , también "nación china" o "gimnasio chino". [13]

John Searle en diciembre de 2005

La versión de Searle apareció en su artículo de 1980 "Minds, Brains, and Programs", publicado en Behavioral and Brain Sciences . [1] Con el tiempo se convirtió en el "artículo objetivo más influyente" de la revista, [2] generando una enorme cantidad de comentarios y respuestas en las décadas siguientes, y Searle ha continuado defendiendo y refinando el argumento en muchos artículos, artículos populares y libros. David Cole escribe que "el argumento de la habitación china ha sido probablemente el argumento filosófico más discutido en la ciencia cognitiva que ha aparecido en los últimos 25 años". [14]

La mayor parte de la discusión consiste en intentos de refutarlo. "La abrumadora mayoría", señala el editor de BBS, Stevan Harnad , [g] "todavía piensa que el argumento de la habitación china está completamente equivocado". [15] El gran volumen de literatura que ha crecido a su alrededor inspiró a Pat Hayes a comentar que el campo de la ciencia cognitiva debería redefinirse como "el programa de investigación en curso para demostrar que el argumento de la habitación china de Searle es falso". [dieciséis]

El argumento de Searle se ha convertido en "una especie de clásico de la ciencia cognitiva", según Harnad. [15] Varol Akman está de acuerdo y ha descrito el artículo original como "un ejemplo de claridad y pureza filosófica". [17]

Filosofía

Aunque el argumento de la Habitación China se presentó originalmente como reacción a las declaraciones de los investigadores de la inteligencia artificial , los filósofos han llegado a considerarlo como una parte importante de la filosofía de la mente . Es un desafío al funcionalismo y a la teoría computacional de la mente , [h] y está relacionado con cuestiones tales como el problema mente-cuerpo , el problema de otras mentes , el problema de la conexión a tierra de los símbolos y el difícil problema de la conciencia . [a]

IA fuerte

Searle identificó una posición filosófica que llama "IA fuerte":

La computadora apropiadamente programada con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido en que la tienen los seres humanos. [C]

La definición depende de la distinción entre simular una mente y tener realmente una mente. Searle escribe que "según Strong AI, la simulación correcta es realmente una mente. Según Weak AI, la simulación correcta es un modelo de la mente". [8]

La afirmación está implícita en algunas de las declaraciones de los primeros investigadores y analistas de IA. Por ejemplo, en 1955, el fundador de la IA, Herbert A. Simon, declaró que "ahora hay en el mundo máquinas que piensan, que aprenden y crean". [24] Simon, junto con Allen Newell y Cliff Shaw , después de haber completado el primer programa de "IA", el Logic Theorist , afirmó que habían "resuelto el venerable problema mente-cuerpo , explicando cómo un sistema compuesto de materia puede tener la misma propiedades de la mente ." [25] John Haugeland escribió que "la IA sólo quiere lo genuino: máquinas con mente , en el sentido pleno y literal. Esto no es ciencia ficción, sino ciencia real, basada en una concepción teórica tan profunda como atrevida: a saber, nosotros mismos somos, en el fondo, ordenadores ". [26]

Searle también atribuye las siguientes afirmaciones a los defensores de una IA fuerte:

IA fuerte como computacionalismo o funcionalismo

En presentaciones más recientes del argumento de la habitación china, Searle ha identificado la "IA fuerte" como " funcionalismo informático " (un término que atribuye a Daniel Dennett ). [4] [31] El funcionalismo es una posición en la filosofía de la mente moderna que sostiene que podemos definir fenómenos mentales (como creencias, deseos y percepciones) describiendo sus funciones en relación entre sí y con el mundo exterior. Debido a que un programa de computadora puede representar con precisión relaciones funcionales como relaciones entre símbolos, una computadora puede tener fenómenos mentales si ejecuta el programa correcto, según el funcionalismo.

Stevan Harnad sostiene que las descripciones de Searle de una IA fuerte pueden reformularse como "principios reconocibles del computacionalismo , una posición (a diferencia de la" IA fuerte ") que en realidad sostienen muchos pensadores y, por lo tanto, vale la pena refutar". [32] Computacionalismo [k] es la posición en la filosofía de la mente que sostiene que la mente puede describirse con precisión como un sistema de procesamiento de información .

Cada uno de los siguientes, según Harnad, es un "principio" del computacionalismo: [35]

IA fuerte versus naturalismo biológico

Searle sostiene una posición filosófica que llama " naturalismo biológico ": que la conciencia [a] y la comprensión requieren una maquinaria biológica específica que se encuentra en el cerebro. Escribe que "los cerebros causan las mentes" [6] y que "los fenómenos mentales humanos reales [son] dependientes de las propiedades físico-químicas reales de los cerebros humanos reales". [36] Searle sostiene que esta maquinaria (conocida por la neurociencia como los " correlatos neuronales de la conciencia ") debe tener algunos poderes causales que permitan la experiencia humana de la conciencia. [37] La ​​creencia de Searle en la existencia de estos poderes ha sido criticada. [l]

Searle no está en desacuerdo con la idea de que las máquinas pueden tener conciencia y comprensión porque, como él escribe, "nosotros somos precisamente esas máquinas". [6] Searle sostiene que el cerebro es, de hecho, una máquina, pero que el cerebro da lugar a la conciencia y la comprensión utilizando una maquinaria específica. Si la neurociencia es capaz de aislar el proceso mecánico que da lugar a la conciencia, entonces Searle concede que puede ser posible crear máquinas que tengan conciencia y comprensión. Sin embargo, sin la maquinaria específica necesaria, Searle no cree que pueda producirse la conciencia.

El naturalismo biológico implica que no se puede determinar si la experiencia de la conciencia ocurre simplemente examinando cómo funciona un sistema, porque la maquinaria específica del cerebro es esencial. Por tanto, el naturalismo biológico se opone directamente tanto al conductismo como al funcionalismo (incluido el "funcionalismo informático" o la "IA fuerte"). [38] El naturalismo biológico es similar a la teoría de la identidad (la posición de que los estados mentales son "idénticos" o "compuestos de" eventos neurológicos); sin embargo, Searle tiene objeciones técnicas específicas a la teoría de la identidad. [39] [m] El naturalismo biológico de Searle y la fuerte IA se oponen al dualismo cartesiano , [38] la idea clásica de que el cerebro y la mente están hechos de diferentes "sustancias". De hecho, Searle acusa a la IA fuerte de dualismo y escribe que "la IA fuerte sólo tiene sentido dado el supuesto dualista de que, en lo que respecta a la mente, el cerebro no importa". [27]

Conciencia

La presentación original de Searle enfatizaba la "comprensión", es decir, estados mentales con lo que los filósofos llaman " intencionalidad ", y no abordaba directamente otras ideas estrechamente relacionadas, como la "conciencia". Sin embargo, en presentaciones más recientes, Searle ha incluido la conciencia como el verdadero objetivo del argumento. [4]

Los modelos computacionales de conciencia no son suficientes por sí solos para la conciencia. El modelo computacional de la conciencia es para la conciencia de la misma manera que el modelo computacional de cualquier cosa es para el dominio que se está modelando. Nadie supone que el modelo computacional de las tormentas en Londres nos dejará a todos mojados. Pero cometen el error de suponer que el modelo computacional de conciencia es de algún modo consciente. Es el mismo error en ambos casos. [40]

—  John R. Searle, Conciencia y lenguaje , pág. dieciséis

David Chalmers escribe: "Está bastante claro que la conciencia está en la raíz de la cuestión" de la sala china. [41]

Colin McGinn sostiene que la sala china proporciona pruebas contundentes de que el difícil problema de la conciencia es fundamentalmente insoluble. Para ser claros, el argumento no es si una máquina puede ser consciente, sino si se puede demostrar que ella (o cualquier otra cosa) es consciente. Es evidente que cualquier otro método para sondear al ocupante de una habitación china tiene en principio las mismas dificultades que el intercambio de preguntas y respuestas en chino. Simplemente no es posible adivinar si en la habitación habita un agente consciente o alguna simulación inteligente. [42]

Searle sostiene que esto sólo es cierto para un observador fuera de la habitación. El objetivo del experimento mental es colocar a alguien dentro de la habitación, donde pueda observar directamente las operaciones de la conciencia. Searle afirma que desde su posición ventajosa dentro de la habitación no puede ver nada que pueda dar origen a la conciencia, aparte de él mismo, y claramente no tiene una mente que pueda hablar chino. [ cita necesaria ]

Ética aplicada

Sentado en el centro de información de combate a bordo de un buque de guerra , propuesto como un análogo real de la sala china

Patrick Hew utilizó el argumento de la Sala China para deducir los requisitos de los sistemas de mando y control militares para preservar la agencia moral de un comandante . Trazó una analogía entre un comandante en su centro de mando y la persona en la Sala China, y la analizó bajo una lectura de las nociones aristotélicas de "obligatoria" e "ignorancia" . La información podría "convertirse hacia abajo" de significado a símbolos y manipularse simbólicamente, pero la agencia moral podría verse socavada si no había una "conversión ascendente" inadecuada en significado. Hew citó ejemplos del incidente del USS Vincennes . [43]

Ciencias de la Computación

El argumento de la habitación china es principalmente un argumento de filosofía de la mente , y tanto los principales científicos informáticos como los investigadores de inteligencia artificial lo consideran irrelevante para sus campos. [5] Sin embargo, varios conceptos desarrollados por científicos informáticos son esenciales para comprender el argumento, incluido el procesamiento de símbolos , las máquinas de Turing , la completitud de Turing y la prueba de Turing .

Fuerte investigación de IA versus IA

Los argumentos de Searle no suelen considerarse un problema para la investigación de la IA. La misión principal de la investigación en inteligencia artificial es únicamente crear sistemas útiles que actúen de manera inteligente y no importa si la inteligencia es "meramente" una simulación. Los investigadores de inteligencia artificial Stuart Russell y Peter Norvig escribieron en 2021: "Estamos interesados ​​en programas que se comporten de manera inteligente. Los aspectos individuales de la conciencia (conciencia, autoconciencia, atención) se pueden programar y pueden ser parte de una máquina inteligente. "El proyecto de hacer que una máquina sea consciente exactamente como lo somos los humanos no es algo que estemos preparados para asumir". [5]

Searle no está en desacuerdo con que la investigación de la IA pueda crear máquinas capaces de tener un comportamiento muy inteligente. El argumento de la habitación china deja abierta la posibilidad de que se pueda construir una máquina digital que actúe de manera más inteligente que una persona, pero que no tenga mente ni intencionalidad de la misma manera que los cerebros .

La "hipótesis de la IA fuerte" de Searle no debe confundirse con la "IA fuerte" tal como la definen Ray Kurzweil y otros futuristas, [44] [23] que utilizan el término para describir la inteligencia de las máquinas que rivaliza o supera la inteligencia humana, es decir, la inteligencia artificial. Inteligencia general , IA a nivel humano o superinteligencia . Kurzweil se refiere principalmente a la cantidad de inteligencia que muestra la máquina, mientras que el argumento de Searle no pone límite a esto. Searle sostiene que una máquina superinteligente no necesariamente tendría mente y conciencia.

prueba de Turing

La "interpretación estándar" de la prueba de Turing, en la que al jugador C, el interrogador, se le asigna la tarea de intentar determinar qué jugador (A o B) es una computadora y cuál es un humano. El interrogador se limita a utilizar las respuestas a las preguntas escritas para tomar la determinación. Imagen adaptada de Saygin, et al. 2000. [45]

La sala china implementa una versión del test de Turing . [46] Alan Turing introdujo la prueba en 1950 para ayudar a responder la pregunta "¿pueden pensar las máquinas?" En la versión estándar, un juez humano entabla una conversación en lenguaje natural con un humano y una máquina diseñada para generar un desempeño indistinguible del de un ser humano. Todos los participantes están separados unos de otros. Si el juez no puede distinguir de forma fiable la máquina del humano, se dice que la máquina ha pasado la prueba.

Luego, Turing consideró cada posible objeción a la propuesta "las máquinas pueden pensar" y descubrió que hay respuestas simples y obvias si la pregunta se desmitifica de esta manera. Sin embargo, no pretendía que la prueba midiera la presencia de "conciencia" o "comprensión". No creía que esto fuera relevante para las cuestiones que estaba abordando. El escribio:

No deseo dar la impresión de que creo que no hay ningún misterio acerca de la conciencia. Hay, por ejemplo, algo parecido a una paradoja relacionada con cualquier intento de localizarlo. Pero no creo que sea necesario resolver estos misterios antes de que podamos responder a la pregunta que nos ocupa en este artículo. [46]

Para Searle, como filósofo que investiga la naturaleza de la mente y la conciencia , estos son los misterios relevantes. La sala china está diseñada para mostrar que la prueba de Turing es insuficiente para detectar la presencia de conciencia, incluso si la sala puede comportarse o funcionar como lo haría una mente consciente.

Procesamiento de símbolos

La sala china (y todos los ordenadores modernos) manipulan objetos físicos para realizar cálculos y simulaciones. Los investigadores de IA Allen Newell y Herbert A. Simon llamaron a este tipo de máquina un sistema de símbolos físicos . También es equivalente a los sistemas formales utilizados en el campo de la lógica matemática .

Searle enfatiza el hecho de que este tipo de manipulación de símbolos es sintáctico (tomando prestado un término del estudio de la gramática ). La computadora manipula los símbolos utilizando una forma de reglas de sintaxis , sin ningún conocimiento de la semántica del símbolo (es decir, su significado ).

Newell y Simon habían conjeturado que un sistema de símbolos físicos (como una computadora digital) tenía toda la maquinaria necesaria para una "acción inteligente general" o, como se la conoce hoy, inteligencia artificial general . Enmarcaron esto como una posición filosófica, la hipótesis del sistema de símbolos físicos : "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para una acción inteligente general". [47] [48] El argumento de la habitación china no refuta esto, porque está formulado en términos de "acción inteligente", es decir, el comportamiento externo de la máquina, en lugar de la presencia o ausencia de comprensión, conciencia y mente.

Los programas de IA del siglo XXI (como el " aprendizaje profundo ") realizan operaciones matemáticas en enormes matrices de números no identificados y se parecen poco al procesamiento simbólico utilizado por los programas de IA en el momento en que Searle escribió su crítica en 1980. Nils Nilsson describe sistemas como estos son "dinámicos" más que "simbólicos". Nilsson señala que se trata esencialmente de representaciones digitalizadas de sistemas dinámicos : los números individuales no tienen una semántica específica, sino que son muestras o puntos de datos de una señal dinámica, y es la señal que se aproxima la que tendría semántica. Nilsson sostiene que no es razonable considerar estas señales como "procesamiento de símbolos" en el mismo sentido que la hipótesis de los sistemas de símbolos físicos. [49]

La sala china y la plenitud de Turing

La sala china tiene un diseño análogo al de un ordenador moderno. Tiene una arquitectura Von Neumann , que consta de un programa (el libro de instrucciones), algo de memoria (los papeles y archivadores), una CPU que sigue las instrucciones (el hombre) y un medio para escribir símbolos en la memoria (el lápiz y borrador). Una máquina con este diseño se conoce en informática teórica como " Turing completo ", porque cuenta con la maquinaria necesaria para realizar cualquier cálculo que una máquina de Turing pueda hacer, y por tanto es capaz de hacer una simulación paso a paso de cualquier otra máquina digital, con suficiente memoria y tiempo. Alan Turing escribe: "todas las computadoras digitales son, en cierto sentido, equivalentes". [50] La tesis ampliamente aceptada de Church-Turing sostiene que cualquier función computable mediante un procedimiento efectivo es computable mediante una máquina de Turing .

La plenitud de Turing en la sala china implica que puede hacer lo mismo que cualquier otra computadora digital (aunque mucho, mucho más lentamente). Por lo tanto, si la sala china no contiene o no puede contener una mente que hable chino, entonces ninguna otra computadora digital puede contener una mente. Algunas respuestas a Searle comienzan argumentando que la sala, tal como se describe, no puede tener una mente que hable chino. Argumentos de esta forma, según Stevan Harnad , "no son una refutación (sino más bien una afirmación)" [51] del argumento de la habitación china, porque estos argumentos en realidad implican que ninguna computadora digital puede tener mente. [29]

Hay algunos críticos, como Hanoch Ben-Yami, que sostienen que la sala china no puede simular todas las capacidades de un ordenador digital, como por ejemplo poder determinar la hora actual. [52]

argumento completo

Searle ha producido una versión más formal del argumento del que forma parte la Sala China. Presentó la primera versión en 1984. La versión que figura a continuación es de 1990. [53] [n] El experimento mental de la habitación china tiene como objetivo probar el punto A3. [o]

Comienza con tres axiomas:

(A1) "Los programas son formales ( sintácticos )".
Un programa utiliza sintaxis para manipular símbolos y no presta atención a la semántica de los símbolos. Sabe dónde colocar los símbolos y cómo moverlos, pero no sabe qué representan ni qué significan. Para el programa, los símbolos son sólo objetos físicos como cualquier otro.
(A2) "Las mentes tienen contenidos mentales ( semántica )".
A diferencia de los símbolos utilizados por un programa, nuestros pensamientos tienen significado: representan cosas y sabemos qué es lo que representan.
(A3) "La sintaxis por sí sola no es constitutiva ni suficiente para la semántica".
Esto es lo que pretende demostrar el experimento mental de la habitación china: la habitación china tiene sintaxis (porque hay un hombre allí moviendo símbolos). La sala china no tiene semántica (porque, según Searle, no hay nadie ni nada en la sala que entienda lo que significan los símbolos). Por tanto, tener sintaxis no es suficiente para generar semántica.

Searle postula que esto lleva directamente a esta conclusión:

(C1) Los programas no son constitutivos ni suficientes para las mentes.
Esto debería derivarse sin controversia de los tres primeros: los programas no tienen semántica. Los programas sólo tienen sintaxis y la sintaxis es insuficiente para la semántica. Cada mente tiene semántica. Por lo tanto ningún programa es mente.

Gran parte del argumento pretende mostrar que la inteligencia artificial nunca podrá producir una máquina con mente escribiendo programas que manipulen símbolos. El resto del argumento aborda una cuestión diferente. ¿El cerebro humano está ejecutando un programa? En otras palabras, ¿es correcta la teoría computacional de la mente ? [h] Comienza con un axioma que pretende expresar el consenso científico moderno básico sobre el cerebro y la mente:

(A4) Los cerebros causan las mentes.

Searle afirma que podemos deducir "inmediatamente" y "trivialmente" [54] que:

(C2) Cualquier otro sistema capaz de causar mentes tendría que tener poderes causales (al menos) equivalentes a los de los cerebros.
Los cerebros deben tener algo que haga que exista la mente. La ciencia aún tiene que determinar exactamente qué es, pero debe existir, porque las mentes existen. Searle lo llama "poderes causales". Los "poderes causales" son todo aquello que el cerebro utiliza para crear una mente. Si algo más puede hacer que exista una mente, debe tener "poderes causales equivalentes". "Poderes causales equivalentes" es cualquier otra cosa que pueda usarse para tomar una decisión.

Y de esto extrae otras conclusiones:

(C3) Cualquier artefacto que produjera fenómenos mentales, cualquier cerebro artificial, tendría que ser capaz de duplicar los poderes causales específicos de los cerebros, y no podría hacerlo simplemente ejecutando un programa formal.
Esto se desprende de C1 y C2: dado que ningún programa puede producir una mente, y "poderes causales equivalentes" producen mentes, se deduce que los programas no tienen "poderes causales equivalentes".
(C4) La forma en que los cerebros humanos realmente producen fenómenos mentales no puede ser únicamente en virtud de la ejecución de un programa de computadora.
Dado que los programas no tienen "poderes causales equivalentes", los "poderes causales equivalentes" producen mentes y los cerebros producen mentes, se deduce que los cerebros no utilizan programas para producir mentes.

Las refutaciones del argumento de Searle adoptan muchas formas diferentes (ver más abajo). Los computacionalistas y funcionalistas rechazan A3, argumentando que la "sintaxis" (como la describe Searle) puede tener "semántica" si la sintaxis tiene la estructura funcional correcta. Los materialistas eliminativos rechazan A2, argumentando que las mentes en realidad no tienen "semántica": que los pensamientos y otros fenómenos mentales son inherentemente insignificantes pero, sin embargo, funcionan como si tuvieran significado.

Respuestas

Las respuestas al argumento de Searle pueden clasificarse según lo que pretenden mostrar: [p]

Algunos de los argumentos (la simulación de robots y cerebro, por ejemplo) se dividen en múltiples categorías.

Sistemas y respuestas de la mente virtual: encontrar la mente

Estas respuestas intentan responder a la pregunta: dado que el hombre en la habitación no habla chino, ¿ dónde está la "mente" que sí lo habla? Estas respuestas abordan las cuestiones ontológicas clave de mente versus cuerpo y simulación versus realidad. Todas las respuestas que identifican la mente en la sala son versiones de "la respuesta del sistema".

Respuesta del sistema

La versión básica de la respuesta del sistema sostiene que es "todo el sistema" el que entiende chino. [59] [q] Si bien el hombre sólo entiende inglés, cuando se combina con el programa, papel borrador, lápices y archivadores, forman un sistema que puede entender chino. "Aquí, la comprensión no se atribuye al mero individuo, sino a todo el sistema del que forma parte", explica Searle. [30]
Searle señala que (en esta versión simple de la respuesta) el "sistema" no es más que una colección de objetos físicos ordinarios; otorga el poder de comprensión y conciencia a "la conjunción de esa persona y los trozos de papel" [30] sin hacer ningún esfuerzo por explicar cómo ese montón de objetos se ha convertido en un ser consciente y pensante. Searle sostiene que ninguna persona razonable debería estar satisfecha con la respuesta, a menos que esté "bajo las garras de una ideología"; [30] Para que esta respuesta sea remotamente plausible, uno debe dar por sentado que la conciencia puede ser el producto de un "sistema" de procesamiento de información y no requiere nada que se parezca a la biología real del cerebro.
Searle luego responde simplificando esta lista de objetos físicos: pregunta qué sucede si el hombre memoriza las reglas y realiza un seguimiento de todo lo que tiene en la cabeza. Entonces todo el sistema consta de un solo objeto: el hombre mismo. Searle sostiene que si el hombre no entiende chino entonces el sistema tampoco entiende chino porque ahora "el sistema" y "el hombre" describen exactamente el mismo objeto. [30]
Los críticos de la respuesta de Searle argumentan que el programa le ha permitido al hombre tener dos mentes en una sola cabeza. [ ¿OMS? ] Si asumimos que una "mente" es una forma de procesamiento de información, entonces la teoría de la computación puede explicar dos cálculos que ocurren a la vez, a saber (1) el cálculo de la programabilidad universal (que es la función instanciada por la persona y la nota). tomando materiales independientemente del contenido de cualquier programa en particular) y (2) el cálculo de la máquina de Turing que se describe en el programa (que es instanciado por todo, incluido el programa específico). [61] La teoría de la computación explica formalmente la posibilidad abierta de que el segundo cálculo en la Sala China pueda implicar una comprensión semántica de las entradas chinas equivalente a la humana. La atención se centra en la máquina de Turing del programa más que en la de la persona. [62] Sin embargo, desde la perspectiva de Searle, este argumento es circular. La cuestión en cuestión es si la conciencia es una forma de procesamiento de información, y esta respuesta requiere que hagamos esa suposición.

Las versiones más sofisticadas de la respuesta de los sistemas intentan identificar con mayor precisión qué es "el sistema" y difieren en cómo lo describen exactamente. Según estas respuestas, [ ¿quién? ] la "mente que habla chino" podría ser cosas tales como: el "software", un "programa", un "programa en ejecución", una simulación de los "correlatos neuronales de la conciencia", el "sistema funcional", una "mente simulada". mente", una " propiedad emergente " o "una mente virtual " (descrita a continuación).

Respuesta de mente virtual

Marvin Minsky sugirió una versión de la respuesta del sistema conocida como "respuesta de la mente virtual". [r] El término " virtual " se utiliza en informática para describir un objeto que parece existir "en" una computadora (o red de computadoras) sólo porque el software hace que parezca existir. Los objetos "dentro" de las computadoras (incluidos archivos, carpetas, etc.) son todos "virtuales", excepto los componentes electrónicos de la computadora. De manera similar, sostiene Minsky , una computadora puede contener una "mente" que es virtual en el mismo sentido que las máquinas virtuales , las comunidades virtuales y la realidad virtual .
Para aclarar la distinción entre la respuesta del sistema simple dada anteriormente y la respuesta de la mente virtual, David Cole señala que se podrían ejecutar dos simulaciones en un sistema al mismo tiempo: una que habla chino y otra que habla coreano. Si bien existe un solo sistema, puede haber múltiples "mentes virtuales", por lo que el "sistema" no puede ser la "mente". [66]
Searle responde que tal mente es, en el mejor de los casos, una simulación , y escribe: "Nadie supone que las simulaciones por computadora de un incendio de cinco alarmas quemarán el vecindario o que una simulación por computadora de una tormenta nos dejará a todos empapados". [67] Nicholas Fearn responde que, para algunas cosas, la simulación es tan buena como la realidad. "Cuando activamos la función de calculadora de bolsillo en una computadora de escritorio, aparece la imagen de una calculadora de bolsillo en la pantalla. No nos quejamos de que 'no es realmente una calculadora', porque los atributos físicos del dispositivo no asunto." [68] La pregunta es: ¿es la mente humana como la calculadora de bolsillo, compuesta esencialmente de información, donde una simulación perfecta de la cosa es simplemente la cosa? ¿O es la mente como la tormenta, una cosa en el mundo que es más que una simple simulación y que no se puede realizar en su totalidad mediante una simulación por computadora? Durante décadas, esta cuestión de la simulación ha llevado a los investigadores y filósofos de la IA a considerar si el término " inteligencia sintética " es más apropiado que la descripción común de este tipo de inteligencias como "artificiales".

Estas respuestas proporcionan una explicación de exactamente quién entiende chino. Si hay algo además del hombre en la habitación que puede entender chino, Searle no puede argumentar que (1) el hombre no entiende chino, por lo tanto (2) nada en la habitación entiende chino. Esto, según quienes dan esta respuesta, muestra que el argumento de Searle no demuestra que la "IA fuerte" sea falsa. [s]

Sin embargo , estas respuestas, por sí solas, no proporcionan ninguna evidencia de que una IA fuerte sea cierta . No demuestran que el sistema (o la mente virtual) entienda chino, salvo la premisa hipotética de que pasa la prueba de Turing . Searle sostiene que, si vamos a considerar que la IA fuerte es remotamente plausible, la Sala China es un ejemplo que requiere explicación, y es difícil o imposible explicar cómo la conciencia podría "emerger" de la sala o cómo el sistema tendría conciencia. Como escribe Searle, "la respuesta del sistema simplemente plantea la pregunta al insistir en que el sistema debe comprender el chino" [30] y, por lo tanto, elude la pregunta o es irremediablemente circular.

Respuestas del robot y la semántica: encontrar el significado

En lo que respecta a la persona en la habitación, los símbolos son sólo "garabatos" sin sentido. Pero si la sala china realmente "entiende" lo que dice, entonces los símbolos deben obtener su significado de alguna parte. Estos argumentos intentan conectar los símbolos con las cosas que simbolizan. Estas respuestas abordan las preocupaciones de Searle sobre la intencionalidad , la base de los símbolos y la sintaxis frente a la semántica .

respuesta del robot

Supongamos que en lugar de una habitación, el programa se colocara en un robot que pudiera deambular e interactuar con su entorno. Esto permitiría una " conexión causal " entre los símbolos y las cosas que representan. [70] [t] Hans Moravec comenta: "Si pudiéramos injertar un robot en un programa de razonamiento, ya no necesitaríamos que una persona nos proporcionara el significado: vendría del mundo físico". [72] [t]
La respuesta de Searle es suponer que, sin que el individuo en la sala china lo supiera, algunas de las entradas procedían directamente de una cámara montada en un robot, y algunas de las salidas se utilizaban para manipular los brazos y las piernas del robot. Sin embargo, la persona en la habitación sigue las reglas y no sabe lo que significan los símbolos. Searle escribe "no ve lo que entra en los ojos del robot". [74] (Ver la habitación de Mary para ver un experimento mental similar).

Significado derivado

Algunos responden que la sala, como la describe Searle, está conectada con el mundo: a través de los hablantes de chino con los que está "hablando" y a través de los programadores que diseñaron la base de conocimientos en su archivador. Los símbolos que manipula Searle ya tienen significado , pero no lo tienen para él . [75] [v]
Searle dice que los símbolos sólo tienen un significado "derivado", como el significado de las palabras en los libros. El significado de los símbolos depende de la comprensión consciente de los hablantes de chino y de los programadores fuera de la sala. La habitación, como un libro, no tiene comprensión propia. [w]

Conocimiento de sentido común / respuesta contextualista

Algunos han argumentado que los significados de los símbolos provendrían de un vasto "antecedentes" de conocimiento de sentido común codificado en el programa y los archivadores. Esto proporcionaría un " contexto " que daría significado a los símbolos. [73] [x]
Searle está de acuerdo en que estos antecedentes existen, pero no está de acuerdo en que puedan incorporarse a los programas. Hubert Dreyfus también ha criticado la idea de que el "fondo" pueda representarse simbólicamente. [78]

A cada una de estas sugerencias, la respuesta de Searle es la misma: no importa cuánto conocimiento esté escrito en el programa y no importa cómo esté conectado el programa con el mundo, él todavía está en la sala manipulando símbolos de acuerdo con reglas. Sus acciones son sintácticas y esto nunca podrá explicarle qué significan los símbolos. Searle escribe que "la sintaxis es insuficiente para la semántica". [79] [y]

Sin embargo, para aquellos que aceptan que las acciones de Searle simulan una mente separada de la suya, la pregunta importante no es qué significan los símbolos para Searle , lo importante es qué significan para la mente virtual. Si bien Searle está atrapado en la habitación, la mente virtual no lo está: está conectada con el mundo exterior a través de los hablantes de chino con los que habla, a través de los programadores que le dieron conocimiento del mundo y a través de las cámaras y otros sensores que los robóticos pueden suministrar.

Simulación cerebral y respuestas conexionistas: rediseñando la habitación

Todos estos argumentos son versiones de la respuesta de los sistemas que identifican un tipo particular de sistema como importante; Identifican alguna tecnología especial que crearía comprensión consciente en una máquina. (Las respuestas anteriores sobre "robot" y "conocimiento de sentido común" también especifican que cierto tipo de sistema es importante).

Respuesta del simulador cerebral

Supongamos que el programa simulara con gran detalle la acción de cada neurona del cerebro de un hablante de chino. [81] [z] Esto fortalece la intuición de que no habría una diferencia significativa entre el funcionamiento del programa y el funcionamiento de un cerebro humano vivo.
Searle responde que tal simulación no reproduce las características importantes del cerebro: sus estados causales e intencionales. Searle insiste en que "los fenómenos mentales humanos [son] dependientes de las propiedades físico-químicas reales de los cerebros humanos reales". [27] Además, sostiene:

[I]magine que en lugar de un hombre monolingüe en una habitación barajando símbolos, hacemos que el hombre opere un elaborado conjunto de tuberías de agua con válvulas que las conectan. Cuando el hombre recibe los símbolos chinos, busca en el programa, escrito en inglés, qué válvulas debe abrir y cerrar. Cada conexión de agua corresponde a una sinapsis en el cerebro chino, y todo el sistema está preparado para que después de realizar todos los disparos correctos, es decir, después de abrir todos los grifos correctos, las respuestas chinas aparezcan en el extremo de salida de la serie. de tuberías. Ahora bien, ¿dónde está la comprensión en este sistema? Toma chino como entrada, simula la estructura formal de las sinapsis del cerebro chino y da chino como salida. Pero el hombre ciertamente no entiende chino, ni tampoco las pipas de agua, y si estamos tentados a adoptar lo que creo que es la visión absurda de que de alguna manera la conjunción del hombre y las pipas de agua entiende, recordemos que en principio el hombre puede internalizar la estructura formal de las tuberías de agua y realiza todos los "disparos neuronales" en su imaginación. [83]

Dos variaciones de la respuesta del simulador cerebral son el cerebro chino y el escenario de reemplazo del cerebro.

cerebro chino
¿Qué pasaría si le pidiéramos a cada ciudadano chino que simule una neurona, utilizando el sistema telefónico para simular las conexiones entre axones y dendritas ? En esta versión, parece obvio que ningún individuo comprendería lo que podría estar diciendo el cerebro. [84] [aa] También es obvio que este sistema sería funcionalmente equivalente a un cerebro, por lo que si la conciencia es una función, este sistema sería consciente.
Escenario de reemplazo de cerebro
En esto, se nos pide que imaginemos que los ingenieros han inventado una pequeña computadora que simula la acción de una neurona individual. ¿Qué pasaría si reemplazáramos una neurona a la vez? Reemplazar uno claramente no haría nada para cambiar la conciencia. Reemplazarlos todos crearía una computadora digital que simula un cerebro. Si Searle tiene razón, entonces la conciencia debe desaparecer durante el procedimiento (ya sea gradualmente o de golpe). Los críticos de Searle argumentan que no tendría sentido durante el procedimiento si él pudiera afirmar que termina la conciencia y comienza la simulación sin sentido. [86] [ab] [ac] (Ver Barco de Teseo para un experimento mental similar.)

Respuestas conexionistas

Estrechamente relacionado con la respuesta del simulador cerebral, esto afirma que una arquitectura conexionista masivamente paralela sería capaz de comprender. [anuncio] El aprendizaje profundo moderno es enormemente paralelo y ha mostrado con éxito un comportamiento inteligente en muchos dominios. Nils Nilsson sostiene que la IA moderna está utilizando "señales dinámicas" digitalizadas en lugar de "símbolos" del tipo utilizado por la IA en 1980. [49] Aquí es la señal muestreada la que tendría la semántica, no los números individuales manipulados por el programa. . Este es un tipo de máquina diferente a la que Searle visualizó.

Respuesta combinada

Esta respuesta combina la respuesta del robot con la respuesta de simulación cerebral, argumentando que una simulación cerebral conectada al mundo a través de un cuerpo de robot podría tener una mente. [91]

Muchas mansiones / esperar hasta el año que viene respuesta

Una mejor tecnología en el futuro permitirá que las computadoras comprendan. [28] [ae] Searle está de acuerdo en que esto es posible, pero considera que este punto es irrelevante. Searle está de acuerdo en que puede haber otro hardware además del cerebro que tenga comprensión consciente.

Estos argumentos (y las respuestas del robot o del conocimiento de sentido común) identifican alguna tecnología especial que ayudaría a crear comprensión consciente en una máquina. Se pueden interpretar de dos maneras: o afirman (1) que esta tecnología es necesaria para la conciencia, la sala china no implementa o no puede implementar esta tecnología y, por lo tanto, la sala china no puede pasar la prueba de Turing o (incluso si lo hiciera) no tendría comprensión consciente. O pueden estar afirmando que (2) es más fácil ver que la sala china tiene mente si visualizamos esta tecnología como si se utilizara para crearla.

En el primer caso, donde se requieren características como un cuerpo de robot o una arquitectura conexionista, Searle afirma que se ha abandonado la IA fuerte (tal como él la entiende). [af] La sala china tiene todos los elementos de una máquina completa de Turing y, por lo tanto, es capaz de simular cualquier cálculo digital. Si la habitación de Searle no puede pasar la prueba de Turing, entonces no existe ninguna otra tecnología digital que pueda pasar la prueba de Turing. Si la habitación de Searle pudo pasar la prueba de Turing, pero aún no tiene mente, entonces la prueba de Turing no es suficiente para determinar si la habitación tiene una "mente". De cualquier manera, niega una u otra de las posiciones que Searle considera "IA fuerte", lo que demuestra su argumento.

Los argumentos sobre el cerebro, en particular, niegan una IA fuerte si suponen que no hay manera más sencilla de describir la mente que crear un programa que sea tan misterioso como lo era el cerebro. Escribe: "Pensé que la idea de una IA fuerte era que no necesitamos saber cómo funciona el cerebro para saber cómo funciona la mente". [28] Si la computación no proporciona una explicación de la mente humana, entonces la IA fuerte ha fallado, según Searle.

Otros críticos sostienen que la habitación tal como la describió Searle, de hecho, tiene una mente, sin embargo, argumentan que es difícil de ver; la descripción de Searle es correcta, pero engañosa. Al rediseñar la habitación de manera más realista, esperan que esto sea más obvio. En este caso, estos argumentos se utilizan como apelaciones a la intuición (ver la siguiente sección).

De hecho, la habitación se puede rediseñar con la misma facilidad para debilitar nuestras intuiciones. El argumento Blockhead de Ned Block [92] sugiere que el programa podría, en teoría, reescribirse en una simple tabla de búsqueda de reglas de la forma "si el usuario escribe S , responda con P y vaya a X". Al menos en principio, cualquier programa puede reescribirse (o " refactorizarse ") de esta forma, incluso una simulación cerebral. [ag] En el escenario del tonto, todo el estado mental está oculto en la letra X, que representa una dirección de memoria , un número asociado con la siguiente regla. Es difícil visualizar que un instante de la propia experiencia consciente pueda capturarse en un solo gran número, pero esto es exactamente lo que afirma la "IA fuerte". Por otro lado, una tabla de búsqueda de este tipo sería ridículamente grande (hasta el punto de ser físicamente imposible) y, por lo tanto, los estados podrían ser extremadamente específicos.

Searle sostiene que, independientemente de cómo esté escrito el programa o de cómo esté conectada la máquina al mundo, la mente está siendo simulada mediante una simple máquina (o máquinas) digital paso a paso. Estas máquinas son siempre como el hombre de la habitación: no entienden nada y no hablan chino. Simplemente están manipulando símbolos sin saber lo que significan. Searle escribe: "Puedo tener cualquier programa formal que quieras, pero todavía no entiendo nada". [10]

Velocidad y complejidad: apelaciones a la intuición

Los siguientes argumentos (y las interpretaciones intuitivas de los argumentos anteriores) no explican directamente cómo podría existir una mente que habla chino en la habitación de Searle, o cómo los símbolos que manipula podrían volverse significativos. Sin embargo, al poner en duda las intuiciones de Searle, apoyan otras posiciones, como las del sistema y las respuestas del robot. Estos argumentos, si se aceptan, impiden a Searle afirmar que su conclusión es obvia al socavar las intuiciones que requiere su certeza.

Varios críticos creen que el argumento de Searle se basa enteramente en intuiciones. Ned Block escribe: "La fuerza del argumento de Searle depende de intuiciones que ciertas entidades no piensan". [93] Daniel Dennett describe el argumento de la habitación china como una engañosa " bomba de intuición " [94] y escribe: "El experimento mental de Searle depende, ilícitamente, de que imagines un caso demasiado simple, un caso irrelevante, y saques la conclusión 'obvia' de él." [94]

Algunos de los argumentos anteriores también funcionan como apelaciones a la intuición, especialmente aquellos que pretenden hacer que parezca más plausible que la habitación china contenga una mente, que puede incluir el robot, el conocimiento de sentido común, la simulación cerebral y las respuestas conexionistas. Varias de las respuestas anteriores también abordan la cuestión específica de la complejidad. La respuesta conexionista enfatiza que un sistema de inteligencia artificial que funcione tendría que ser tan complejo y tan interconectado como el cerebro humano. La respuesta de sentido común sobre el conocimiento enfatiza que cualquier programa que pasara una prueba de Turing tendría que ser "un sistema extraordinariamente flexible, sofisticado y de múltiples capas, repleto de 'conocimiento mundial' y metaconocimiento y meta-metaconocimiento", como explica Daniel Dennett. . [77]

Respuestas rápidas y complejas

Muchas de estas críticas enfatizan la velocidad y la complejidad del cerebro humano, [ah] que procesa información a 100 mil millones de operaciones por segundo (según algunas estimaciones). [96] Varios críticos señalan que el hombre en la sala probablemente tardaría millones de años en responder a una pregunta simple y requeriría "archivadores" de proporciones astronómicas. [97] Esto pone en duda la claridad de la intuición de Searle.
Una versión especialmente vívida de la respuesta rápida y compleja es la de Paul y Patricia Churchland . Proponen este experimento mental análogo: "Considere una habitación oscura que contiene un hombre que sostiene una barra magnética o un objeto cargado. Si el hombre bombea el imán hacia arriba y hacia abajo, entonces, según la teoría de Maxwell de la luminancia artificial (AL), iniciarán un círculo de ondas electromagnéticas en expansión y, por lo tanto, serán luminosas, pero como bien sabemos todos los que hemos jugado con imanes o bolas cargadas, sus fuerzas (o cualquier otra fuerza), incluso cuando se ponen en movimiento, no producen luminancia en ¡Es inconcebible que puedas constituir una verdadera luminosidad simplemente moviendo fuerzas! [85] El punto de Churchland es que el problema es que tendría que agitar el imán hacia arriba y hacia abajo unos 450 billones de veces por segundo para poder ver algo. [98]
Stevan Harnad critica la velocidad y la complejidad de las respuestas cuando se desvían más allá de nuestras intuiciones. Escribe: "Algunos han hecho un culto a la velocidad y el tiempo, sosteniendo que, cuando se acelera a la velocidad correcta, lo computacional puede hacer una transición de fase a lo mental. Debe quedar claro que no es un contraargumento sino simplemente una especulación ad hoc ( al igual que la opinión de que todo es sólo una cuestión de aumentar hasta el grado correcto de 'complejidad')." [99] [ai]

Searle sostiene que sus críticos también se basan en intuiciones, sin embargo, las intuiciones de sus oponentes no tienen base empírica. Escribe que, para considerar la "respuesta del sistema" como remotamente plausible, una persona debe estar "bajo las garras de una ideología". [30] La respuesta del sistema sólo tiene sentido (para Searle) si se supone que cualquier "sistema" puede tener conciencia, simplemente en virtud de ser un sistema con el comportamiento y las partes funcionales correctas. Esta suposición, sostiene, no es sostenible dada nuestra experiencia de la conciencia.

Otras mentes y zombies: el sinsentido

Varias respuestas sostienen que el argumento de Searle es irrelevante porque sus suposiciones sobre la mente y la conciencia son erróneas. Searle cree que los seres humanos experimentan directamente su conciencia, intencionalidad y la naturaleza de la mente todos los días, y que esta experiencia de la conciencia no está abierta a dudas. Escribe que debemos "presuponer la realidad y la cognoscibilidad de lo mental". [102] Las respuestas siguientes cuestionan si Searle está justificado al utilizar su propia experiencia de la conciencia para determinar que es más que un procesamiento mecánico de símbolos. En particular, la respuesta de otras mentes sostiene que no podemos usar nuestra experiencia de la conciencia para responder preguntas sobre otras mentes (incluso la mente de una computadora), las respuestas del epifenoma cuestionan si podemos presentar algún argumento sobre algo como la conciencia que no puede , por definición, puede ser detectado por cualquier experimento, y la respuesta materialista eliminativa sostiene que la propia conciencia personal de Searle no "existe" en el sentido en que Searle cree que existe.

Otras mentes responden

La "Respuesta de otras mentes" señala que el argumento de Searle es una versión del problema de las otras mentes , aplicado a las máquinas. No hay manera de que podamos determinar si la experiencia subjetiva de otras personas es la misma que la nuestra. Sólo podemos estudiar su comportamiento (es decir, dándoles nuestra propia prueba de Turing ). Los críticos de Searle argumentan que está manteniendo la sala china a un nivel más alto del que le exigiríamos a una persona común y corriente. [103] [aj]
Nils Nilsson escribe: "Si un programa se comporta como si se estuviera multiplicando, la mayoría de nosotros diría que, de hecho, se está multiplicando. Por lo que sé, es posible que Searle sólo se esté comportando como si estuviera pensando profundamente en estos asuntos. Pero, Aunque no estoy de acuerdo con él, su simulación es bastante buena, así que estoy dispuesto a darle crédito por su pensamiento real". [105]
Alan Turing anticipó la línea argumental de Searle (a la que llamó "El argumento de la conciencia") en 1950 y hace que las otras mentes respondan. [106] Observó que las personas nunca consideran el problema de otras mentes cuando tratan entre sí. Escribe que "en lugar de discutir continuamente sobre este punto, lo habitual es tener la cortés convención de que todo el mundo piensa". [107] La ​​prueba de Turing simplemente extiende esta "convención educada" a las máquinas. No pretende resolver el problema de otras mentes (de máquinas o personas) y no cree que sea necesario hacerlo. [Alaska]

Responde considerando que la "conciencia" de Searle es indetectable

Si aceptamos la descripción que hace Searle de la intencionalidad, la conciencia y la mente, nos vemos obligados a aceptar que la conciencia es un epifenomenal : que "no proyecta sombra", es decir, que es indetectable en el mundo exterior. Las "propiedades causales" de Searle no pueden ser detectadas por nadie fuera de la mente; de ​​lo contrario, la Sala China no podría pasar la prueba de Turing : la gente de afuera podría decir que no había ningún hablante de chino en la sala al detectar sus propiedades causales. Como no pueden detectar propiedades causales, no pueden detectar la existencia de lo mental. Por tanto, las "propiedades causales" de Searle y la conciencia misma son indetectables, y cualquier cosa que no pueda detectarse no existe o no importa.
Mike Alder llama a esto la "Respuesta de la espada láser llameante de Newton". Sostiene que todo el argumento es frívolo, porque no es verificacionista : no sólo está mal definida la distinción entre simular una mente y tener una mente, sino que también es irrelevante porque no se propuso, ni siquiera se puede proponer, ningún experimento para distinguir entre los dos. [109]
Daniel Dennett proporciona este ejemplo: supongamos que, por alguna mutación, nace un ser humano que no tiene las "propiedades causales" de Searle pero que, sin embargo, actúa exactamente como un ser humano. (Este tipo de animal se llama " zombi " en los experimentos mentales de la filosofía de la mente ). Este nuevo animal se reproduciría como cualquier otro humano y eventualmente habría más zombis. La selección natural favorecería a los zombies, ya que su diseño es (podríamos suponer) un poco más simple. Con el tiempo, los humanos se extinguirían. Por lo tanto, si Searle tiene razón, lo más probable es que los seres humanos (tal como los vemos hoy) sean en realidad "zombis", que, sin embargo, insisten en que son conscientes. Es imposible saber si todos somos zombies o no. Incluso si todos fuéramos zombies, seguiríamos creyendo que no lo somos. [110]

Respuesta materialista eliminatoria

Varios filósofos sostienen que la conciencia, como la describe Searle, no existe. Daniel Dennett describe la conciencia como una " ilusión del usuario ". [111]
Esta posición a veces se conoce como materialismo eliminativo : la visión de que la conciencia no es un concepto que pueda "disfrutar de una reducción" a una descripción estrictamente mecánica (es decir, material), sino que es más bien un concepto que simplemente será eliminado una vez que el cerebro material obras se comprende plenamente, del mismo modo que el concepto de demonio ya ha sido eliminado de la ciencia en lugar de ser reducido a una descripción estrictamente mecánica. Otras propiedades mentales, como la intencionalidad original (también llamada “significado”, “contenido” y “carácter semántico”), también se consideran comúnmente como propiedades especiales relacionadas con creencias y otras actitudes proposicionales. El materialismo eliminativo sostiene que no existen actitudes proposicionales como creencias y deseos, entre otros estados mentales intencionales que tienen contenido. Si el materialismo eliminativo es la explicación científica correcta de la cognición humana, entonces debe rechazarse el supuesto del argumento chino de que "las mentes tienen contenidos mentales ( semántica )". [112]

Searle no está de acuerdo con este análisis y sostiene que "el estudio de la mente comienza con hechos tales como que los humanos tienen creencias, mientras que los termostatos, los teléfonos y las máquinas sumadoras no... lo que queríamos saber es qué distingue la mente de los termostatos". e hígados." [74] Considera obvio que podemos detectar la presencia de conciencia y descarta estas respuestas por considerarlas fuera de lugar.

Otras respuestas

Margaret Boden argumentó en su artículo "Escapar de la habitación china" que incluso si la persona en la habitación no entiende el chino, eso no significa que no haya comprensión en la habitación. La persona en la sala al menos comprende el libro de reglas utilizado para proporcionar respuestas. [113]

En la cultura popular

El argumento de la habitación china es un concepto central en las novelas Blindsight y (en menor medida) Echopraxia de Peter Watts . [114] Greg Egan ilustra el concepto de manera sucinta (y algo horrible) en su cuento de 1990 Learning to Be Me, en su colección Axiomatic .

Es un tema central en el videojuego Zero Escape: Virtue's Last Reward y se relaciona con la narrativa del juego. [115]

En la novela de Liu Cixin El problema de los tres cuerpos se imagina una computadora humana similar , descrita así por Philip Steiner: "una computadora humana masiva que instrumentaliza a millones de soldados [que] asumen el papel de entrada y salida de señales y son instruidos para realizar diferentes circuitos lógicos, como una puerta AND y una puerta OR". [116] [al]

Ver también

Notas

  1. ^ abc Ver § Conciencia, que analiza la relación entre el argumento de la habitación china y la conciencia.
  2. ^ No debe confundirse con la inteligencia artificial general , a la que a veces también se la denomina "IA fuerte". Consulte § Investigación sólida entre IA y IA.
  3. ^ ab Esta versión es de Mind, Language and Society de Searle [20] y también se cita en Consciousness Objectives de Daniel Dennett . [21] La formulación original de Searle era "La computadora apropiadamente programada es realmente una mente, en el sentido de que se puede decir literalmente que las computadoras que reciben los programas correctos comprenden y tienen otros estados cognitivos". [22] Stuart Russell y Peter Norvig definen de manera similar la IA fuerte : "IA débil - la idea de que las máquinas podrían actuar como si fueran inteligentes - e IA fuerte - las afirmaciones que lo hacen son en realidad pensamientos conscientes (no solo simulando el pensamiento)". [23]
  4. ^ Searle escribe que "según Strong AI, la simulación correcta es realmente una mente. Según Weak AI, la simulación correcta es un modelo de la mente". [8] También escribe: "Desde el punto de vista de la IA fuerte, la computadora apropiadamente programada no sólo simula tener una mente; literalmente tiene una mente". [9]
  5. ^ ab Searle escribe: "Los partidarios de una IA fuerte afirman que en esta secuencia de preguntas y respuestas la máquina no solo simula una habilidad humana sino también (1) que se puede decir literalmente que la máquina comprende la historia y proporciona las respuestas a las preguntas, y (2) que lo que hacen la máquina y su programa explica la capacidad humana de comprender la historia y responder preguntas sobre ella". [7]
  6. ^ Tenga en cuenta que Leibniz se oponía a una teoría "mecánica" de la mente (la posición filosófica conocida como mecanismo ). Searle se opone a una visión de la mente de "procesamiento de información" (la posición filosófica conocida como " computacionalismo "). Searle acepta el mecanicismo y rechaza el computacionalismo.
  7. ^ Harnad editó BBS durante los años en los que se introdujo y popularizó el argumento de la Habitación China.
  8. ^ ab Stevan Harnad sostiene que el argumento de Searle va en contra de la tesis que "desde entonces se ha llamado 'computacionalismo', según la cual la cognición es solo computación, por lo tanto, los estados mentales son solo estados computacionales". [18] David Cole está de acuerdo en que "el argumento también tiene amplias implicaciones para las teorías funcionalistas y computacionales del significado y de la mente". [19]
  9. ^ Searle cree que "una IA fuerte sólo tiene sentido dada la suposición dualista de que, en lo que respecta a la mente, el cerebro no importa". [27] Escribe en otra parte: "Pensé que la idea de una IA fuerte era que no necesitamos saber cómo funciona el cerebro para saber cómo funciona la mente". [28] Esta posición debe su redacción a Stevan Harnad. [29]
  10. "Uno de los puntos en discusión", escribe Searle, "es la idoneidad de la prueba de Turing". [30]
  11. ^ El computacionalismo está asociado con Jerry Fodor y Hilary Putnam , [33] y está en manos de Allen Newell , [29] Zenon Pylyshyn [29] y Steven Pinker , [34] entre otros.
  12. ^ Vea las respuestas a Searle en Sin sentido, a continuación.
  13. ^ Larry Hauser escribe que "el naturalismo biológico es confuso (debatiéndose entre teoría de la identidad y dualismo) o simplemente es teoría de la identidad o dualismo". [38]
  14. ^ La redacción de cada axioma y conclusión proviene de la presentación de Searle en Scientific American . [54] [55] (A1-3) y (C1) se describen como 1,2,3 y 4 en David Cole. [56]
  15. ^ Paul y Patricia Churchland escriben que el experimento mental de la habitación china tiene como objetivo "apuntalar el axioma 3". [57]
  16. ^ David Cole combina la segunda y tercera categoría, así como la cuarta y quinta. [58]
  17. ^ Las versiones de la respuesta del sistema están en manos de Ned Block , Jack Copeland , Daniel Dennett , Jerry Fodor , John Haugeland , Ray Kurzweil y Georges Rey , entre otros. [60]
  18. ^ La respuesta de la mente virtual está en manos de Marvin Minsky , [63] [64] Tim Maudlin , David Chalmers y David Cole. [sesenta y cinco]
  19. ^ David Cole escribe: "A partir de la intuición de que en el experimento mental de CR no entendería chino al ejecutar un programa, Searle infiere que no se crea ninguna comprensión al ejecutar un programa. Claramente, si esa inferencia es válida o no, depende de una metafísica pregunta sobre la identidad de las personas y las mentes. Si la persona que entiende no es idéntica al operador de la sala, entonces la inferencia es errónea." [69]
  20. Este cargo lo ocupan Margaret Boden , Tim Crane , Daniel Dennett , Jerry Fodor , Stevan Harnad , Hans Moravec y Georges Rey , entre otros. [71]
  21. ^ David Cole llama a esto la explicación "externalista" del significado. [73]
  22. ^ La respuesta del significado derivado está asociada con Daniel Dennett y otros.
  23. ^ Searle distingue entre intencionalidad "intrínseca" e intencionalidad "derivada". La intencionalidad "intrínseca" es la que implica una "comprensión consciente" como la que tendría en una mente humana. Daniel Dennett no está de acuerdo en que exista una distinción. David Cole escribe que "la intencionalidad derivada es todo lo que hay, según Dennett". [76]
  24. ^ David Cole describe esto como el enfoque "internalista" del significado. [73] Los defensores de esta posición incluyen a Roger Schank , Doug Lenat , Marvin Minsky y (con reservas) Daniel Dennett , quien escribe: "El hecho es que cualquier programa [que pasara una prueba de Turing] tendría que ser extraordinariamente flexible, sofisticado, y un sistema de múltiples capas, repleto de 'conocimiento mundial' y meta-conocimiento y meta-meta-conocimiento". [77]
  25. Searle también escribe: "Los símbolos formales por sí solos nunca pueden ser suficientes para los contenidos mentales, porque los símbolos, por definición, no tienen significado (o interpretación , o semántica) excepto en la medida en que alguien fuera del sistema se los da". [80]
  26. La respuesta de la simulación cerebral fue realizada por Paul Churchland , Patricia Churchland y Ray Kurzweil . [82]
  27. Las primeras versiones de este argumento fueron presentadas en 1974 por Lawrence Davis y en 1978 por Ned Block . La versión de Block usaba walkie talkies y se llamaba "Gimnasio chino". Paul y Patricia Churchland también describieron este escenario. [85]
  28. ^ Clark Glymour propuso una versión temprana del escenario de reemplazo cerebral a mediados de los años 70 y Zenon Pylyshyn la abordó en 1980. Hans Moravec presentó una versión vívida del mismo, [87] y ahora está asociada con Ray Kurzweil La versión del transhumanismo de .
  29. ^ Searle no considera el escenario de reemplazo de cerebro como un argumento contra la CRA; sin embargo, en otro contexto, Searle examina varias soluciones posibles, incluida la posibilidad de que "descubras, para tu total asombro, que de hecho estás perdiendo el control de tu comportamiento externo". ... Descubres, por ejemplo, que cuando los médicos examinan tu visión, les oyes decir: "Estamos sosteniendo un objeto rojo frente a ti; por favor, cuéntanos lo que ves". Quieres gritar: "No puedo ver nada. Me estoy quedando totalmente ciego". Pero escuchas tu voz decir de una manera que está completamente fuera de tu control: "Veo un objeto rojo frente a mí". [...] [Tu] experiencia consciente se reduce lentamente a nada, mientras que tu comportamiento observable externamente sigue siendo el mismo". [88]
  30. ^ La respuesta conexionista la hacen Andy Clark y Ray Kurzweil , [89] así como Paul y Patricia Churchland . [90]
  31. ^ Searle (2009) utiliza el nombre "Esperar hasta la respuesta del año que viene".
  32. ^ Searle escribe que la respuesta del robot "concede tácitamente que la cognición no es únicamente una cuestión de manipulación de símbolos formales". [74] Stevan Harnad hace el mismo punto, escribiendo: "Ahora bien, así como no es una refutación (sino más bien una afirmación) de la CRA negar que [la prueba de Turing] es una prueba lo suficientemente fuerte, o negar que una computadora podría alguna vez lo apruebe, es simplemente un alegato especial para tratar de salvar el computacionalismo estipulando ad hoc (frente a la CRA) que los detalles de implementación sí importan después de todo, y que la computadora es el tipo de implementación "correcto", mientras que la de Searle es del tipo 'incorrecto'." [51]
  33. ^ Es decir, cualquier programa que se ejecute en una máquina con una cantidad finita de memoria.
  34. ^ Daniel Dennett , Tim Maudlin , David Chalmers , Steven Pinker , Paul Churchland , Patricia Churchland y otros dan respuestas rápidas y complejas . [95] Daniel Dennett señala la complejidad del conocimiento mundial. [77]
  35. ^ Los críticos de la forma de "transición de fase" de este argumento incluyen a Stevan Harnad, Tim Maudlin , Daniel Dennett y David Cole. [95] Esta idea de "transición de fase" es una versión de emergentismo fuerte (lo que Daniel Dennett se burla como "woo woo emergencia de la costa oeste" [100] ). Harnad acusa a Churchland y Patricia Churchland de abrazar un fuerte emergentismo. Ray Kurzweil también sostiene una forma de emergentismo fuerte. [101]
  36. La respuesta de "otras mentes" la han ofrecido Daniel Dennett , Ray Kurzweil y Hans Moravec , entre otros. [104]
  37. ^ Una de las motivaciones de Turing para idear la prueba de Turing es evitar precisamente el tipo de problemas filosóficos que le interesan a Searle. Escribe: "No deseo dar la impresión de que creo que no hay ningún misterio... [pero] yo "No creo que estos misterios necesariamente deban resolverse antes de que podamos responder la pregunta que nos ocupa en este artículo". [108]
  38. ^ "Por último, el intento más elaborado dentro del juego para resolver el problema de los tres cuerpos lo llevan a cabo Von Neumann y Newton, quienes crean una computadora humana masiva instrumentalizando a millones de soldados de King (págs. 227-228). Estos soldados toman el papel de la entrada y salida de señales y se les instruye para realizar diferentes circuitos lógicos, como una puerta Y y una puerta O (págs. 229-230) 6. Finalmente, se demuestra que un ejército masivo de 30 millones de soldados realiza estos circuitos lógicos. , actuando como una computadora formada por seres humanos (págs. 234-235). En términos de la representación visual de una solución al problema de los tres cuerpos en física, esta sección es especialmente significativa ya que el vocabulario repentinamente cambia hacia lo típico. jerga informática: ahora hay una “CPU central”, una “placa base” con “componentes parpadeantes” (p. 235), un “módulo de cálculo diferencial” y un largo “cálculo” [116] .

Citas

  1. ^ ab Searle 1980.
  2. ^ ab Harnad 2001, pág. 1.
  3. ^ Roberts 2016.
  4. ^ abc Searle 1992, pag. 44.
  5. ^ abc Russell y Norvig 2021, pag. 986.
  6. ^ abc Searle 1980, pag. 11.
  7. ^ ab Searle 1980, pág. 2.
  8. ^ ab Searle 2009, pág. 1.
  9. ^ Searle 2004, pág. 66.
  10. ^ ab Searle 1980, pág. 3.
  11. ^ Cole 2004, 2.1; Leibniz 1714, sección 17.
  12. ^ "Una historia de la Sala China Rusa anterior a la discusión de Searle en 1980". Centro de Estudios de la Conciencia . 15 de junio de 2018. Archivado desde el original el 16 de mayo de 2021 . Consultado el 9 de enero de 2019 .
  13. ^ Cole 2004, 2.3.
  14. ^ Cole 2004, pag. 2; Preston y obispo 2002
  15. ^ ab Harnad 2001, pág. 2.
  16. ^ Harnad 2001, pag. 1; Cole 2004, pág. 2
  17. ^ Akmán 1998.
  18. ^ Harnad 2005, pag. 1.
  19. ^ Cole 2004, pag. 1.
  20. ^ Searle 1999, pág. [ página necesaria ] .
  21. ^ Dennett 1991, pag. 435.
  22. ^ Searle 1980, pag. 1.
  23. ^ ab Russell y Norvig 2021, pág. 981.
  24. ^ Citado en McCorduck 2004, p. 138.
  25. ^ Citado en Crevier 1993, p. 46
  26. ^ Haugeland 1985, pag. 2 (cursiva suya)
  27. ^ abc Searle 1980, pag. 13.
  28. ^ abc Searle 1980, pag. 8.
  29. ^ abcd Harnad 2001.
  30. ^ abcdefg Searle 1980, pág. 6.
  31. ^ Searle 2004, pág. 45.
  32. ^ Harnad 2001, pag. 3 (cursiva suya)
  33. ^ Horst 2005, pág. 1.
  34. ^ Más rosado 1997.
  35. ^ Harnad 2001, págs. 3-5.
  36. ^ Searle 1990a, pág. 29.
  37. ^ Searle 1990b.
  38. ^ a b C Hauser 2006, pag. 8.
  39. ^ Searle 1992, cap. 5.
  40. ^ Searle 2002.
  41. ^ Chalmers 1996, pág. 322.
  42. ^ McGinn 2000.
  43. ^ Nuevo 2016.
  44. ^ Kurzweil 2005, pág. 260.
  45. ^ Saygin, Cicekli y Akman 2000.
  46. ^ ab Turing 1950.
  47. ^ Newell y Simon 1976, pág. 116.
  48. ^ Russell y Norvig 2021, pag. 19.
  49. ^ ab Nilsson 2007.
  50. ^ Turing 1950, pag. 442.
  51. ^ ab Harnad 2001, pág. 14.
  52. ^ Ben-Yami 1993.
  53. ^ Searle 1984; Searle 1990a.
  54. ^ ab Searle 1990a.
  55. ^ Hauser 2006, pag. 5.
  56. ^ Cole 2004, pag. 5.
  57. ^ Churchland y Churchland 1990, pág. 34.
  58. ^ Cole 2004, págs. 5–6.
  59. ^ Searle 1980, págs. 5-6; Cole 2004, págs. 6–7; Hauser 2006, págs. 2-3; Dennett 1991, pág. 439; Miedo 2007, pág. 44; Crevier 1993, pág. 269.
  60. ^ Cole 2004, pag. 6.
  61. ^ Sí 1993, pag. 44, nota al pie 2.
  62. ^ Sí, 1993, págs. 42–47.
  63. ^ Minsky 1980, pag. 440.
  64. ^ Cole 2004, pag. 7.
  65. ^ Cole 2004, págs. 7–9.
  66. ^ Cole 2004, pag. 8.
  67. ^ Searle 1980, pag. 12.
  68. ^ Miedo 2007, pag. 47.
  69. ^ Cole 2004, pag. 21.
  70. ^ Searle 1980, pag. 7; Cole 2004, págs. 9-11; Hauser 2006, pág. 3; Miedo 2007, pág. 44.
  71. ^ Cole 2004, pag. 9.
  72. ^ Citado en Crevier 1993, p. 272
  73. ^ abc Cole 2004, pag. 18.
  74. ^ abc Searle 1980, pag. 7.
  75. ^ Hauser 2006, pag. 11; Cole 2004, pág. 19.
  76. ^ Cole 2004, pag. 19.
  77. ^ abc Dennett 1991, pag. 438.
  78. ^ Dreyfus 1979, "El supuesto epistemológico ".
  79. ^ Searle 1984.
  80. ^ Motzkin y Searle 1989, pág. 45.
  81. ^ Searle 1980, págs. 7–8; Cole 2004, págs. 12-13; Hauser 2006, págs. 3–4; Churchland y Churchland 1990.
  82. ^ Cole 2004, pag. 12.
  83. ^ Searle 1980, pag. [ página necesaria ] .
  84. ^ Cole 2004, pag. 4; Hauser 2006, pág. 11.
  85. ^ ab Churchland y Churchland 1990.
  86. ^ Cole 2004, pag. 20; Moravec 1988; Kurzweil 2005, pág. 262; Crevier 1993, págs.271 y 279.
  87. ^ Moravec 1988.
  88. ^ Searle 1992.
  89. ^ Cole 2004, págs.12 y 17.
  90. ^ Hauser 2006, pag. 7.
  91. ^ Searle 1980, págs. 8-9; Hauser 2006, pág. 11.
  92. ^ Bloque 1981.
  93. ^ Citado en Cole 2004, p. 13.
  94. ^ ab Dennett 1991, págs. 437–440.
  95. ^ ab Cole 2004, pág. 14.
  96. ^ Crevier 1993, pag. 269.
  97. ^ Cole 2004, págs. 14-15; Crevier 1993, págs. 269-270; Rosado 1997, pág. 95.
  98. ^ Churchland y Churchland 1990; Cole 2004, pág. 12; Crevier 1993, pág. 270; Miedo 2007, págs. 45–46; Rosado 1997, pág. 94.
  99. ^ Harnad 2001, pag. 7.
  100. ^ Crevier 1993, pag. 275.
  101. ^ Kurzweil 2005.
  102. ^ Searle 1980, pag. 10.
  103. ^ Searle 1980, pag. 9; Cole 2004, pág. 13; Hauser 2006, págs. 4-5; Nilson 1984.
  104. ^ Cole 2004, págs. 12-13.
  105. ^ Nilsson 1984.
  106. ^ Turing 1950, págs. 11-12.
  107. ^ Turing 1950, pag. 11.
  108. ^ Turing 1950, pag. 12.
  109. ^ Aliso 2004.
  110. ^ Cole 2004, pag. 22; Crevier 1993, pág. 271; Harnad 2005, pág. 4.
  111. ^ Dennett 1991, [ página necesaria ] .
  112. ^ Ramsey 2022.
  113. ^ Margaret A. Boden (1988). "Escapando del salón chino". En John Heil (ed.). Modelos informáticos de la mente . Prensa de la Universidad de Cambridge. ISBN 9780521248686.
  114. ^ Whitmarsh 2016.
  115. ^ "Crítico de juego de dos minutos: la última recompensa de la virtud y la sala china". 30 de julio de 2016. Archivado desde el original el 9 de julio de 2021 . Consultado el 7 de julio de 2021 .
  116. ^ por Steiner 2022.

Referencias

Los números de página anteriores se refieren a una impresión PDF estándar del artículo.
Los números de página anteriores se refieren a una impresión PDF estándar del artículo.
Los números de página anteriores se refieren a una impresión PDF estándar del artículo.
Los números de página anteriores se refieren a una impresión PDF estándar del artículo.
Los números de página anteriores se refieren a una impresión PDF estándar del artículo. Véase también el borrador original de Searle.
Los números de página anteriores se refieren a una impresión PDF estándar del artículo.
Los números de página anteriores y el contenido del diagrama se refieren a la impresión del artículo en PDF de Lyceum.

Otras lecturas