stringtranslate.com

Habitación china

El argumento de la habitación china sostiene que una computadora que ejecuta un programa no puede tener una mente , entendimiento o conciencia , [a] independientemente de cuán inteligente o similar a lo humano pueda hacer el programa que la computadora se comporte. El argumento fue presentado en un artículo de 1980 por el filósofo John Searle titulado "Mentes, cerebros y programas" y publicado en la revista Behavioral and Brain Sciences . [1] Antes de Searle, argumentos similares habían sido presentados por figuras como Gottfried Wilhelm Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis (1974) y Ned Block (1978). La versión de Searle ha sido ampliamente discutida en los años posteriores. [2] La pieza central del argumento de Searle es un experimento mental conocido como la habitación china . [3]

El experimento mental comienza colocando un ordenador que puede conversar perfectamente en chino en una habitación y un humano que sólo sabe inglés en otra, con una puerta que los separa. Se escriben caracteres chinos y se colocan en un trozo de papel debajo de la puerta, y el ordenador puede responder con fluidez, deslizando la respuesta por debajo de la puerta. A continuación, el humano recibe instrucciones en inglés que replican las instrucciones y la función del programa informático para conversar en chino. El humano sigue las instrucciones y las dos habitaciones pueden comunicarse perfectamente en chino, pero el humano sigue sin entender realmente los caracteres, simplemente sigue las instrucciones para conversar. Searle afirma que tanto el ordenador como el humano están realizando tareas idénticas, siguiendo instrucciones sin comprender o "pensar" realmente.

El argumento se dirige contra las posiciones filosóficas del funcionalismo y el computacionalismo [4] , que sostienen que la mente puede ser vista como un sistema de procesamiento de información que opera sobre símbolos formales, y que la simulación de un estado mental dado es suficiente para su presencia. Específicamente, el argumento pretende refutar una posición que Searle llama la hipótesis de la IA fuerte : [b] "La computadora programada adecuadamente con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido en que los seres humanos tienen mente". [c]

Aunque sus defensores presentaron originalmente el argumento como reacción a las declaraciones de los investigadores de inteligencia artificial (IA), no es un argumento en contra de los objetivos de la investigación convencional sobre IA porque no muestra un límite en la cantidad de comportamiento inteligente que una máquina puede mostrar. [5] El argumento se aplica solo a las computadoras digitales que ejecutan programas y no se aplica a las máquinas en general. [6]

El experimento mental de Searle

Supongamos que la investigación en inteligencia artificial ha logrado programar una computadora para que se comporte como si entendiera chino. La máquina acepta caracteres chinos como entrada, ejecuta cada instrucción del programa paso a paso y luego produce caracteres chinos como salida. La máquina hace esto tan perfectamente que nadie puede decir que se está comunicando con una máquina y no con un ser humano oculto.

Las preguntas en cuestión son las siguientes: ¿la máquina entiende realmente la conversación? ¿O simplemente está simulando la capacidad de entender la conversación? ¿Tiene la máquina una mente exactamente en el mismo sentido que la tenemos las personas o simplemente actúa como si tuviera una mente?

Ahora supongamos que Searle está en una habitación con una versión en inglés del programa, junto con suficientes lápices, papel, borradores y archivadores. Se deslizan caracteres chinos por debajo de la puerta, él sigue el programa paso a paso, que finalmente le indica que deslice otros caracteres chinos por debajo de la puerta. Si el ordenador hubiera pasado la prueba de Turing de esta manera, se deduce que Searle también lo haría, simplemente ejecutando el programa a mano.

Searle afirma que no existe una diferencia esencial entre el papel que desempeñan la computadora y él mismo en el experimento. Cada uno simplemente sigue un programa, paso a paso, produciendo un comportamiento que los hace parecer que comprenden. Sin embargo, Searle no podría entender la conversación. Por lo tanto, argumenta, se deduce que la computadora tampoco podría entender la conversación.

Searle sostiene que, sin “comprensión” (o “ intencionalidad ”), no podemos describir lo que hace la máquina como “pensamiento” y, puesto que no piensa, no tiene una “mente” en el sentido normal de la palabra. Por lo tanto, concluye que la hipótesis fuerte de la IA es falsa.

Historia

En 1714, Gottfried Leibniz formuló un argumento similar contra el mecanicismo (la idea de que todo lo que constituye a un ser humano podría, en principio, explicarse en términos mecánicos. En otras palabras, que una persona, incluida su mente, es simplemente una máquina muy compleja). Leibniz utilizó el experimento mental de expandir el cerebro hasta que tuviera el tamaño de un molino. [7] A Leibniz le resultaba difícil imaginar que una "mente" capaz de "percepción" pudiera construirse utilizando únicamente procesos mecánicos. [d]

Peter Winch planteó el mismo punto en su libro La idea de una ciencia social y su relación con la filosofía (1958), donde ofrece un argumento para demostrar que "un hombre que entiende chino no es un hombre que tenga una comprensión firme de las probabilidades estadísticas de la aparición de las diversas palabras del idioma chino" (p. 108).

En 1961, el cibernético soviético Anatoly Dneprov formuló un argumento esencialmente idéntico en forma de cuento corto “ El juego ”. En él, un estadio de personas actúa como interruptores y células de memoria que implementan un programa para traducir una frase en portugués, un idioma que ninguno de ellos conoce. [8] El juego fue organizado por un “profesor Zarubin” para responder a la pregunta “¿Pueden pensar las máquinas matemáticas?”. Hablando a través de Zarubin, Dneprov escribe que “la única manera de demostrar que las máquinas pueden pensar es convertirse en una máquina y examinar su proceso de pensamiento” y concluye, como lo hace Searle, “Hemos demostrado que incluso la simulación más perfecta del pensamiento de una máquina no es el proceso de pensamiento en sí mismo”.

En 1974, Lawrence H. Davis imaginó la posibilidad de duplicar el cerebro mediante líneas telefónicas y oficinas atendidas por personas, y en 1978 Ned Block imaginó a toda la población de China involucrada en una simulación cerebral de ese tipo. Este experimento mental se denomina el cerebro de China , también la "nación china" o el "gimnasio chino". [9]

John Searle en diciembre de 2005

La versión de Searle apareció en su artículo de 1980 "Minds, Brains, and Programs", publicado en Behavioral and Brain Sciences . [1] Con el tiempo se convirtió en el "artículo de mayor influencia" de la revista, [2] generando una enorme cantidad de comentarios y respuestas en las décadas siguientes, y Searle ha seguido defendiendo y refinando el argumento en muchos artículos, artículos populares y libros. David Cole escribe que "el argumento de la habitación china ha sido probablemente el argumento filosófico más discutido en la ciencia cognitiva que ha aparecido en los últimos 25 años". [10]

La mayor parte de la discusión consiste en intentos de refutarlo. "La abrumadora mayoría", señala el editor de Behavioral and Brain Sciences, Stevan Harnad , [e] "todavía piensa que el argumento de la habitación china es totalmente erróneo". [11] La gran cantidad de literatura que ha surgido en torno a él inspiró a Pat Hayes a comentar que el campo de la ciencia cognitiva debería redefinirse como "el programa de investigación en curso para demostrar que el argumento de la habitación china de Searle es falso". [12]

Según Harnad, el argumento de Searle se ha convertido en "una especie de clásico en la ciencia cognitiva". [11] Varol Akman está de acuerdo y ha descrito el artículo original como "un ejemplo de claridad y pureza filosófica". [13]

Filosofía

Aunque el argumento de la habitación china se presentó originalmente como reacción a las declaraciones de los investigadores de inteligencia artificial , los filósofos han llegado a considerarlo como una parte importante de la filosofía de la mente . Es un desafío al funcionalismo y a la teoría computacional de la mente , [f] y está relacionado con cuestiones como el problema mente-cuerpo , el problema de las otras mentes , el problema de la conexión a tierra de los símbolos y el difícil problema de la conciencia . [a]

IA fuerte

Searle identificó una posición filosófica que llama "IA fuerte":

La computadora adecuadamente programada con las entradas y salidas correctas tendría entonces una mente exactamente en el mismo sentido en que los seres humanos tienen mente. [c]

La definición depende de la distinción entre simular una mente y realmente tener una. Searle escribe que “según la IA fuerte, la simulación correcta es realmente una mente. Según la IA débil, la simulación correcta es un modelo de la mente”. [20]

La afirmación está implícita en algunas de las declaraciones de los primeros investigadores y analistas de IA. Por ejemplo, en 1955, el fundador de la IA, Herbert A. Simon, declaró que "ahora hay en el mundo máquinas que piensan, que aprenden y crean". [21] Simon, junto con Allen Newell y Cliff Shaw , después de haber completado el primer programa que podía hacer razonamiento formal (el Logic Theorist ), afirmó que habían "resuelto el venerable problema mente-cuerpo, explicando cómo un sistema compuesto de materia puede tener las propiedades de la mente". [22] John Haugeland escribió que "la IA solo quiere el artículo genuino: máquinas con mentes , en el sentido pleno y literal. Esto no es ciencia ficción, sino ciencia real, basada en una concepción teórica tan profunda como atrevida: a saber, somos, en el fondo, computadoras nosotros mismos ". [23]

Searle también atribuye las siguientes afirmaciones a los defensores de la IA fuerte:

La IA fuerte como computacionalismo o funcionalismo

En presentaciones más recientes del argumento de la habitación china, Searle ha identificado la "IA fuerte" como " funcionalismo informático " (un término que atribuye a Daniel Dennett ). [4] [28] El funcionalismo es una posición en la filosofía moderna de la mente que sostiene que podemos definir los fenómenos mentales (como creencias, deseos y percepciones) describiendo sus funciones en relación entre sí y con el mundo exterior. Debido a que un programa de computadora puede representar con precisión las relaciones funcionales como relaciones entre símbolos, una computadora puede tener fenómenos mentales si ejecuta el programa correcto, según el funcionalismo.

Stevan Harnad sostiene que las descripciones de Searle de la IA fuerte pueden reformularse como "principios reconocibles del computacionalismo , una posición (a diferencia de la "IA fuerte") que en realidad sostienen muchos pensadores y, por lo tanto, vale la pena refutar". [29] El computacionalismo [i] es la posición en la filosofía de la mente que sostiene que la mente puede describirse con precisión como un sistema de procesamiento de información .

Cada uno de los siguientes, según Harnad, es un "principio" del computacionalismo: [32]

IA fuerte vs. naturalismo biológico

Searle mantiene una postura filosófica que denomina " naturalismo biológico ": la conciencia [a] y el entendimiento requieren una maquinaria biológica específica que se encuentra en el cerebro. Escribe que "los cerebros causan mentes" [33] y que "los fenómenos mentales humanos reales [son] dependientes de las propiedades físico-químicas reales de los cerebros humanos reales". [33] Searle sostiene que esta maquinaria (conocida en neurociencia como los " correlatos neuronales de la conciencia ") debe tener algunos poderes causales que permitan la experiencia humana de la conciencia. [34] La creencia de Searle en la existencia de estos poderes ha sido criticada.

Searle no está en desacuerdo con la idea de que las máquinas pueden tener conciencia y entendimiento, porque, como él escribe, "somos precisamente esas máquinas". [6] Searle sostiene que el cerebro es, de hecho, una máquina, pero que el cerebro da lugar a la conciencia y al entendimiento utilizando una maquinaria específica. Si la neurociencia es capaz de aislar el proceso mecánico que da lugar a la conciencia, entonces Searle concede que puede ser posible crear máquinas que tengan conciencia y entendimiento. Sin embargo, sin la maquinaria específica requerida, Searle no cree que la conciencia pueda existir.

El naturalismo biológico implica que no se puede determinar si la experiencia de la conciencia está ocurriendo simplemente examinando cómo funciona un sistema, porque la maquinaria específica del cerebro es esencial. Por lo tanto, el naturalismo biológico se opone directamente tanto al conductismo como al funcionalismo (incluido el "funcionalismo informático" o la "IA fuerte"). [35] El naturalismo biológico es similar a la teoría de la identidad (la posición de que los estados mentales son "idénticos a" o "compuestos por" eventos neurológicos); sin embargo, Searle tiene objeciones técnicas específicas a la teoría de la identidad. [36] [j] El naturalismo biológico de Searle y la IA fuerte se oponen al dualismo cartesiano , [35] la idea clásica de que el cerebro y la mente están hechos de diferentes "sustancias". De hecho, Searle acusa a la IA fuerte de dualismo, escribiendo que "la IA fuerte solo tiene sentido dada la suposición dualista de que, cuando se trata de la mente, el cerebro no importa". [24]

Conciencia

La presentación original de Searle hizo hincapié en la comprensión (es decir, los estados mentales con intencionalidad ) y no abordó directamente otras ideas estrechamente relacionadas, como la "conciencia". Sin embargo, en presentaciones más recientes, Searle ha incluido la conciencia como el verdadero objetivo del argumento. [4]

Los modelos computacionales de la conciencia no son suficientes por sí mismos para la conciencia. El modelo computacional de la conciencia se relaciona con la conciencia de la misma manera que el modelo computacional de cualquier cosa se relaciona con el dominio que se está modelando. Nadie supone que el modelo computacional de las tormentas de Londres nos dejará a todos mojados. Pero cometen el error de suponer que el modelo computacional de la conciencia es de algún modo consciente. Es el mismo error en ambos casos. [37]

—  John R. Searle, Conciencia y lenguaje , pág. 16

David Chalmers escribe: "Está bastante claro que la conciencia está en la raíz de la materia" de la habitación china. [38]

Colin McGinn sostiene que la habitación china ofrece pruebas sólidas de que el difícil problema de la conciencia es fundamentalmente insoluble. El argumento, para ser claros, no es si una máquina puede ser consciente, sino si se puede demostrar que es consciente (o cualquier otra cosa, en realidad). Es evidente que cualquier otro método para sondear al ocupante de una habitación china tiene las mismas dificultades en principio que el intercambio de preguntas y respuestas en chino. Simplemente no es posible adivinar si una agencia consciente o alguna simulación inteligente habita la habitación. [39]

Searle sostiene que esto sólo es cierto para un observador que se encuentra fuera de la habitación. El objetivo del experimento mental es poner a alguien dentro de la habitación, donde pueda observar directamente las operaciones de la conciencia. Searle afirma que desde su punto de vista dentro de la habitación no hay nada que pueda ver que pueda dar lugar a la conciencia, aparte de él mismo, y claramente no tiene una mente que pueda hablar chino. En palabras de Searle, "la computadora no tiene nada más de lo que yo tengo en el caso de que no entienda nada". [40]

Ética aplicada

Sentado en el centro de información de combate a bordo de un buque de guerra , propuesto como un análogo real de la sala china

Patrick Hew utilizó el argumento de la Habitación China para deducir los requisitos de los sistemas de mando y control militares si se pretende preservar la capacidad de acción moral de un comandante . Trazó una analogía entre un comandante en su centro de mando y la persona en la Habitación China, y la analizó bajo una lectura de las nociones de Aristóteles de "obligación" e "ignorancia" . La información podía ser "convertida a la baja" de significado a símbolos, y manipulada simbólicamente, pero la capacidad de acción moral podía verse socavada si había una "conversión a la alta" inadecuada en significado. Hew citó ejemplos del incidente del USS Vincennes . [41]

Ciencias de la Computación

El argumento de la habitación china es principalmente un argumento de filosofía de la mente, y tanto los principales científicos informáticos como los investigadores de inteligencia artificial lo consideran irrelevante para sus campos. [5] Sin embargo, varios conceptos desarrollados por los científicos informáticos son esenciales para comprender el argumento, incluido el procesamiento de símbolos , las máquinas de Turing , la completitud de Turing y la prueba de Turing.

Inteligencia artificial fuerte frente a investigación en inteligencia artificial

Los argumentos de Searle no suelen considerarse un problema para la investigación en IA. La misión principal de la investigación en inteligencia artificial es únicamente crear sistemas útiles que actúen de forma inteligente y no importa si la inteligencia es "meramente" una simulación. Los investigadores en IA Stuart J. Russell y Peter Norvig escribieron en 2021: "Nos interesan los programas que se comportan de forma inteligente. Los aspectos individuales de la conciencia (conciencia, autoconciencia, atención) se pueden programar y pueden ser parte de una máquina inteligente. El proyecto adicional de hacer que una máquina sea consciente exactamente como lo somos los humanos no es algo que estemos preparados para asumir". [5]

Searle no está en desacuerdo con que la investigación en IA pueda crear máquinas capaces de comportarse de manera sumamente inteligente. El argumento de la habitación china deja abierta la posibilidad de que se pueda construir una máquina digital que actúe de manera más inteligente que una persona, pero que no tenga mente ni intencionalidad como los cerebros.

La "hipótesis de la IA fuerte" de Searle no debe confundirse con la "IA fuerte" definida por Ray Kurzweil y otros futuristas, [42] [19] que utilizan el término para describir la inteligencia de las máquinas que rivaliza o supera a la inteligencia humana, es decir, inteligencia artificial general , IA de nivel humano o superinteligencia . Kurzweil se refiere principalmente a la cantidad de inteligencia que muestra la máquina, mientras que el argumento de Searle no establece ningún límite a esto. Searle sostiene que una máquina superinteligente no necesariamente tendría mente y conciencia.

Prueba de Turing

La "interpretación estándar" del Test de Turing, en la que el jugador C, el interrogador, tiene la tarea de intentar determinar qué jugador (A o B) es una computadora y cuál es un humano. El interrogador se limita a utilizar las respuestas a preguntas escritas para tomar la decisión. Imagen adaptada de Saygin, et al. 2000. [43]

La sala china implementa una versión del test de Turing. [44] Alan Turing introdujo el test en 1950 para ayudar a responder la pregunta "¿pueden pensar las máquinas?". En la versión estándar, un juez humano entabla una conversación en lenguaje natural con un humano y una máquina diseñada para generar un desempeño indistinguible del de un ser humano. Todos los participantes están separados unos de otros. Si el juez no puede distinguir de manera confiable la máquina del humano, se dice que la máquina ha pasado el test.

Turing consideró entonces cada posible objeción a la propuesta de que "las máquinas pueden pensar" y descubrió que hay respuestas simples y obvias si se desmitifica la pregunta de esta manera. Sin embargo, no pretendía que la prueba midiera la presencia de "conciencia" o "entendimiento". No creía que esto fuera relevante para las cuestiones que estaba abordando. Escribió:

No quiero dar la impresión de que creo que no hay ningún misterio en torno a la conciencia. Existe, por ejemplo, una especie de paradoja relacionada con cualquier intento de localizarla. Pero no creo que sea necesario resolver esos misterios antes de poder responder a la pregunta que nos ocupa en este artículo. [44]

Para Searle, como filósofo que investiga la naturaleza de la mente y la conciencia, estos son los misterios relevantes. La habitación china está diseñada para demostrar que la prueba de Turing es insuficiente para detectar la presencia de conciencia, incluso si la habitación puede comportarse o funcionar como lo haría una mente consciente.

Procesamiento de símbolos

Los ordenadores manipulan objetos físicos para realizar cálculos y simulaciones. Los investigadores de IA Allen Newell y Herbert A. Simon denominaron a este tipo de máquinas un sistema de símbolos físicos . También es equivalente a los sistemas formales utilizados en el campo de la lógica matemática .

Searle enfatiza el hecho de que este tipo de manipulación de símbolos es sintáctica (tomando prestado un término del estudio de la gramática ). La computadora manipula los símbolos utilizando una forma de sintaxis, sin ningún conocimiento de la semántica del símbolo (es decir, su significado ).

Newell y Simon habían conjeturado que un sistema de símbolos físicos (como una computadora digital) tenía toda la maquinaria necesaria para la "acción inteligente general", o, como se conoce hoy, inteligencia artificial general . Enmarcaron esto como una posición filosófica, la hipótesis del sistema de símbolos físicos : "Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general". [45] [46] El argumento de la habitación china no refuta esto, porque está enmarcado en términos de "acción inteligente", es decir, el comportamiento externo de la máquina, en lugar de la presencia o ausencia de comprensión, conciencia y mente.

Los programas de IA del siglo XXI (como el " aprendizaje profundo ") realizan operaciones matemáticas sobre enormes matrices de números no identificados y guardan poca semejanza con el procesamiento simbólico utilizado por los programas de IA en la época en que Searle escribió su crítica en 1980. Nils Nilsson describe sistemas como estos como "dinámicos" en lugar de "simbólicos". Nilsson señala que se trata esencialmente de representaciones digitalizadas de sistemas dinámicos: los números individuales no tienen una semántica específica, sino que son muestras o puntos de datos de una señal dinámica, y es la señal que se está aproximando la que tendría semántica. Nilsson sostiene que no es razonable considerar estas señales como "procesamiento de símbolos" en el mismo sentido que la hipótesis de los sistemas de símbolos físicos. [47]

La habitación china y la completitud de Turing

La habitación china tiene un diseño análogo al de una computadora moderna. Tiene una arquitectura de Von Neumann , que consiste en un programa (el libro de instrucciones), algo de memoria (los papeles y archivadores), una máquina que sigue las instrucciones (el hombre), y un medio para escribir símbolos en la memoria (el lápiz y el borrador). Una máquina con este diseño es conocida en informática teórica como " Turing completa ", porque tiene la maquinaria necesaria para llevar a cabo cualquier cálculo que una máquina de Turing pueda hacer, y por lo tanto es capaz de hacer una simulación paso a paso de cualquier otra máquina digital, dada suficiente memoria y tiempo. Turing escribe, "todas las computadoras digitales son en cierto sentido equivalentes". [48] La tesis de Church-Turing, ampliamente aceptada, sostiene que cualquier función computable por un procedimiento efectivo es computable por una máquina de Turing.

La completitud de Turing de la habitación china implica que puede hacer todo lo que cualquier otro ordenador digital puede hacer (aunque mucho, mucho más lentamente). Por lo tanto, si la habitación china no contiene o no puede contener una mente que hable chino, entonces ningún otro ordenador digital puede contener una mente. Algunas respuestas a Searle comienzan argumentando que la habitación, tal como se describe, no puede tener una mente que hable chino. Los argumentos de esta forma, según Stevan Harnad , no son "ninguna refutación (sino más bien una afirmación)" [49] del argumento de la habitación china, porque estos argumentos en realidad implican que ningún ordenador digital puede tener una mente. [26]

Hay algunos críticos, como Hanoch Ben-Yami, que sostienen que la habitación china no puede simular todas las capacidades de una computadora digital, como la capacidad de determinar la hora actual. [50]

Argumento completo

Searle ha elaborado una versión más formal del argumento del que forma parte la habitación china. Presentó la primera versión en 1984. La versión que se ofrece a continuación es de 1990. [51] [k] El experimento mental de la habitación china tiene por objeto demostrar el punto A3. [l]

Comienza con tres axiomas:

(A1) "Los programas son formales (sintácticos)".
Un programa utiliza la sintaxis para manipular símbolos y no presta atención a la semántica de los símbolos. Sabe dónde colocar los símbolos y cómo moverlos, pero no sabe qué representan ni qué significan. Para el programa, los símbolos son simplemente objetos físicos como cualquier otro.
(A2) "Las mentes tienen contenidos mentales (semántica)".
A diferencia de los símbolos que utiliza un programa, nuestros pensamientos tienen significado: representan cosas y sabemos qué es lo que representan.
(A3) "La sintaxis por sí sola no es constitutiva ni suficiente de la semántica".
Esto es lo que el experimento mental de la habitación china pretende demostrar: la habitación china tiene sintaxis (porque hay un hombre allí moviendo símbolos). La habitación china no tiene semántica (porque, según Searle, no hay nadie ni nada en la habitación que entienda lo que significan los símbolos). Por lo tanto, tener sintaxis no es suficiente para generar semántica.

Searle postula que esto conduce directamente a esta conclusión:

(C1) Los programas no son constitutivos ni suficientes de las mentes.
Esto debería derivarse sin controversia de los tres primeros: los programas no tienen semántica. Los programas sólo tienen sintaxis, y la sintaxis es insuficiente para la semántica. Todas las mentes tienen semántica. Por lo tanto, ningún programa es una mente.

Gran parte del argumento tiene como objetivo demostrar que la inteligencia artificial nunca puede producir una máquina con mente escribiendo programas que manipulen símbolos. El resto del argumento aborda una cuestión diferente. ¿El cerebro humano está ejecutando un programa? En otras palabras, ¿es correcta la teoría computacional de la mente ? [f] Comienza con un axioma que pretende expresar el consenso científico moderno básico sobre los cerebros y las mentes:

(A4) Los cerebros causan mentes.

Searle afirma que podemos derivar "inmediatamente" y "trivialmente" [52] que:

(C2) Cualquier otro sistema capaz de causar mentes tendría que tener poderes causales (al menos) equivalentes a los de los cerebros.
El cerebro debe tener algo que haga que exista una mente. La ciencia aún tiene que determinar exactamente qué es, pero debe existir, porque las mentes existen. Searle lo llama "poderes causales". Los "poderes causales" son todo lo que el cerebro utiliza para crear una mente. Si cualquier otra cosa puede hacer que exista una mente, debe tener "poderes causales equivalentes". Los "poderes causales equivalentes" son cualquier otra cosa que pueda usarse para crear una mente.

Y de aquí deriva las conclusiones siguientes:

(C3) Cualquier artefacto que produjera fenómenos mentales, cualquier cerebro artificial, tendría que ser capaz de duplicar los poderes causales específicos de los cerebros, y no podría hacerlo simplemente ejecutando un programa formal.
Esto se desprende de C1 y C2: dado que ningún programa puede producir una mente, y los "poderes causales equivalentes" producen mentes, se deduce que los programas no tienen "poderes causales equivalentes".
(C4) La forma en que los cerebros humanos realmente producen fenómenos mentales no puede ser únicamente en virtud de la ejecución de un programa de computadora.
Dado que los programas no tienen "poderes causales equivalentes", los "poderes causales equivalentes" producen mentes, y los cerebros producen mentes, se deduce que los cerebros no utilizan programas para producir mentes.

Las refutaciones del argumento de Searle adoptan muchas formas diferentes (véase más adelante). Los computacionalistas y funcionalistas rechazan A3, argumentando que la "sintaxis" (tal como la describe Searle) puede tener "semántica" si la sintaxis tiene la estructura funcional adecuada. Los materialistas eliminativos rechazan A2, argumentando que las mentes en realidad no tienen "semántica", que los pensamientos y otros fenómenos mentales carecen de significado inherentemente, pero sin embargo funcionan como si lo tuvieran.

Respuestas

Las respuestas al argumento de Searle pueden clasificarse según lo que pretenden demostrar: [m]

Algunos de los argumentos (la simulación de robots y cerebros, por ejemplo) caen en múltiples categorías.

Sistemas y respuestas de la mente virtual: encontrar la mente

Estas respuestas intentan responder a la pregunta: dado que el hombre en la sala no habla chino, ¿dónde está la mente que sí lo habla? Estas respuestas abordan las cuestiones ontológicas clave de la mente versus el cuerpo y la simulación versus la realidad. Todas las respuestas que identifican a la mente en la sala son versiones de "la respuesta del sistema".

Respuesta del sistema

La versión básica de la respuesta del sistema sostiene que es el "sistema completo" el que entiende el chino. [57] [n] Si bien el hombre sólo entiende inglés, cuando se lo combina con el programa, papel borrador, lápices y archivadores, forman un sistema que puede entender chino. "Aquí, la comprensión no se atribuye al mero individuo, sino a todo este sistema del que forma parte", explica Searle. [27]

Searle señala que (en esta versión simple de la respuesta) el "sistema" no es nada más que una colección de objetos físicos ordinarios; concede el poder de comprensión y conciencia a "la conjunción de esa persona y trozos de papel" [27] sin hacer ningún esfuerzo por explicar cómo este montón de objetos se ha convertido en un ser consciente y pensante. Searle sostiene que ninguna persona razonable debería estar satisfecha con la respuesta, a menos que esté "bajo el control de una ideología"; [27] para que esta respuesta sea remotamente plausible, uno debe dar por sentado que la conciencia puede ser el producto de un "sistema" de procesamiento de información, y no requiere nada parecido a la biología real del cerebro.

Searle responde entonces simplificando esta lista de objetos físicos: pregunta qué sucede si el hombre memoriza las reglas y lleva un registro de todo en su cabeza. En ese caso, todo el sistema consiste en un solo objeto: el hombre mismo. Searle sostiene que si el hombre no entiende chino, entonces el sistema tampoco lo entiende porque ahora "el sistema" y "el hombre" describen exactamente el mismo objeto. [27]

Los críticos de la respuesta de Searle sostienen que el programa ha permitido al hombre tener dos mentes en una cabeza. [¿ Quién? ] Si asumimos que una "mente" es una forma de procesamiento de información, entonces la teoría de la computación puede explicar dos cálculos que ocurren a la vez, a saber: (1) el cálculo para la programabilidad universal (que es la función instanciada por la persona y los materiales de toma de notas independientemente de cualquier contenido particular del programa) y (2) el cálculo de la máquina de Turing que es descrita por el programa (que es instanciada por todo, incluido el programa específico). [59] La teoría de la computación, por lo tanto, explica formalmente la posibilidad abierta de que el segundo cálculo en la Habitación China pudiera implicar una comprensión semántica equivalente a la humana de las entradas chinas. El foco está en la máquina de Turing del programa más que en la de la persona. [60] Sin embargo, desde la perspectiva de Searle, este argumento es circular. La cuestión en cuestión es si la conciencia es una forma de procesamiento de información, y esta respuesta requiere que hagamos esa suposición.

Las versiones más sofisticadas de la respuesta de sistemas intentan identificar con mayor precisión qué es "el sistema" y difieren en la forma exacta en que lo describen. Según estas respuestas, [¿ quién? ] la "mente que habla chino" podría ser algo como: el "software", un "programa", un "programa en ejecución", una simulación de los "correlatos neuronales de la conciencia", el "sistema funcional", una "mente simulada", una " propiedad emergente " o "una mente virtual".

Respuesta de la mente virtual

Marvin Minsky sugirió una versión de la respuesta del sistema conocida como la "respuesta de la mente virtual". [o] El término " virtual " se utiliza en informática para describir un objeto que parece existir "dentro" de una computadora (o red de computadoras) sólo porque el software hace que parezca existir. Los objetos "dentro" de las computadoras (incluidos los archivos, carpetas, etc.) son todos "virtuales", excepto los componentes electrónicos de la computadora. De manera similar, Minsky sostuvo que una computadora puede contener una "mente" que es virtual en el mismo sentido que las máquinas virtuales , las comunidades virtuales y la realidad virtual .

Para aclarar la distinción entre la respuesta de los sistemas simples dada anteriormente y la respuesta de la mente virtual, David Cole señala que podrían estar ejecutándose dos simulaciones en un sistema al mismo tiempo: una que habla chino y otra que habla coreano. Si bien hay un solo sistema, puede haber múltiples "mentes virtuales", por lo que el "sistema" no puede ser la "mente". [64]

Searle responde que una mente así es, en el mejor de los casos, una simulación, y escribe: "Nadie supone que las simulaciones por ordenador de un incendio de cinco alarmas quemarán el vecindario o que una simulación por ordenador de una tormenta nos dejará a todos empapados". [65] Nicholas Fearn responde que, para algunas cosas, la simulación es tan buena como la realidad. "Cuando activamos la función de calculadora de bolsillo en un ordenador de sobremesa, aparece la imagen de una calculadora de bolsillo en la pantalla. No nos quejamos de que no sea realmente una calculadora, porque los atributos físicos del dispositivo no importan". [66] La cuestión es: ¿es la mente humana como la calculadora de bolsillo, compuesta esencialmente de información, donde una simulación perfecta de la cosa es simplemente la cosa? ¿O es la mente como la tormenta, una cosa en el mundo que es más que su simulación, y no realizable en su totalidad mediante una simulación por ordenador? Durante décadas, esta cuestión de la simulación ha llevado a los investigadores de la IA y a los filósofos a considerar si el término " inteligencia sintética " es más apropiado que la descripción común de tales inteligencias como "artificiales".

Estas respuestas proporcionan una explicación de quién es exactamente el que entiende chino. Si hay algo además del hombre en la sala que puede entender chino, Searle no puede argumentar que (1) el hombre no entiende chino, por lo tanto (2) nada en la sala entiende chino. Esto, según quienes dan esta respuesta, demuestra que el argumento de Searle no logra demostrar que la "IA fuerte" es falsa. [p]

Sin embargo, estas respuestas, por sí solas, no proporcionan ninguna prueba de que la IA fuerte sea cierta. No muestran que el sistema (o la mente virtual) entienda chino, más allá de la premisa hipotética de que pasa la prueba de Turing. Searle sostiene que, si hemos de considerar que la IA fuerte es remotamente plausible, la habitación china es un ejemplo que requiere explicación, y es difícil o imposible explicar cómo la conciencia podría "emerger" de la habitación o cómo el sistema tendría conciencia. Como escribe Searle, "la respuesta del sistema simplemente plantea la cuestión al insistir en que el sistema debe entender chino" [27] y, por lo tanto, está eludiendo la pregunta o es irremediablemente circular.

Respuestas de robots y semántica: encontrar el significado

En lo que respecta a la persona que se encuentra en la habitación, los símbolos son simplemente "garabatos" sin sentido. Pero si la habitación china realmente "entiende" lo que está diciendo, entonces los símbolos deben obtener su significado de alguna parte. Estos argumentos intentan conectar los símbolos con las cosas que simbolizan. Estas respuestas abordan las preocupaciones de Searle sobre la intencionalidad , la base de los símbolos y la sintaxis frente a la semántica .

Respuesta del robot

Supongamos que en lugar de una habitación, el programa se colocara en un robot que pudiera deambular e interactuar con su entorno. Esto permitiría una " conexión causal " entre los símbolos y las cosas que representan. [68] [q] Hans Moravec comenta: "Si pudiéramos injertar un robot en un programa de razonamiento, ya no necesitaríamos una persona que proporcionara el significado: vendría del mundo físico". [70] [r]

La respuesta de Searle es suponer que, sin que el individuo en la habitación china lo sepa, algunas de las entradas vinieron directamente de una cámara montada en un robot, y algunas de las salidas se usaron para manipular los brazos y las piernas del robot. Sin embargo, la persona en la habitación todavía está siguiendo las reglas y no sabe lo que significan los símbolos. Searle escribe "no ve lo que entra por los ojos del robot". [72]

Significado derivado

Algunos responden que la habitación, tal como la describe Searle, está conectada con el mundo: a través de los hablantes chinos con los que "habla" y a través de los programadores que diseñaron la base de conocimientos en su archivador. Los símbolos que Searle manipula ya tienen significado, pero no lo tienen para él. [73] [s]

Searle dice que los símbolos sólo tienen un significado "derivado", como el significado de las palabras en los libros. El significado de los símbolos depende de la comprensión consciente de los hablantes chinos y de los programadores que están fuera de la sala. La sala, como un libro, no tiene comprensión propia. [t]

Respuesta contextualista

Algunos han argumentado que los significados de los símbolos provendrían de un vasto "fondo" de conocimiento de sentido común codificado en el programa y en los archivadores. Esto proporcionaría un "contexto" que daría a los símbolos su significado. [71] [u]

Searle está de acuerdo en que este fondo existe, pero no en que pueda incorporarse a los programas. Hubert Dreyfus también ha criticado la idea de que el "fondo" pueda representarse simbólicamente. [76]

A cada una de estas sugerencias, la respuesta de Searle es la misma: no importa cuánto conocimiento esté escrito en el programa y no importa cómo esté conectado el programa con el mundo, él sigue estando en la habitación manipulando símbolos de acuerdo con reglas. Sus acciones son sintácticas y esto nunca puede explicarle lo que representan los símbolos. Searle escribe que "la sintaxis es insuficiente para la semántica". [77] [v]

Sin embargo, para quienes aceptan que las acciones de Searle simulan una mente separada de la suya, la pregunta importante no es qué significan los símbolos para Searle, sino qué significan para la mente virtual. Mientras Searle está atrapado en la habitación, la mente virtual no lo está: está conectada al mundo exterior a través de los hablantes chinos con los que habla, a través de los programadores que le dieron el conocimiento del mundo y a través de las cámaras y otros sensores que los expertos en robótica pueden proporcionar.

Simulación cerebral y respuestas conexionistas: rediseñando la sala

Todos estos argumentos son versiones de la respuesta de sistemas que identifican un tipo particular de sistema como importante; identifican alguna tecnología especial que crearía comprensión consciente en una máquina. (Las respuestas de "robot" y "conocimiento de sentido común" mencionadas anteriormente también especifican un cierto tipo de sistema como importante).

Respuesta del simulador cerebral

Supongamos que el programa simulara con gran detalle la acción de cada neurona del cerebro de un hablante chino. [79] [w] Esto refuerza la intuición de que no habría ninguna diferencia significativa entre el funcionamiento del programa y el funcionamiento de un cerebro humano vivo.

Searle responde que una simulación de este tipo no reproduce las características importantes del cerebro, es decir, sus estados causales e intencionales. Sostiene categóricamente que “los fenómenos mentales humanos dependen de las propiedades físico-químicas reales de los cerebros humanos reales”. [24] Además, sostiene:

[I]maginemos que en lugar de un hombre monolingüe en una habitación mezclando símbolos, tenemos al hombre operando un elaborado conjunto de tuberías de agua con válvulas que las conectan. Cuando el hombre recibe los símbolos chinos, busca en el programa, escrito en inglés, qué válvulas tiene que abrir y cerrar. Cada conexión de agua corresponde a una sinapsis en el cerebro chino, y todo el sistema está diseñado de manera que después de hacer todos los disparos correctos, es decir, después de abrir todos los grifos correctos, las respuestas chinas aparecen en el extremo de salida de la serie de tuberías. Ahora bien, ¿dónde está la comprensión en este sistema? Toma el chino como entrada, simula la estructura formal de las sinapsis del cerebro chino y da chino como salida. Pero el hombre ciertamente no entiende chino, y las tuberías de agua tampoco, y si nos sentimos tentados a adoptar lo que creo que es la visión absurda de que de alguna manera la conjunción del hombre y las tuberías de agua entiende, recordemos que en principio el hombre puede internalizar la estructura formal de las tuberías de agua y hacer todos los "disparos neuronales" en su imaginación. [81]

Cerebro de China

¿Qué sucedería si le pidiéramos a cada ciudadano de China que simulara una neurona, utilizando el sistema telefónico para simular las conexiones entre axones y dendritas ? En esta versión, parece obvio que ningún individuo tendría la menor comprensión de lo que el cerebro podría estar diciendo. [82] [x] También es obvio que este sistema sería funcionalmente equivalente a un cerebro, por lo que si la conciencia es una función, este sistema sería consciente.

Escenario de reemplazo de cerebro

En este caso, se nos pide que imaginemos que los ingenieros han inventado una pequeña computadora que simula la acción de una neurona individual. ¿Qué sucedería si reemplazáramos una neurona a la vez? Reemplazar una claramente no haría nada para cambiar la conciencia. Reemplazarlas todas crearía una computadora digital que simula un cerebro. Si Searle tiene razón, entonces la conciencia debe desaparecer durante el procedimiento (ya sea gradualmente o de una sola vez). Los críticos de Searle argumentan que no habría ningún momento durante el procedimiento en el que él pudiera afirmar que la conciencia termina y comienza la simulación sin sentido. [84] [y] [z] (Véase La nave de Teseo para un experimento mental similar).

Respuestas conexionistas

En estrecha relación con la respuesta del simulador cerebral, esta afirmación sostiene que una arquitectura conexionista masivamente paralela sería capaz de comprender. [aa] El aprendizaje profundo moderno es masivamente paralelo y ha demostrado con éxito un comportamiento inteligente en muchos dominios. Nils Nilsson sostiene que la IA moderna utiliza "señales dinámicas" digitalizadas en lugar de símbolos del tipo utilizado por la IA en 1980. [47] Aquí es la señal muestreada la que tendría la semántica, no los números individuales manipulados por el programa. Este es un tipo diferente de máquina que la que visualizó Searle.

Respuesta combinada

Esta respuesta combina la respuesta del robot con la respuesta de simulación cerebral, argumentando que una simulación cerebral conectada al mundo a través de un cuerpo de robot podría tener una mente. [89]

Muchas mansiones / esperar al año que viene responder

En el futuro, una mejor tecnología permitirá que las computadoras comprendan. [25] [ab] Searle está de acuerdo en que esto es posible, pero considera que este punto es irrelevante. Searle está de acuerdo en que puede haber otros dispositivos además del cerebro que tengan capacidad de comprensión consciente.

Estos argumentos (y las respuestas del robot o del sentido común) identifican alguna tecnología especial que ayudaría a crear comprensión consciente en una máquina. Pueden interpretarse de dos maneras: o bien afirman (1) que esta tecnología es necesaria para la conciencia, la habitación china no implementa o no puede implementar esta tecnología y, por lo tanto, no puede pasar la prueba de Turing o (incluso si la pasara) no tendría comprensión consciente. O bien pueden afirmar que (2) es más fácil ver que la habitación china tiene una mente si visualizamos esta tecnología como utilizada para crearla.

En el primer caso, en el que se requieren características como un cuerpo de robot o una arquitectura conexionista, Searle afirma que la IA fuerte (tal como él la entiende) ha sido abandonada. [ac] La habitación china tiene todos los elementos de una máquina completa de Turing y, por lo tanto, es capaz de simular cualquier computación digital. Si la habitación de Searle no puede pasar la prueba de Turing, entonces no hay otra tecnología digital que pueda pasar la prueba de Turing. Si la habitación de Searle pudiera pasar la prueba de Turing, pero aún no tiene una mente, entonces la prueba de Turing no es suficiente para determinar si la habitación tiene una "mente". De cualquier manera, niega una u otra de las posiciones que Searle considera como "IA fuerte", lo que prueba su argumento.

Los argumentos a favor del cerebro, en particular, niegan la existencia de una IA fuerte si suponen que no existe una forma más sencilla de describir la mente que crear un programa que sea tan misterioso como lo era el cerebro. Escribe: "Pensé que la idea de la IA fuerte era que no necesitamos saber cómo funciona el cerebro para saber cómo funciona la mente". [25] Si la computación no proporciona una explicación de la mente humana, entonces la IA fuerte ha fracasado, según Searle.

Otros críticos sostienen que la habitación tal como la describió Searle, de hecho, tiene una mente, pero sostienen que es difícil de ver: la descripción de Searle es correcta, pero engañosa. Al rediseñar la habitación de manera más realista, esperan hacer que esto sea más obvio. En este caso, estos argumentos se utilizan como apelaciones a la intuición (véase la siguiente sección).

De hecho, la habitación puede ser rediseñada con la misma facilidad para debilitar nuestras intuiciones. El argumento Blockhead de Ned Block [90] sugiere que el programa podría, en teoría, ser reescrito en una simple tabla de búsqueda de reglas de la forma "si el usuario escribe S , responde con P y pasa a X". Al menos en principio, cualquier programa puede ser reescrito (o " refactorizado ") en esta forma, incluso una simulación cerebral. [ad] En el escenario de Blockhead, todo el estado mental está oculto en la letra X, que representa una dirección de memoria , un número asociado con la siguiente regla. Es difícil visualizar que un instante de la experiencia consciente de uno pueda ser capturado en un solo número grande, pero esto es exactamente lo que afirma la "IA fuerte". Por otro lado, una tabla de búsqueda de este tipo sería ridículamente grande (hasta el punto de ser físicamente imposible), y los estados podrían, por lo tanto, ser demasiado específicos.

Searle sostiene que, independientemente de cómo esté escrito el programa o de cómo esté conectada la máquina al mundo, la mente está siendo simulada por una simple máquina (o máquinas) digital paso a paso. Estas máquinas son siempre como el hombre de la habitación: no entienden nada y no hablan chino. Se limitan a manipular símbolos sin saber lo que significan. Searle escribe: "Puedo tener cualquier programa formal que quieras, pero aun así no entiendo nada". [91]

Velocidad y complejidad: apelaciones a la intuición

Los argumentos que siguen (y las interpretaciones intuitivas de los argumentos anteriores) no explican directamente cómo podría existir una mente que habla chino en la habitación de Searle, o cómo los símbolos que manipula podrían adquirir significado. Sin embargo, al plantear dudas sobre las intuiciones de Searle, respaldan otras posiciones, como las del sistema y las respuestas del robot. Estos argumentos, si se aceptan, impiden que Searle afirme que su conclusión es obvia al socavar las intuiciones que su certeza requiere.

Varios críticos creen que el argumento de Searle se basa enteramente en intuiciones. Block escribe: "El argumento de Searle depende, para su fuerza, de intuiciones de que ciertas entidades no piensan". [92] Daniel Dennett describe el argumento de la habitación china como una " bomba de intuición " engañosa [93] y escribe: "El experimento mental de Searle depende, ilícitamente, de que imagines un caso demasiado simple, un caso irrelevante, y extraigas de él la conclusión obvia". [93]

Algunos de los argumentos anteriores también funcionan como apelaciones a la intuición, especialmente aquellos que pretenden hacer que parezca más plausible que la habitación china contiene una mente, que puede incluir el robot, el conocimiento de sentido común, la simulación cerebral y las respuestas conexionistas. Varias de las respuestas anteriores también abordan la cuestión específica de la complejidad. La respuesta conexionista enfatiza que un sistema de inteligencia artificial funcional tendría que ser tan complejo y tan interconectado como el cerebro humano. La respuesta del conocimiento de sentido común enfatiza que cualquier programa que pasara una prueba de Turing tendría que ser "un sistema extraordinariamente flexible, sofisticado y multicapa, repleto de 'conocimiento del mundo' y metaconocimiento y meta-metaconocimiento", como explica Daniel Dennett . [75]

Respuestas rápidas y complejas

Muchas de estas críticas enfatizan la velocidad y complejidad del cerebro humano, [ae] que procesa información a 100 mil millones de operaciones por segundo (según algunas estimaciones). [95] Varios críticos señalan que el hombre en la habitación probablemente tardaría millones de años en responder a una pregunta simple, y requeriría "archivadores" de proporciones astronómicas. [96] Esto pone en duda la claridad de la intuición de Searle.

Una versión especialmente vívida de la respuesta sobre velocidad y complejidad es la de Paul y Patricia Churchland . Proponen este experimento mental análogo: "Consideremos una habitación oscura en la que hay un hombre que sostiene una barra imantada o un objeto cargado. Si el hombre mueve el imán hacia arriba y hacia abajo, entonces, según la teoría de Maxwell de la luminancia artificial (AL), iniciará un círculo de propagación de ondas electromagnéticas y, por lo tanto, será luminoso. Pero como todos los que hemos jugado con imanes o bolas cargadas sabemos bien, sus fuerzas (o cualquier otra fuerza, en realidad), incluso cuando se ponen en movimiento, no producen luminancia en absoluto. ¡Es inconcebible que se pueda generar luminancia real simplemente moviendo fuerzas!" [83] El punto de Churchland es que el problema es que tendría que mover el imán hacia arriba y hacia abajo algo así como 450 billones de veces por segundo para poder ver algo. [97]

Stevan Harnad critica las respuestas rápidas y complejas cuando no responden a nuestras intuiciones. Escribe: "Algunos han hecho un culto a la velocidad y al tiempo, sosteniendo que, cuando se acelera a la velocidad adecuada, lo computacional puede hacer una transición de fase hacia lo mental. Debería quedar claro que no se trata de un contraargumento sino de una mera especulación ad hoc (como lo es la opinión de que todo es sólo una cuestión de aumentar hasta el grado correcto de 'complejidad')". [98] [af]

Searle sostiene que sus críticos también se basan en intuiciones, pero que las intuiciones de sus oponentes no tienen ninguna base empírica. Escribe que, para considerar la "respuesta del sistema" como remotamente plausible, una persona debe estar "bajo el control de una ideología". [27] La ​​respuesta del sistema sólo tiene sentido (para Searle) si se supone que cualquier "sistema" puede tener conciencia, sólo en virtud de ser un sistema con el comportamiento y las partes funcionales adecuadas. Esta suposición, sostiene, no es sostenible dada nuestra experiencia de la conciencia.

Otras mentes y zombis: sin sentido

Varias respuestas sostienen que el argumento de Searle es irrelevante porque sus suposiciones sobre la mente y la conciencia son erróneas. Searle cree que los seres humanos experimentan directamente su conciencia, intencionalidad y la naturaleza de la mente todos los días, y que esta experiencia de la conciencia no está abierta a discusión. Escribe que debemos "presuponer la realidad y cognoscibilidad de lo mental". [101] Las respuestas a continuación cuestionan si Searle está justificado al usar su propia experiencia de la conciencia para determinar que es más que un procesamiento mecánico de símbolos. En particular, la respuesta sobre las otras mentes sostiene que no podemos usar nuestra experiencia de la conciencia para responder preguntas sobre otras mentes (incluso la mente de una computadora); las respuestas epifenómenales cuestionan si podemos hacer algún argumento sobre algo como la conciencia que, por definición, no puede detectarse mediante ningún experimento; y la respuesta materialista eliminativa sostiene que la propia conciencia personal de Searle no "existe" en el sentido en que Searle cree que existe.

Otras mentes responden

La "Respuesta de las otras mentes" señala que el argumento de Searle es una versión del problema de las otras mentes , aplicado a las máquinas. No hay forma de determinar si la experiencia subjetiva de otras personas es la misma que la nuestra. Sólo podemos estudiar su comportamiento (es decir, aplicándoles nuestra propia prueba de Turing). Los críticos de Searle argumentan que él está exigiendo a la habitación china un estándar más alto que el que le exigiríamos a una persona común. [102] [ag]

Nils Nilsson escribe: "Si un programa se comporta como si estuviera multiplicando, la mayoría de nosotros diría que, de hecho, se está multiplicando. Por lo que sé, Searle puede estar comportándose sólo como si estuviera pensando profundamente sobre estos asuntos. Pero, aunque no estoy de acuerdo con él, su simulación es bastante buena, así que estoy dispuesto a reconocerle un pensamiento real". [104]

Turing anticipó la línea de argumentación de Searle (a la que llamó "El argumento de la conciencia") en 1950 y hace que las otras mentes respondan. [105] Observó que las personas nunca consideran el problema de las otras mentes cuando tratan entre sí. Escribe que "en lugar de discutir continuamente sobre este punto, es habitual tener la convención cortés de que todo el mundo piensa". [106] La prueba de Turing simplemente extiende esta "convención cortés" a las máquinas. No pretende resolver el problema de las otras mentes (para máquinas o personas) y no cree que sea necesario. [ah]

Respuestas considerando que la "conciencia" de Searle es indetectable

Si aceptamos la descripción de Searle de la intencionalidad, la conciencia y la mente, nos vemos obligados a aceptar que la conciencia es epifenoménica : que "no proyecta sombra", es decir, que es indetectable en el mundo exterior. Las "propiedades causales" de Searle no pueden ser detectadas por nadie fuera de la mente, de lo contrario, la habitación china no podría pasar la prueba de Turing: las personas de afuera podrían decir que no había un hablante chino en la habitación detectando sus propiedades causales. Como no pueden detectar propiedades causales, no pueden detectar la existencia de lo mental. Por lo tanto, las "propiedades causales" de Searle y la conciencia en sí son indetectables, y cualquier cosa que no pueda detectarse o bien no existe o bien no importa.

Mike Alder llama a esto la "respuesta de la espada láser llameante de Newton". Sostiene que todo el argumento es frívolo, porque no es verificacionista : no sólo la distinción entre simular una mente y tener una mente está mal definida, sino que también es irrelevante porque no se han propuesto, ni pueden proponerse, experimentos para distinguir entre ambos. [108]

Daniel Dennett ofrece esta ilustración: supongamos que, por alguna mutación, nace un ser humano que no tiene las "propiedades causales" de Searle pero que, sin embargo, actúa exactamente como un ser humano. Se trata de un zombi filosófico , tal como se formula en la filosofía de la mente . Este nuevo animal se reproduciría como cualquier otro humano y, con el tiempo, habría más zombis de este tipo. La selección natural favorecería a los zombis, ya que su diseño es (podríamos suponer) un poco más simple. Con el tiempo, los humanos se extinguirían. Por lo tanto, si Searle tiene razón, lo más probable es que los seres humanos (tal como los vemos hoy) sean en realidad "zombis", que, sin embargo, insisten en que son conscientes. Es imposible saber si todos somos zombis o no. Incluso si todos fuéramos zombis, seguiríamos creyendo que no lo somos. [109]

Respuesta materialista eliminatoria

Varios filósofos sostienen que la conciencia, tal como la describe Searle, no existe. Daniel Dennett describe la conciencia como una " ilusión del usuario ". [110]

Esta postura se conoce a veces como materialismo eliminativo : la visión de que la conciencia no es un concepto que pueda "disfrutar de la reducción" a una descripción estrictamente mecánica, sino que es un concepto que simplemente será eliminado una vez que se comprenda completamente la forma en que funciona el cerebro material , de la misma manera que el concepto de demonio ya ha sido eliminado de la ciencia en lugar de disfrutar de la reducción a una descripción estrictamente mecánica. Otras propiedades mentales, como la intencionalidad original (también llamada "significado", "contenido" y "carácter semántico"), también se consideran comúnmente como propiedades especiales relacionadas con las creencias y otras actitudes proposicionales. El materialismo eliminativo sostiene que las actitudes proposicionales como las creencias y los deseos, entre otros estados mentales intencionales que tienen contenido, no existen. Si el materialismo eliminativo es la explicación científica correcta de la cognición humana, entonces debe rechazarse la suposición del argumento de la habitación china de que "las mentes tienen contenidos mentales ( semántica )". [111]

Searle no está de acuerdo con este análisis y sostiene que "el estudio de la mente comienza con hechos como que los humanos tienen creencias, mientras que los termostatos, los teléfonos y las máquinas sumadoras no... lo que queríamos saber es qué distingue a la mente de los termostatos y los hígados". [72] Él considera obvio que podemos detectar la presencia de la conciencia y descarta estas respuestas por estar fuera de lugar.

Otras respuestas

Margaret Boden argumentó en su artículo "Escapar de la sala china" que incluso si la persona que está en la sala no entiende chino, eso no significa que no haya comprensión en la sala. La persona que está en la sala al menos entiende el libro de reglas que se utiliza para proporcionar respuestas de salida. [112]

Véase también

Notas

  1. ^ abc Véase § Conciencia, que analiza la relación entre el argumento de la habitación china y la conciencia.
  2. ^ No debe confundirse con la inteligencia artificial general , a la que también se denomina a veces "IA fuerte". Véase § IA fuerte frente a investigación en IA.
  3. ^ ab Esta versión es de Mind, Language and Society de Searle [16] y también se cita en Consciousness Explained de Daniel Dennett . [17] La ​​formulación original de Searle fue "La computadora programada apropiadamente realmente es una mente, en el sentido de que se puede decir literalmente que las computadoras a las que se les dan los programas correctos entienden y tienen otros estados cognitivos". [18] Stuart J. Russell y Peter Norvig definen la IA fuerte de manera similar : "IA débil (la idea de que las máquinas podrían actuar como si fueran inteligentes) e IA fuerte (las afirmaciones que lo hacen) en realidad están pensando conscientemente (no solo simulando pensar)". [19]
  4. ^ Nótese que Leibniz se oponía a una teoría "mecánica" de la mente (la posición filosófica conocida como mecanicismo ). Searle se oponía a una visión de la mente basada en el "procesamiento de la información" (la posición filosófica conocida como " computacionalismo "). Searle acepta el mecanicismo y rechaza el computacionalismo.
  5. ^ Harnad editó la revista durante los años en los que se introdujo y popularizó el argumento de la habitación china.
  6. ^ ab Harnad sostiene que el argumento de Searle va en contra de la tesis que "desde entonces se ha dado en llamar 'computacionalismo', según la cual la cognición es sólo computación, por lo tanto los estados mentales son sólo estados computacionales". [14] David Cole está de acuerdo en que "el argumento también tiene amplias implicaciones para las teorías funcionalistas y computacionales del significado y de la mente". [15]
  7. ^ Searle cree que "la IA fuerte sólo tiene sentido si se parte del supuesto dualista de que, cuando se trata de la mente, el cerebro no importa". [24] En otra parte escribe: "Pensé que la idea de la IA fuerte era que no necesitamos saber cómo funciona el cerebro para saber cómo funciona la mente". [25] Esta postura debe su formulación a Stevan Harnad. [26]
  8. ^ "Uno de los puntos en cuestión", escribe Searle, "es la adecuación de la prueba de Turing". [27]
  9. ^ El computacionalismo está asociado con Jerry Fodor y Hilary Putnam , [30] y es sostenido por Allen Newell , [26] Zenon Pylyshyn [26] y Steven Pinker , [31] entre otros.
  10. ^ Larry Hauser escribe que "el naturalismo biológico es confuso (duda entre la teoría de la identidad y el dualismo) o bien es simplemente teoría de la identidad o dualismo". [35]
  11. ^ La redacción de cada axioma y conclusión proviene de la presentación de Searle en Scientific American . [52] [53] (A1-3) y (C1) se describen como 1,2,3 y 4 en David Cole. [54]
  12. ^ Paul y Patricia Churchland escriben que el experimento mental de la habitación china tiene como objetivo "reforzar el axioma 3". [55]
  13. ^ David Cole combina la segunda y tercera categorías, así como la cuarta y la quinta. [56]
  14. ^ Ned Block , Jack Copeland , Daniel Dennett , Jerry Fodor , John Haugeland , Ray Kurzweil y Georges Rey , entre otros, tienen versiones de la respuesta del sistema . [58]
  15. ^ La respuesta de la mente virtual la sostienen Minsky, [61] [62] Tim Maudlin , David Chalmers y David Cole. [63]
  16. ^ David Cole escribe: "A partir de la intuición de que en el experimento mental CR no entendería chino ejecutando un programa, Searle infiere que no se crea comprensión al ejecutar un programa. Claramente, si esa inferencia es válida o no se basa en una cuestión metafísica sobre la identidad de las personas y las mentes. Si la persona que comprende no es idéntica al operador de la sala, entonces la inferencia es errónea". [67]
  17. ^ Este cargo lo ocupan Margaret Boden , Tim Crane , Daniel Dennett , Jerry Fodor , Stevan Harnad , Hans Moravec y Georges Rey , entre otros. [69]
  18. ^ David Cole llama a esto la explicación "externalista" del significado. [71]
  19. ^ El significado derivado de responder está asociado con Daniel Dennett y otros.
  20. ^ Searle distingue entre intencionalidad "intrínseca" e intencionalidad "derivada". La intencionalidad "intrínseca" es la que implica una "comprensión consciente" como la que tendría una mente humana. Daniel Dennett no está de acuerdo con que exista una distinción. David Cole escribe que "la intencionalidad derivada es todo lo que existe, según Dennett". [74]
  21. ^ David Cole describe esto como el enfoque "internalista" del significado. [71] Los defensores de esta posición incluyen a Roger Schank , Doug Lenat , Marvin Minsky y (con reservas) Daniel Dennett , quien escribe: "El hecho es que cualquier programa [que pasara una prueba de Turing] tendría que ser un sistema extraordinariamente flexible, sofisticado y multicapa, repleto de 'conocimiento del mundo' y metaconocimiento y meta-metaconocimiento". [75]
  22. ^ Searle también escribe: "Los símbolos formales por sí mismos nunca pueden ser suficientes para los contenidos mentales, porque los símbolos, por definición, no tienen significado (o interpretación , o semántica) excepto en la medida en que alguien fuera del sistema se los dé". [78]
  23. ^ La respuesta de la simulación cerebral fue hecha por Paul Churchland , Patricia Churchland y Ray Kurzweil . [80]
  24. ^ Las primeras versiones de este argumento fueron presentadas en 1974 por Lawrence Davis y en 1978 por Ned Block . La versión de Block utilizaba walkie talkies y se la llamó "Gimnasio chino". Paul y Patricia Churchland también describieron este escenario. [83]
  25. ^ Una versión temprana del escenario del reemplazo cerebral fue propuesta por Clark Glymour a mediados de los años 70 y fue abordada por Zenon Pylyshyn en 1980. Hans Moravec presentó una versión vívida de la misma, [85] y ahora está asociada con la versión del transhumanismo de Ray Kurzweil .
  26. ^ Searle no considera el escenario del reemplazo cerebral como un argumento contra la CRA, sin embargo, en otro contexto, Searle examina varias soluciones posibles, incluyendo la posibilidad de que "descubra, para su total asombro, que de hecho está perdiendo el control de su comportamiento externo. Descubrirá, por ejemplo, que cuando los médicos le examinan la vista, los oye decir 'Estamos sosteniendo un objeto rojo frente a usted; díganos por favor qué ve'. Usted quiere gritar 'No puedo ver nada. Me estoy quedando totalmente ciego'. Pero oye su voz diciendo de una manera que está completamente fuera de su control, 'Veo un objeto rojo frente a mí'. [...] [S]u experiencia consciente se reduce lentamente a la nada, mientras que su comportamiento observable externamente sigue siendo el mismo". [86]
  27. ^ La respuesta conexionista la dan Andy Clark y Ray Kurzweil , [87] así como Paul y Patricia Churchland . [88]
  28. ^ Searle (2009) utiliza el nombre "Espera hasta el próximo año para responder".
  29. ^ Searle escribe que la respuesta del robot "concede tácitamente que la cognición no es únicamente una cuestión de manipulación formal de símbolos". [72] Stevan Harnad hace la misma observación al escribir: "Ahora bien, así como no es una refutación (sino más bien una afirmación) de la CRA negar que [la prueba de Turing] sea una prueba lo suficientemente fuerte, o negar que una computadora pueda pasarla alguna vez, es simplemente una defensa especial tratar de salvar el computacionalismo estipulando ad hoc (frente a la CRA) que los detalles de implementación sí importan después de todo, y que la de la computadora es el tipo 'correcto' de implementación, mientras que la de Searle es el tipo 'incorrecto'". [49]
  30. ^ Es decir, cualquier programa que se ejecute en una máquina con una cantidad finita de memoria.
  31. ^ Daniel Dennett , Tim Maudlin , David Chalmers , Steven Pinker , Paul Churchland , Patricia Churchland y otros dan respuestas sobre velocidad y complejidad . [94] Daniel Dennett señala la complejidad del conocimiento del mundo. [75]
  32. ^ Entre los críticos de la forma de "transición de fase" de este argumento se encuentran Stevan Harnad, Tim Maudlin , Daniel Dennett y David Cole. [94] Esta idea de "transición de fase" es una versión del emergentismo fuerte (lo que Dennett ridiculiza como "emergencia de la Costa Oeste Woo woo" [99] ). Harnad acusa a Churchland y Patricia Churchland de apoyar el emergentismo fuerte. Ray Kurzweil también defiende una forma de emergentismo fuerte. [100]
  33. ^ La respuesta de las "otras mentes" ha sido ofrecida por Dennett, Kurzweil y Hans Moravec , entre otros. [103]
  34. ^ Una de las motivaciones de Turing para idear la prueba de Turing es evitar precisamente el tipo de problemas filosóficos que interesan a Searle. Escribe: "No deseo dar la impresión de que creo que no hay ningún misterio... [pero] no creo que estos misterios deban ser necesariamente resueltos antes de que podamos responder la pregunta que nos ocupa en este artículo". [107]

Citas

  1. ^ desde Searle 1980.
  2. ^Ab Harnad 2001, pág. 1.
  3. ^ Roberts 2016.
  4. ^ abc Searle 1992, pág. 44.
  5. ^ abc Russell y Norvig 2021, pág. 986.
  6. ^ desde Searle 1980, pág. 11.
  7. ^ Cole 2004, 2.1; Leibniz 1714, sección 17.
  8. ^ "Una historia de la habitación china rusa anterior a la discusión de Searle de 1980", Centro de Estudios de la Conciencia , 15 de junio de 2018, archivado desde el original el 2021-05-16 , consultado el 2019-01-09
  9. ^ Cole 2004, 2.3.
  10. ^ Cole 2004, pág. 2; Preston y Bishop 2002
  11. ^Ab Harnad 2001, pág. 2.
  12. ^ Harnad 2001, pág. 1; Cole 2004, pág. 2
  13. ^ Akman 1998.
  14. ^ Harnad 2005, pág. 1.
  15. ^ Cole 2004, pág. 1.
  16. ^ Searle 1999, p.  [ página necesaria ] .
  17. ^ Dennett 1991, pág. 435.
  18. ^ desde Searle 1980, pág. 1.
  19. ^ desde Russell y Norvig 2021, pág. 981.
  20. ^ Searle 2009, pág. 1.
  21. ^ Citado en McCorduck 2004, p. 138.
  22. ^ Citado en Crevier 1993, p. 46
  23. ^ Haugeland 1985, p. 2 (cursiva suya)
  24. ^ abc Searle 1980, pág. 13.
  25. ^ abc Searle 1980, pág. 8.
  26. ^ abcd Harnad 2001.
  27. ^ abcdefg Searle 1980, pág. 6.
  28. ^ Searle 2004, pág. 45.
  29. ^ Harnad 2001, p. 3 (cursiva suya)
  30. ^ Horst 2005, pág. 1.
  31. ^ Pinker 1997.
  32. ^ Harnad 2001, págs. 3-5.
  33. ^ desde Searle 1990a, pág. 29.
  34. ^ Searle 1990b.
  35. ^ abc Hauser 2006, pág. 8.
  36. ^ Searle 1992, capítulo 5.
  37. ^ Searle 2002.
  38. ^ Chalmers 1996, pág. 322.
  39. ^ McGinn 2000.
  40. ^ Searle 1980, pág. 418.
  41. ^Véase también: Hew 2016.
  42. ^ Kurzweil 2005, pág. 260.
  43. ^ Saygin, Cicekli y Akman 2000.
  44. ^ desde Turing 1950.
  45. ^ Newell y Simon 1976, pág. 116.
  46. ^ Russell y Norvig 2021, pág. 19.
  47. ^ por Nilsson 2007.
  48. ^ Turing 1950, pág. 442.
  49. ^Ab Harnad 2001, pág. 14.
  50. ^ Ben-Yami 1993.
  51. ^ Searle 1984; Searle 1990a.
  52. ^ desde Searle 1990a.
  53. ^ Hauser 2006, pág. 5.
  54. ^ Cole 2004, pág. 5.
  55. ^ Churchland y Churchland 1990, pág. 34.
  56. ^ Cole 2004, págs. 5-6.
  57. ^ Searle 1980, págs. 5-6; Cole 2004, págs. 6-7; Hauser 2006, págs. 2-3; Dennett 1991, pág. 439; Fearn 2007, pág. 44; Crevier 1993, pág. 269.
  58. ^ Cole 2004, pág. 6.
  59. ^ Yee 1993, pág. 44, nota al pie 2.
  60. ^ Yee 1993, págs. 42–47.
  61. ^ Minsky 1980, pág. 440.
  62. ^ Cole 2004, pág. 7.
  63. ^ Cole 2004, págs. 7–9.
  64. ^ Cole 2004, pág. 8.
  65. ^ Searle 1980, pág. 12.
  66. ^ Fearn 2007, pág. 47.
  67. ^ Cole 2004, pág. 21.
  68. ^ Searle 1980, pág. 7; Cole 2004, págs. 9-11; Hauser 2006, pág. 3; Fearn 2007, pág. 44.
  69. ^ Cole 2004, pág. 9.
  70. ^ Citado en Crevier 1993, p. 272
  71. ^ abc Cole 2004, pág. 18.
  72. ^ abc Searle 1980, pág. 7.
  73. ^ Hauser 2006, pág. 11; Cole 2004, pág. 19.
  74. ^ Cole 2004, pág. 19.
  75. ^ abc Dennett 1991, pág. 438.
  76. ^ Dreyfus 1979, "El supuesto epistemológico ".
  77. ^ Searle 1984.
  78. ^ Motzkin y Searle 1989, pág. 45.
  79. ^ Searle 1980, págs. 7-8; Cole 2004, págs. 12-13; Hauser 2006, págs. 3-4; Churchland y Churchland 1990.
  80. ^ Cole 2004, pág. 12.
  81. ^ Searle 1980, p.  [ página necesaria ] .
  82. ^ Cole 2004, pág. 4; Hauser 2006, pág. 11.
  83. ^ desde Churchland y Churchland 1990.
  84. ^ Cole 2004, pág. 20; Moravec 1988; Kurzweil 2005, pág. 262; Crevier 1993, págs. 271 y 279.
  85. ^ Moravec 1988.
  86. ^ Searle 1992.
  87. ^ Cole 2004, págs. 12 y 17.
  88. ^ Hauser 2006, pág. 7.
  89. ^ Searle 1980, págs. 8-9; Hauser 2006, pág. 11.
  90. ^ Bloque 1981.
  91. ^ Searle 1980, pág. 3.
  92. ^ Citado en Cole 2004, p. 13.
  93. ^ desde Dennett 1991, págs. 437–440.
  94. ^ desde Cole 2004, pág. 14.
  95. ^ Crevier 1993, pág. 269.
  96. ^ Cole 2004, págs. 14-15; Crevier 1993, págs. 269-270; Pinker 1997, pág. 95.
  97. ^ Churchland y Churchland 1990; Cole 2004, pág. 12; Crevier 1993, pág. 270; Fearn 2007, págs. 45-46; Pinker 1997, pág. 94.
  98. ^ Harnad 2001, pág. 7.
  99. ^ Crevier 1993, pág. 275.
  100. ^ Kurzweil 2005.
  101. ^ Searle 1980, pág. 10.
  102. ^ Searle 1980, pág. 9; Cole 2004, pág. 13; Hauser 2006, págs. 4-5; Nilsson 1984.
  103. ^ Cole 2004, págs. 12-13.
  104. ^ Nilsson 1984.
  105. ^ Turing 1950, págs. 11-12.
  106. ^ Turing 1950, pág. 11.
  107. ^ Turing 1950, pág. 12.
  108. ^ Aliso 2004.
  109. ^ Cole 2004, pág. 22; Crevier 1993, pág. 271; Harnad 2005, pág. 4.
  110. ^ Dennett 1991, [ página necesaria ] .
  111. ^ Ramsey 2022.
  112. ^ Boden, Margaret A. (1988), "Escapando de la habitación china", en Heil, John (ed.), Computer Models of Mind , Cambridge University Press, ISBN 978-0-852-3-3 978-0-521-24868-6

Referencias

Lectura adicional

Trabajos en los que participa Searle