stringtranslate.com

prueba de Turing

La "interpretación estándar" de la prueba de Turing, en la que el jugador C, el interrogador, tiene la tarea de intentar determinar qué jugador –A o B– es una computadora y cuál es un humano. El interrogador se limita a utilizar las respuestas a las preguntas escritas para tomar la determinación. [1]

La prueba de Turing , originalmente llamada juego de imitación por Alan Turing en 1950, [2] es una prueba de la capacidad de una máquina para exhibir un comportamiento inteligente equivalente o indistinguible del de un humano. Turing propuso que un evaluador humano juzgaría las conversaciones en lenguaje natural entre un humano y una máquina diseñada para generar respuestas similares a las humanas. El evaluador sería consciente de que uno de los dos interlocutores en la conversación era una máquina y todos los participantes estarían separados unos de otros. La conversación se limitaría a un canal de sólo texto, como el teclado y la pantalla de una computadora, por lo que el resultado no dependería de la capacidad de la máquina para traducir palabras como voz. [3] Si el evaluador no pudiera distinguir de manera confiable la máquina del humano, se diría que la máquina ha pasado la prueba. Los resultados de la prueba no dependerían de la capacidad de la máquina para dar respuestas correctas a las preguntas , sólo de qué tan parecidas sus respuestas a las que daría un humano. Dado que la prueba de Turing es una prueba de indistinguibilidad en la capacidad de desempeño, la versión verbal se generaliza naturalmente a toda la capacidad de desempeño humana, tanto verbal como no verbal (robótica). [4]

La prueba fue presentada por Turing en su artículo de 1950 " Computing Machinery and Intelligence " mientras trabajaba en la Universidad de Manchester . [5] Comienza con las palabras: "Propongo considerar la pregunta: '¿Pueden pensar las máquinas? ' ". Debido a que "pensar" es difícil de definir, Turing opta por "reemplazar la pregunta por otra, que esté estrechamente relacionada con ella y se expresa en palabras relativamente inequívocas." [6] Turing describe la nueva forma del problema en términos de un juego de tres personas llamado "juego de imitación", en el que un interrogador hace preguntas a un hombre y una mujer en otra habitación para determinar el sexo correcto del dos jugadores. La nueva pregunta de Turing es: "¿Existen computadoras digitales imaginables que funcionen bien en el juego de la imitación ?" [2] Turing creía que esta pregunta podía realmente responderse. En el resto del artículo, argumentó en contra de las principales objeciones a la proposición de que "las máquinas pueden pensar". [7]

Desde que Turing presentó su prueba, ha sido muy influyente y ampliamente criticada, y se ha convertido en un concepto importante en la filosofía de la inteligencia artificial . [8] [9] [10] El filósofo John Searle comentaría en su argumento de la habitación china el test de Turing , un experimento mental que estipula que una máquina no puede tener una " mente ", " comprensión " o " conciencia ", independientemente de cuán inteligente o humano el programa puede hacer que la computadora se comporte. Searle critica la prueba de Turing y afirma que es insuficiente para detectar la presencia de conciencia. Searle continúa cuestionando la noción de que la mente ( cognición mental ) pueda existir fuera del cuerpo, una creencia conocida como dualismo cartesiano .

Historia

Antecedentes filosóficos

La cuestión de si es posible que las máquinas piensen tiene una larga historia, que está firmemente arraigada en la distinción entre visiones dualistas y materialistas de la mente. René Descartes prefigura aspectos de la prueba de Turing en su Discurso sobre el método de 1637 cuando escribe:

[¿Cuántos autómatas o máquinas móviles diferentes podrían fabricarse mediante la industria del hombre... Porque podemos comprender fácilmente que una máquina esté constituida de manera que pueda pronunciar palabras e incluso emitir algunas respuestas de tipo corpóreo a la acción sobre ella? , lo que provoca un cambio en sus órganos; por ejemplo, si se le toca en una parte determinada, puede preguntar qué queremos decirle; si en otra parte puede exclamar que le están haciendo daño, y así sucesivamente. Pero nunca ocurre que disponga su discurso de diversas maneras para responder apropiadamente a todo lo que se pueda decir en su presencia, como puede hacerlo incluso el tipo más bajo de hombre. [11]

Aquí Descartes señala que los autómatas son capaces de responder a las interacciones humanas, pero sostiene que dichos autómatas no pueden responder adecuadamente a las cosas dichas en su presencia de la manera que lo hace cualquier humano. Por lo tanto, Descartes prefigura la prueba de Turing al definir la insuficiencia de una respuesta lingüística apropiada como aquello que separa al humano del autómata. Descartes no considera la posibilidad de que futuros autómatas puedan superar tal insuficiencia y, por lo tanto, no propone la prueba de Turing como tal, incluso si prefigura su marco conceptual y criterio.

Denis Diderot formula en su libro Pensées philosophiques de 1746 un criterio de prueba de Turing, aunque manteniendo el importante supuesto limitante implícito de que los participantes son seres vivos naturales, en lugar de considerar artefactos creados:

Si encontraran un loro que pudiera responder a todo, diría sin dudarlo que es un ser inteligente.

Esto no significa que esté de acuerdo con esto, sino que ya era un argumento común entre los materialistas de aquella época.

Según el dualismo, la mente no es física (o, al menos, tiene propiedades no físicas ) [12] y, por tanto, no puede explicarse en términos puramente físicos. Según el materialismo, la mente puede explicarse físicamente, lo que deja abierta la posibilidad de que existan mentes que se produzcan artificialmente. [13]

En 1936, el filósofo Alfred Ayer consideró la pregunta filosófica estándar de otras mentes : ¿cómo sabemos que otras personas tienen las mismas experiencias conscientes que nosotros? En su libro Language, Truth and Logic , Ayer sugirió un protocolo para distinguir entre un hombre consciente y una máquina inconsciente: "El único fundamento que puedo tener para afirmar que un objeto que parece ser consciente no es realmente un ser consciente, sino sólo un muñeco o una máquina, es que no logra satisfacer una de las pruebas empíricas mediante las cuales se determina la presencia o ausencia de conciencia". [14] (Esta sugerencia es muy similar a la prueba de Turing, pero no es seguro que el popular clásico filosófico de Ayer fuera familiar para Turing.) En otras palabras, una cosa no es consciente si no pasa la prueba de conciencia.

Trasfondo cultural

Las pruebas en las que un humano juzga si una computadora o un extraterrestre son inteligentes eran una convención establecida en la ciencia ficción en la década de 1940, y es probable que Turing estuviera al tanto de ellas. [15] "Una odisea marciana" (1934) de Stanley G. Weinbaum proporciona un ejemplo de cuán matizadas podrían ser tales pruebas. [15]

Ejemplos anteriores de máquinas o autómatas que intentan hacerse pasar por humanos incluyen el antiguo mito griego de Pigmalión , que crea una escultura de una mujer animada por Afrodita , la novela de Carlo Collodi Las aventuras de Pinocho , sobre un títere que quiere convertirse en un verdadero boy, y el cuento de ETA Hoffmann de 1816 " El hombre de arena ", donde el protagonista se enamora de un autómata. En todos estos ejemplos, la gente se deja engañar por seres artificiales que, hasta cierto punto, pasan por humanos. [dieciséis]

Alan Turing y el juego de la imitación

Investigadores del Reino Unido habían estado explorando la "inteligencia artificial" durante hasta diez años antes de la fundación del campo de investigación de la inteligencia artificial ( IA ) en 1956. [17] Era un tema común entre los miembros del Ratio Club . un grupo informal de investigadores británicos en cibernética y electrónica que incluía a Alan Turing. [18]

Turing, en particular, había estado aplicando la noción de inteligencia artificial desde al menos 1941 [19] y una de las primeras menciones conocidas de "inteligencia informática" fue hecha por él en 1947. [20] En el informe de Turing, "Intelligent Machinery ", [21] investigó "la cuestión de si es posible o no que una máquina muestre un comportamiento inteligente" [22] y, como parte de esa investigación, propuso lo que puede considerarse el precursor de sus pruebas posteriores:

No es difícil idear una máquina de papel que pueda jugar una partida de ajedrez no muy mala. [23] Ahora toma a tres hombres A, B y C como sujetos para el experimento. A y C serán jugadores de ajedrez bastante pobres, B es el operador que maneja la máquina de papel. ... Se utilizan dos salas con alguna disposición para comunicar movimientos, y se juega un juego entre C y A o la máquina de papel. A C puede resultarle bastante difícil saber cuál está jugando. [24]

" Computing Machinery and Intelligence " (1950) fue el primer artículo publicado por Turing que se centró exclusivamente en la inteligencia de las máquinas. Turing comienza el artículo de 1950 con la afirmación: "Propongo considerar la pregunta '¿Pueden pensar las máquinas? ' " [6] Como él mismo destaca, el enfoque tradicional a tal pregunta es comenzar con definiciones , definiendo ambos términos "máquina" y pensar". Turing decide no hacerlo; en cambio, reemplaza la pregunta por una nueva, "que está estrechamente relacionada con ella y se expresa en palabras relativamente inequívocas". [6] En esencia, propone cambiar la pregunta "¿Pueden las máquinas pensar?" a "¿Pueden las máquinas hacer lo que nosotros (como entidades pensantes) podemos hacer?" [25] La ventaja de la nueva pregunta, sostiene Turing, es que traza "una línea bastante clara entre las capacidades físicas e intelectuales de un hombre". [26]

Para demostrar este enfoque, Turing propone una prueba inspirada en un juego de mesa , conocido como "juego de imitación", en el que un hombre y una mujer entran en habitaciones separadas y los invitados intentan diferenciarlos escribiendo una serie de preguntas y leyendo el texto mecanografiado. respuestas enviadas de vuelta. En este juego, tanto el hombre como la mujer pretenden convencer a los invitados de que son el otro. (Huma Shah sostiene que Turing presentó esta versión del juego para dos humanos solo para presentar al lector la prueba de pregunta y respuesta entre máquina y humano. [27] ) Turing describió su nueva versión del juego de la siguiente manera:

Ahora nos hacemos la pregunta: "¿Qué pasará cuando una máquina tome el papel de A en este juego?" ¿Se equivocará el interrogador con tanta frecuencia cuando se juega así como cuando se juega entre un hombre y una mujer? Estas preguntas reemplazan nuestra pregunta original: "¿Pueden pensar las máquinas?" [26]

Más adelante en el artículo, Turing sugiere una formulación alternativa "equivalente" en la que un juez conversa sólo con una computadora y un hombre. [28] Si bien ninguna de estas formulaciones coincide exactamente con la versión de la prueba de Turing que se conoce más generalmente hoy en día, propuso una tercera en 1952. En esta versión, que Turing discutió en una transmisión de radio de la BBC , un jurado hace preguntas a una computadora. y el papel del ordenador es hacer creer a una proporción importante del jurado que realmente se trata de un hombre. [29]

El artículo de Turing consideró nueve supuestas objeciones, que incluyen algunos de los principales argumentos contra la inteligencia artificial que se han planteado en los años transcurridos desde que se publicó el artículo (ver " Computing Machinery and Intelligence "). [7]

ELIZA y PARRY

En 1966, Joseph Weizenbaum creó un programa que pareció pasar la prueba de Turing. El programa, conocido como ELIZA , funcionaba examinando los comentarios escritos por un usuario en busca de palabras clave. Si se encuentra una palabra clave, se aplica una regla que transforma los comentarios del usuario y se devuelve la frase resultante. Si no se encuentra una palabra clave, ELIZA responde con una respuesta genérica o repitiendo uno de los comentarios anteriores. [30] Además, Weizenbaum desarrolló ELIZA para replicar el comportamiento de un psicoterapeuta rogeriano , permitiendo a ELIZA ser "libre de asumir la pose de no saber casi nada del mundo real". [31] Con estas técnicas, el programa de Weizenbaum pudo engañar a algunas personas haciéndoles creer que estaban hablando con una persona real, siendo "muy difícil convencer a algunos sujetos de que ELIZA [...] no es humana". [31] Por lo tanto, algunos afirman que ELIZA es uno de los programas (quizás el primero) capaz de pasar la prueba de Turing, [31] [32] a pesar de que esta opinión es muy polémica (ver Ingenuidad de los interrogadores más abajo).

Kenneth Colby creó PARRY en 1972, un programa descrito como "ELIZA con actitud". [33] Intentó modelar el comportamiento de un esquizofrénico paranoide , utilizando un enfoque similar (aunque más avanzado) al empleado por Weizenbaum. Para validar el trabajo, PARRY se probó a principios de la década de 1970 utilizando una variación de la prueba de Turing. Un grupo de psiquiatras experimentados analizó una combinación de pacientes reales y computadoras ejecutando PARRY a través de teleimpresores . A otro grupo de 33 psiquiatras se les mostraron transcripciones de las conversaciones. Luego se pidió a los dos grupos que identificaran cuáles de los "pacientes" eran humanos y cuáles eran programas de computadora. [34] Los psiquiatras pudieron hacer la identificación correcta sólo el 52 por ciento de las veces, una cifra consistente con conjeturas aleatorias. [34]

En el siglo XXI, las versiones de estos programas (ahora conocidos como " chatbots ") siguen engañando a la gente. "CyberLover", un programa malicioso , se aprovecha de los usuarios de Internet convenciéndolos de "revelar información sobre sus identidades o llevarlos a visitar un sitio web que entregará contenido malicioso en sus computadoras". [35] El programa ha surgido como un "riesgo de San Valentín" que coquetea con personas "que buscan relaciones en línea para recopilar sus datos personales". [36]

la sala china

El artículo de John Searle de 1980 Mentes, cerebros y programas propuso el experimento mental de la " habitación china " y argumentó que la prueba de Turing no podía usarse para determinar si una máquina podía pensar. Searle señaló que el software (como ELIZA) podía pasar la prueba de Turing simplemente manipulando símbolos que no entendían. Sin comprensión, no se les podría describir como "pensantes" en el mismo sentido que lo hace la gente. Por lo tanto, concluyó Searle, la prueba de Turing no podía demostrar que las máquinas pudieran pensar. [37] Al igual que la propia prueba de Turing, el argumento de Searle ha sido ampliamente criticado [38] y respaldado. [39]

Argumentos como el de Searle y otros que trabajan en la filosofía de la mente desencadenaron un debate más intenso sobre la naturaleza de la inteligencia, la posibilidad de máquinas con una mente consciente y el valor de la prueba de Turing que continuó durante las décadas de 1980 y 1990. [40]

Premio Löbner

El Premio Loebner proporciona una plataforma anual para las pruebas prácticas de Turing y el primer concurso se celebró en noviembre de 1991. [41] Está financiado por Hugh Loebner . El Centro de Estudios del Comportamiento de Cambridge en Massachusetts , Estados Unidos, organizó los premios hasta el concurso de 2003 inclusive. Como lo describió Loebner, una de las razones por las que se creó la competencia es para avanzar en el estado de la investigación de la IA, al menos en parte, porque nadie había tomado medidas para implementar la prueba de Turing a pesar de 40 años de discutirla. [42]

El primer concurso del Premio Loebner en 1991 dio lugar a un renovado debate sobre la viabilidad de la prueba de Turing y el valor de aplicarla, tanto en la prensa popular [43] como en el mundo académico. [44] El primer concurso lo ganó un programa estúpido sin inteligencia identificable que logró engañar a interrogadores ingenuos para que hicieran una identificación incorrecta. Esto puso de relieve varias de las deficiencias de la prueba de Turing (que se analizan más adelante): el ganador ganó, al menos en parte, porque era capaz de "imitar los errores de escritura humanos"; [43] los interrogadores poco sofisticados fueron engañados fácilmente; [44] y algunos investigadores en IA han llegado a sentir que la prueba es simplemente una distracción de investigaciones más fructíferas. [45]

Los premios de plata (solo texto) y oro (audio y visual) nunca se han ganado. Sin embargo, el concurso otorga cada año la medalla de bronce al sistema informático que, en opinión de los jueces, demuestra el comportamiento conversacional "más humano" entre los participantes de ese año. Artificial Linguistic Internet Computer Entity (ALICE) ha ganado el premio de bronce en tres ocasiones en los últimos tiempos (2000, 2001, 2004). Learning AI Jabberwacky ganó en 2005 y 2006.

El Premio Loebner pone a prueba la inteligencia conversacional; Los ganadores suelen ser programas de chatterbot o entidades conversacionales artificiales (ACE) . Las primeras reglas del Premio Loebner restringían las conversaciones: cada participante y humano oculto conversaban sobre un solo tema, [46] por lo que los interrogadores estaban restringidos a una línea de preguntas por interacción de entidad. En el Premio Loebner de 1995 se eliminó la regla de la conversación restringida. La duración de la interacción entre juez y entidad ha variado en los Premios Loebner. En Loebner 2003, en la Universidad de Surrey, a cada interrogador se le permitieron cinco minutos para interactuar con una entidad, máquina o humano oculto. Entre 2004 y 2007, el tiempo de interacción permitido en los premios Loebner era de más de veinte minutos.

Chatbot de Google LaMDA

En junio de 2022, el chatbot LaMDA (modelo de lenguaje para aplicaciones de diálogo) de Google recibió una amplia cobertura con respecto a las afirmaciones de que había alcanzado sensibilidad. Inicialmente, en un artículo de The Economist , el investigador de Google, Blaise Agüera y Arcas, dijo que el chatbot había demostrado cierto grado de comprensión de las relaciones sociales. [47] Varios días después, el ingeniero de Google Blake Lemoine afirmó en una entrevista con el Washington Post que LaMDA había alcanzado la sensibilidad. Google había puesto a Lemoine en licencia por afirmaciones internas en este sentido. Agüera y Arcas (vicepresidente de Google) y Jen Gennai (directora de Innovación Responsable) habían investigado las afirmaciones pero las desestimaron. [48] ​​La afirmación de Lemoine fue rotundamente rechazada por otros expertos en el campo, señalando que un modelo de lenguaje que parece imitar la conversación humana no indica que haya ninguna inteligencia detrás de él, [49] a pesar de que parece pasar la prueba de Turing. La discusión generalizada entre los defensores a favor y en contra de la afirmación de que LaMDA ha alcanzado la sensibilidad ha provocado debates en las plataformas de redes sociales, para incluir la definición del significado de la sensibilidad, así como lo que significa ser humano.

Versiones

El juego de imitación, tal y como lo describe Alan Turing en “Computing Machinery and Intelligence”. El jugador C, a través de una serie de preguntas escritas, intenta determinar cuál de los otros dos jugadores es el hombre y cuál de los dos es la mujer. El jugador A, el hombre, intenta engañar al jugador C para que tome la decisión equivocada, mientras que el jugador B intenta ayudar al jugador C. Figura adaptada de Saygin, 2000. [8]

Saul Traiger sostiene que existen al menos tres versiones principales de la prueba de Turing, dos de las cuales se ofrecen en "Computing Machinery and Intelligence" y una que describe como la "Interpretación estándar". [50] Si bien existe cierto debate sobre si la "Interpretación estándar" es la descrita por Turing o, en cambio, basada en una mala interpretación de su artículo, estas tres versiones no se consideran equivalentes, [50] y sus fortalezas y debilidades son distinto. [51]

El artículo original de Turing describe un juego de mesa sencillo en el que participan tres jugadores. El jugador A es un hombre, el jugador B es una mujer y el jugador C (que desempeña el papel de interrogador) es de ambos sexos. En el juego de imitación, el jugador C no puede ver ni al jugador A ni al jugador B, y sólo puede comunicarse con ellos a través de notas escritas. Al hacer preguntas al jugador A y al jugador B, el jugador C intenta determinar cuál de los dos es el hombre y cuál es la mujer. El papel del jugador A es engañar al interrogador para que tome la decisión equivocada, mientras que el jugador B intenta ayudar al interrogador a tomar la decisión correcta. [8]

Turing luego pregunta:

"¿Qué pasará cuando una máquina tome el papel de A en este juego? ¿El interrogador decidirá equivocadamente tan a menudo cuando el juego se juega así como cuando se juega entre un hombre y una mujer?" Estas preguntas reemplazan nuestra pregunta original: "¿Pueden pensar las máquinas?" [26]

La prueba del juego de imitación original, en la que el jugador A es reemplazado por una computadora. La computadora ahora asume el papel del hombre, mientras el jugador B continúa intentando ayudar al interrogador. Figura adaptada de Saygin, 2000. [8]

La segunda versión apareció más tarde en el artículo de Turing de 1950. De manera similar a la prueba del juego de imitación original, el papel del jugador A lo desempeña una computadora. Sin embargo, el papel del jugador B lo desempeña un hombre y no una mujer.

Fijemos nuestra atención en una computadora digital C en particular . ¿Es cierto que modificando esta computadora para que tenga un almacenamiento adecuado, aumentando adecuadamente su velocidad de acción y dotándola de un programa apropiado, se puede hacer que C desempeñe satisfactoriamente el papel? de A en el juego de imitación, siendo la parte de B la que toma un hombre? [26]

En esta versión, tanto el jugador A (la computadora) como el jugador B intentan engañar al interrogador para que tome una decisión incorrecta.

La interpretación estándar no está incluida en el artículo original, pero es aceptada y debatida. Se entiende comúnmente que el propósito de la prueba de Turing no es determinar específicamente si una computadora es capaz de engañar a un interrogador haciéndole creer que es un humano, sino más bien si una computadora podría imitar a un humano. [8] Si bien existe cierta controversia sobre si Turing pretendía esta interpretación, Sterrett cree que así fue [52] y, por lo tanto, combina la segunda versión con esta, mientras que otros, como Traiger, no  lo hacen [50] ; condujo a lo que puede considerarse la "interpretación estándar". En esta versión, el jugador A es una computadora y el jugador B una persona de ambos sexos. El papel del interrogador no es determinar quién es hombre y quién es mujer, sino quién es una computadora y quién es un humano. [53] El problema fundamental con la interpretación estándar es que el interrogador no puede diferenciar qué respondedor es humano y cuál es una máquina. Hay cuestiones sobre la duración, pero la interpretación estándar generalmente considera esta limitación como algo que debería ser razonable.

Interpretaciones

Ha surgido controversia sobre cuál de las formulaciones alternativas de la prueba pretendía Turing. [52] Sterrett sostiene que se pueden extraer dos pruebas distintas de su artículo de 1950 y que, a pesar de la observación de Turing, no son equivalentes. La prueba que emplea el juego de mesa y compara las frecuencias de éxito se conoce como "Prueba del juego de imitación original", mientras que la prueba que consiste en un juez humano conversando con un humano y una máquina se conoce como "Prueba de Turing estándar". señalando que Sterrett equipara esto con la "interpretación estándar" en lugar de la segunda versión del juego de imitación. Sterrett está de acuerdo en que la prueba estándar de Turing (STT) tiene los problemas que citan sus críticos, pero siente que, en contraste, la prueba de juego de imitación original (prueba OIG) así definida es inmune a muchos de ellos, debido a una diferencia crucial: a diferencia de la STT, no hace de la similitud con el desempeño humano el criterio, aunque emplea el desempeño humano para establecer un criterio para la inteligencia de las máquinas. Un hombre puede fallar la prueba de la OIG, pero se argumenta que es una virtud de una prueba de inteligencia que el fracaso indica una falta de ingenio: la prueba de la OIG requiere el ingenio asociado con la inteligencia y no simplemente "simulación del comportamiento conversacional humano". La estructura general de la prueba OIG podría utilizarse incluso con versiones no verbales de juegos de imitación. [54]

Según Huma Shah, el propio Turing estaba preocupado por si una máquina podía pensar y estaba proporcionando un método simple para examinar esto: a través de sesiones de preguntas y respuestas entre humanos y máquinas. [55] Shah sostiene que el juego de imitación que Turing describió podría llevarse a la práctica de dos maneras diferentes: a) prueba uno a uno entre el interrogador y la máquina, y b) comparación simultánea de una máquina con un humano, ambos interrogados en paralelo por un interrogador. . [27]

Otros autores [56] han interpretado que Turing propone que el juego de imitación en sí mismo es la prueba, sin especificar cómo tomar en cuenta la afirmación de Turing de que la prueba que propuso utilizando la versión grupal del juego de imitación se basa en un criterio de comparación. frecuencia de éxito en ese juego de imitación, más que la capacidad de tener éxito en una ronda del juego.

Algunos escritores sostienen que el juego de imitación se entiende mejor por sus aspectos sociales. En su artículo de 1948, Turing se refiere a la inteligencia como un "concepto emocional" y señala que

El grado en que consideramos que algo se comporta de manera inteligente está determinado tanto por nuestro propio estado mental y entrenamiento como por las propiedades del objeto bajo consideración. Si somos capaces de explicar y predecir su comportamiento o si parece haber poco plan subyacente, tenemos poca tentación de imaginar inteligencia. Por tanto, con el mismo objeto es posible que un hombre lo considere inteligente y otro no; el segundo hombre habría descubierto las reglas de su comportamiento. [57]

Siguiendo esta observación y otras similares diseminadas a lo largo de las publicaciones de Turing, Diane Proudfoot [58] afirma que Turing mantenía un enfoque de la inteligencia basado en la respuesta , según el cual una entidad inteligente (o pensante) es aquella que parece inteligente para un interrogador promedio. Bernardo Gonçalves muestra que, aunque Turing utilizó la retórica de presentar su prueba como una especie de experimento crucial para decidir si se puede decir que las máquinas piensan, [59] la presentación real de su prueba satisface propiedades bien conocidas de los experimentos mentales en el mundo científico moderno. tradición de Galileo. [60] Shlomo Danziger [61] promueve una interpretación sociotecnológica, según la cual Turing veía el juego de imitación no como una prueba de inteligencia sino como una aspiración tecnológica, cuya realización probablemente implicaría un cambio en la actitud de la sociedad hacia las máquinas. Según esta lectura, la célebre predicción de 50 años de Turing (que a finales del siglo XX su prueba será superada por alguna máquina) en realidad consta de dos predicciones distinguibles. La primera es una predicción tecnológica:

Creo que dentro de unos cincuenta años será posible programar computadoras... para hacerlas jugar el juego de la imitación tan bien que un interrogador promedio no tendrá más del 70% de posibilidades de realizar la identificación correcta después de cinco minutos de interrogatorio. . [62]

La segunda predicción que hace Turing es sociológica:

Creo que a finales de siglo el uso de las palabras y la opinión general educada habrán cambiado tanto que se podrá hablar de máquinas que piensan sin esperar que nos contradigan. [62]

Danziger afirma además que, para Turing, la alteración de la actitud de la sociedad hacia la maquinaria es un requisito previo para la existencia de máquinas inteligentes: sólo cuando el término "máquina inteligente" ya no se vea como un oxímoron, la existencia de máquinas inteligentes será lógicamente posible.

Saygin ha sugerido que tal vez el juego original sea una forma de proponer un diseño experimental menos sesgado ya que oculta la participación del ordenador. [63] El juego de imitación también incluye un "truco social" que no se encuentra en la interpretación estándar, ya que en el juego tanto la computadora como el ser humano deben jugar pretendiendo ser alguien que no son. [64]

¿El interrogador debería saber acerca de la computadora?

Una parte crucial de cualquier prueba de laboratorio es que debe haber un control. Turing nunca deja claro si el interrogador en sus pruebas es consciente de que uno de los participantes es una computadora. Sólo afirma que el jugador A debe ser reemplazado por una máquina, no que el jugador C debe ser informado de esta sustitución. [26] Cuando Colby, FD Hilf, S Weber y AD Kramer probaron PARRY, lo hicieron asumiendo que los interrogadores no necesitaban saber que uno o más de los entrevistados era una computadora durante el interrogatorio. [65] Como han destacado Ayse Saygin, Peter Swirski, [66] y otros, esto marca una gran diferencia en la implementación y el resultado de la prueba. [8] En un estudio experimental que analizó las violaciones de la máxima de Grice utilizando transcripciones del Premio uno a uno (interrogador-interlocutor oculto) de Loebner para concursos de IA entre 1994 y 1999, Ayse Saygin encontró diferencias significativas entre las respuestas de los participantes que sabían y no sabían. saber acerca de las computadoras involucradas. [67]

Fortalezas

Tratabilidad y simplicidad

El poder y el atractivo de la prueba de Turing derivan de su simplicidad. La filosofía de la mente , la psicología y la neurociencia moderna han sido incapaces de proporcionar definiciones de "inteligencia" y "pensamiento" que sean lo suficientemente precisas y generales para ser aplicadas a las máquinas. Sin tales definiciones, no se pueden responder las cuestiones centrales de la filosofía de la inteligencia artificial . La prueba de Turing, aunque imperfecta, al menos proporciona algo que realmente puede medirse. Como tal, es un intento pragmático de responder a una difícil cuestión filosófica.

Amplitud del tema

El formato de la prueba permite al interrogador asignar a la máquina una amplia variedad de tareas intelectuales. Turing escribió que "el método de preguntas y respuestas parece adecuado para presentar casi cualquiera de los campos del esfuerzo humano que deseamos incluir". [68] John Haugeland añade que "comprender las palabras no es suficiente; también hay que entender el tema ". [69]

Para pasar una prueba de Turing bien diseñada, la máquina debe utilizar lenguaje natural , razonar , tener conocimientos y aprender . La prueba se puede ampliar para incluir entrada de vídeo, así como una "escotilla" a través de la cual se pueden pasar objetos: esto obligaría a la máquina a demostrar también el uso hábil de visión y robótica bien diseñadas. En conjunto, estos representan casi todos los principales problemas que la investigación en inteligencia artificial quisiera resolver. [70]

La prueba de Feigenbaum está diseñada para aprovechar la amplia gama de temas disponibles para una prueba de Turing. Es una forma limitada del juego de preguntas y respuestas de Turing que compara la máquina con las habilidades de expertos en campos específicos como la literatura o la química .

Énfasis en la inteligencia emocional y estética.

Como graduado con honores de Cambridge en matemáticas, se podría haber esperado que Turing propusiera una prueba de inteligencia informática que requiriera conocimientos expertos en algún campo altamente técnico y, por lo tanto, anticipara un enfoque más reciente del tema . En cambio, como ya se señaló, la prueba que describió en su artículo fundamental de 1950 requiere que la computadora pueda competir con éxito en un juego de grupo común, y esto respondiendo tan bien como el hombre típico una serie de preguntas para pretender convincentemente ser la mujer concursante.

Dado el estatus del dimorfismo sexual humano como uno de los temas más antiguos , está implícito en el escenario anterior que las preguntas a responder no implicarán conocimientos fácticos especializados ni técnicas de procesamiento de información. El desafío para la computadora, más bien, será demostrar empatía por el papel de la mujer y demostrar también una sensibilidad estética característica, cualidades que se muestran en este fragmento de diálogo que Turing ha imaginado:

Interrogador: ¿Podría X decirme la longitud de su cabello?
Concursante: Mi cabello tiene tejas y los mechones más largos miden aproximadamente nueve pulgadas de largo.

Cuando Turing introduce algún conocimiento especializado en uno de sus diálogos imaginados, el tema no es matemáticas o electrónica, sino poesía:

Interrogador: En la primera línea de tu soneto que dice: "¿Te compararé con un día de verano", "un día de primavera" no sería tan bien o mejor?
Testigo: No escanearía .
Interrogador: ¿Qué tal "un día de invierno"? Eso escanearía bien.
Testigo: Sí, pero nadie quiere ser comparado con un día de invierno.

Turing demuestra así una vez más su interés por la empatía y la sensibilidad estética como componentes de una inteligencia artificial; y a la luz de una creciente conciencia de la amenaza que supone una IA enloquecida, [71] se ha sugerido [72] que este enfoque quizás represente una intuición crítica por parte de Turing, es decir, que la inteligencia emocional y estética desempeñará un papel clave en la creación de una " IA amigable ". Sin embargo, cabe señalar que cualquier inspiración que Turing pueda brindar en esta dirección depende de la preservación de su visión original, es decir, además, que la promulgación de una "interpretación estándar" de la prueba de Turing, es decir, , que se centra únicamente en una inteligencia discursiva, debe considerarse con cierta cautela.

Debilidades

Turing no afirmó explícitamente que la prueba de Turing pudiera usarse como una medida de " inteligencia " o cualquier otra cualidad humana. Quería ofrecer una alternativa clara y comprensible a la palabra "pensar", que luego podría utilizar para responder a las críticas sobre la posibilidad de "máquinas pensantes" y sugerir formas en que la investigación podría avanzar.

Sin embargo, el test de Turing se ha propuesto como medida de la "capacidad de pensar" o de su "inteligencia" de una máquina. Esta propuesta ha recibido críticas tanto de filósofos como de informáticos. La interpretación parte del supuesto de que un interrogador puede determinar si una máquina está "pensando" comparando su comportamiento con el comportamiento humano. Se ha cuestionado cada elemento de esta suposición: la confiabilidad del juicio del interrogador, el valor de comparar la máquina con un humano y el valor de comparar sólo el comportamiento. Debido a estas y otras consideraciones, algunos investigadores de IA han cuestionado la relevancia de la prueba para su campo.

La ingenuidad de los interrogadores

En la práctica, los resultados de la prueba pueden fácilmente estar dominados no por la inteligencia de la computadora, sino por las actitudes, habilidades o ingenuidad del interrogador. Numerosos expertos en el campo, incluido el científico cognitivo Gary Marcus , insisten en que la prueba de Turing sólo muestra lo fácil que es engañar a los humanos y no es una indicación de la inteligencia de las máquinas. [73]

Turing no especifica las habilidades y conocimientos precisos que requiere el interrogador en su descripción de la prueba, pero sí utilizó el término "interrogador promedio": "[el] interrogador promedio no tendría más del 70 por ciento de posibilidades de tomar la decisión correcta". identificación después de cinco minutos de interrogatorio". [62]

Los programas Chatterbot como ELIZA han engañado repetidamente a personas desprevenidas haciéndoles creer que se están comunicando con seres humanos. En estos casos, los "interrogadores" ni siquiera son conscientes de la posibilidad de que estén interactuando con ordenadores. Para parecer humano con éxito, no es necesario que la máquina tenga inteligencia alguna y sólo se requiere un parecido superficial con el comportamiento humano.

Los primeros concursos del Premio Loebner utilizaban interrogadores "poco sofisticados" que se dejaban engañar fácilmente por las máquinas. [44] Desde 2004, los organizadores del Premio Loebner han desplegado a filósofos, informáticos y periodistas entre los interrogadores. Sin embargo, algunos de estos expertos han sido engañados por las máquinas. [74]

Una característica interesante de la prueba de Turing es la frecuencia del efecto confederado , cuando los interrogadores identifican erróneamente a los humanos confederados (probados) como máquinas. Se ha sugerido que lo que los interrogadores esperan como respuestas humanas no es necesariamente típico de los humanos. Como resultado, algunos individuos pueden clasificarse como máquinas. Por lo tanto, esto puede favorecer a una máquina de la competencia. Los humanos reciben instrucciones de "actuar por sí mismos", pero a veces sus respuestas se parecen más a lo que el interrogador espera que diga una máquina. [75] Esto plantea la cuestión de cómo garantizar que los humanos estén motivados para "actuar como humanos".

Inteligencia humana versus inteligencia en general

La prueba de Turing no prueba directamente si la computadora se comporta de manera inteligente. Sólo prueba si la computadora se comporta como un ser humano. Dado que el comportamiento humano y el comportamiento inteligente no son exactamente lo mismo, la prueba puede fallar en medir con precisión la inteligencia de dos maneras:

Algunos comportamientos humanos son poco inteligentes
La prueba de Turing requiere que la máquina sea capaz de ejecutar todos los comportamientos humanos, independientemente de si son inteligentes. Incluso prueba comportamientos que pueden no considerarse inteligentes en absoluto, como la susceptibilidad a los insultos, [76] la tentación de mentir o, simplemente, una alta frecuencia de errores tipográficos . Si una máquina no puede imitar estos comportamientos poco inteligentes en detalle, no pasa la prueba.
Esta objeción fue planteada por The Economist , en un artículo titulado " estupidez artificial " publicado poco después del primer concurso del Premio Loebner en 1992. El artículo señalaba que la victoria del primer ganador del Loebner se debía, al menos en parte, a su capacidad para "imitar errores humanos de mecanografía." [43] El propio Turing había sugerido que los programas agreguen errores a su salida, para ser mejores "jugadores" del juego. [77]
Algunos comportamientos inteligentes son inhumanos.
La prueba de Turing no evalúa comportamientos muy inteligentes, como la capacidad de resolver problemas difíciles o generar ideas originales. De hecho, requiere específicamente un engaño por parte de la máquina: si la máquina es más inteligente que un ser humano, debe evitar deliberadamente parecer demasiado inteligente. Si tuviera que resolver un problema computacional que es prácticamente imposible de resolver para un humano, entonces el interrogador sabría que el programa no es humano y la máquina fallaría la prueba.
Debido a que no puede medir inteligencia que está más allá de la capacidad de los humanos, la prueba no puede usarse para construir o evaluar sistemas que sean más inteligentes que los humanos. Debido a esto, se han propuesto varias alternativas de prueba que podrían evaluar sistemas superinteligentes. [78]

Conciencia versus simulación de conciencia

La prueba de Turing se ocupa estrictamente de cómo actúa el sujeto  : el comportamiento externo de la máquina. En este sentido, se necesita un enfoque conductista o funcionalista para el estudio de la mente. El ejemplo de ELIZA sugiere que una máquina que pase la prueba puede ser capaz de simular el comportamiento conversacional humano siguiendo una lista simple (pero larga) de reglas mecánicas, sin pensar ni tener mente en absoluto.

John Searle ha sostenido que el comportamiento externo no puede utilizarse para determinar si una máquina está "realmente" pensando o simplemente "simulando el pensamiento". [37] Su argumento de la sala china pretende mostrar que, incluso si la prueba de Turing es una buena definición operativa de inteligencia, puede no indicar que la máquina tenga mente , conciencia o intencionalidad . (La intencionalidad es un término filosófico para referirse al poder de los pensamientos para referirse "a" algo).

Turing anticipó esta línea de crítica en su artículo original, [79] escribiendo:

No deseo dar la impresión de que creo que no hay ningún misterio acerca de la conciencia. Hay, por ejemplo, algo parecido a una paradoja relacionada con cualquier intento de localizarlo. Pero no creo que sea necesario resolver estos misterios antes de que podamos responder a la pregunta que nos ocupa en este artículo. [80]

Impracticabilidad e irrelevancia: la prueba de Turing y la investigación en IA

Intento de talkbot GPT-3

Los principales investigadores de IA sostienen que intentar pasar la prueba de Turing es simplemente una distracción de investigaciones más fructíferas. [45] De hecho, la prueba de Turing no es un foco activo de mucho esfuerzo académico o comercial; como escriben Stuart Russell y Peter Norvig : "Los investigadores de IA han dedicado poca atención a pasar la prueba de Turing". [81] Hay varias razones.

Primero, existen formas más sencillas de probar sus programas. La mayoría de las investigaciones actuales en campos relacionados con la IA están dirigidas a objetivos modestos y específicos, como el reconocimiento de objetos o la logística . Para probar la inteligencia de los programas que resuelven estos problemas, los investigadores de IA simplemente les asignan la tarea directamente. Stuart Russell y Peter Norvig sugieren una analogía con la historia del vuelo : los aviones se prueban por lo bien que vuelan, no comparándolos con los pájaros. " Los textos de ingeniería aeronáutica ", escriben, "no definen el objetivo de su campo como 'fabricar máquinas que vuelen exactamente como palomas para poder engañar a otras palomas ' " .

En segundo lugar, crear simulaciones realistas de seres humanos es un problema difícil en sí mismo que no necesita solución para lograr los objetivos básicos de la investigación en IA. Los personajes humanos creíbles pueden ser interesantes en una obra de arte, un juego o una interfaz de usuario sofisticada , pero no forman parte de la ciencia de crear máquinas inteligentes, es decir, máquinas que resuelven problemas utilizando la inteligencia.

Turing no tenía la intención de que su idea se utilizara para probar la inteligencia de los programas; quería proporcionar un ejemplo claro y comprensible para ayudar en la discusión de la filosofía de la inteligencia artificial . [82] John McCarthy sostiene que no debería sorprendernos que una idea filosófica resulte inútil para aplicaciones prácticas. Observa que es poco probable que la filosofía de la IA tenga más efecto en la práctica de la investigación de la IA que el que la filosofía de la ciencia generalmente tiene en la práctica de la ciencia. [83] [84]

La objeción centrada en el lenguaje

Otra objeción bien conocida planteada hacia el Test de Turing se refiere a su enfoque exclusivo en el comportamiento lingüístico (es decir, es sólo un experimento "basado en el lenguaje", mientras que todas las demás facultades cognitivas no se prueban). Este inconveniente reduce el papel de otras "habilidades inteligentes" específicas de modalidades en el ser humano que el psicólogo Howard Gardner, en su " teoría de las inteligencias múltiples ", propone considerar (las habilidades lingüístico-verbales son sólo una de ellas). [85]

Silencio

Un aspecto crítico de la prueba de Turing es que una máquina debe revelarse como tal mediante sus expresiones. Luego, un interrogador debe realizar la "identificación correcta" identificando correctamente la máquina como precisamente eso. Sin embargo, si una máquina permanece en silencio durante una conversación, entonces no será posible para un interrogador identificar con precisión la máquina más que mediante una suposición calculada. [86] Incluso tener en cuenta a un humano paralelo/oculto como parte de la prueba puede no ayudar a la situación, ya que los humanos a menudo pueden ser identificados erróneamente como una máquina. [87]

La trampa de Turing

Al centrarse en imitar a los humanos, en lugar de aumentar o ampliar las capacidades humanas, la prueba de Turing corre el riesgo de dirigir la investigación y la implementación hacia tecnologías que sustituyan a los humanos y, por lo tanto, reduzcan los salarios y los ingresos de los trabajadores. A medida que pierden poder económico, estos trabajadores también pueden perder poder político, lo que les dificulta cambiar la asignación de riqueza e ingresos. Esto puede atraparlos en un mal equilibrio. Erik Brynjolfsson ha llamado a esto "La trampa de Turing" y ha argumentado que actualmente existen incentivos excesivos para crear máquinas que imiten a los humanos en lugar de mejorarlos.

Variaciones

A lo largo de los años se han planteado muchas otras versiones de la prueba de Turing, incluidas las expuestas anteriormente.

Prueba de Turing inversa y CAPTCHA

Una modificación de la prueba de Turing en la que el objetivo de uno o más roles se ha invertido entre las máquinas y los humanos se denomina prueba de Turing inversa. Un ejemplo está implícito en el trabajo del psicoanalista Wilfred Bion , [88] quien estaba particularmente fascinado por la "tormenta" que resultó del encuentro de una mente con otra. En su libro de 2000, [66] entre varios otros puntos originales con respecto a la prueba de Turing, el erudito literario Peter Swirski discutió en detalle la idea de lo que denominó prueba de Swirski, esencialmente la prueba de Turing inversa. Señaló que supera la mayoría, si no todas, las objeciones estándar formuladas contra la versión estándar.

Continuando con esta idea, RD Hinshelwood [89] describió la mente como un "aparato de reconocimiento de la mente". El desafío sería que la computadora pudiera determinar si estaba interactuando con un humano u otra computadora. Esta es una extensión de la pregunta original que Turing intentó responder pero que, tal vez, ofrecería un estándar lo suficientemente alto como para definir una máquina que pudiera "pensar" de una manera que normalmente definimos como característicamente humana.

CAPTCHA es una forma de prueba de Turing inversa. Antes de que se le permita realizar alguna acción en un sitio web, al usuario se le presentan caracteres alfanuméricos en una imagen gráfica distorsionada y se le pide que los escriba. Esto tiene como objetivo evitar que se utilicen sistemas automatizados para abusar del sitio. La razón es que no existe (o no está disponible para el usuario medio) software suficientemente sofisticado para leer y reproducir la imagen distorsionada con precisión, por lo que cualquier sistema capaz de hacerlo probablemente sea un ser humano.

Poco después de la creación de CAPTCHA, se comenzó a desarrollar un software que podía revertir CAPTCHA con cierta precisión mediante el análisis de patrones en el motor generador. [90] En 2013, investigadores de Vicarious anunciaron que habían desarrollado un sistema para resolver los desafíos CAPTCHA de Google , Yahoo! y PayPal hasta el 90% del tiempo. [91] En 2014, los ingenieros de Google demostraron un sistema que podía superar los desafíos CAPTCHA con una precisión del 99,8%. [92] En 2015, Shuman Ghosemajumder , ex zar del fraude de clics de Google, afirmó que había sitios cibercriminales que superarían los desafíos CAPTCHA por una tarifa, para permitir diversas formas de fraude. [93]

Distinguir el uso preciso del lenguaje de la comprensión real

Una variación adicional está motivada por la preocupación de que el procesamiento del lenguaje natural moderno demuestre ser muy exitoso a la hora de generar texto a partir de un enorme corpus de texto y pueda eventualmente pasar la prueba de Turing simplemente manipulando palabras y oraciones que se han utilizado en la formación inicial. del modelo. Dado que el interrogador no tiene una comprensión precisa de los datos de entrenamiento, el modelo podría simplemente devolver oraciones que existen de manera similar en la enorme cantidad de datos de entrenamiento. Por este motivo, Arthur Schwaninger propone una variación del test de Turing que puede distinguir entre sistemas que sólo son capaces de utilizar el lenguaje y sistemas que entienden el lenguaje. Propone una prueba en la que la máquina se enfrenta a preguntas filosóficas que no dependen de ningún conocimiento previo y, sin embargo, requieren autorreflexión para ser respondidas adecuadamente. [94]

Prueba de Turing del experto en la materia

Otra variación se describe como la prueba de Turing del experto en la materia , donde la respuesta de una máquina no se puede distinguir de la de un experto en un campo determinado. Esto también se conoce como "prueba de Feigenbaum" y fue propuesto por Edward Feigenbaum en un artículo de 2003. [95]

Prueba de cognición de "bajo nivel"

Robert French (1990) defiende que un interrogador puede distinguir entre interlocutores humanos y no humanos planteando preguntas que revelen los procesos de bajo nivel (es decir, inconscientes) de la cognición humana, tal como los estudia la ciencia cognitiva . Tales preguntas revelan los detalles precisos de la encarnación humana del pensamiento y pueden desenmascarar a una computadora a menos que experimente el mundo como lo experimentan los humanos. [96]

Prueba total de Turing

La variación "Prueba Total de Turing" [4] de la prueba de Turing, propuesta por el científico cognitivo Stevan Harnad , [97] añade dos requisitos más a la prueba de Turing tradicional. El interrogador también puede probar las habilidades de percepción del sujeto (que requiere visión por computadora ) y la capacidad del sujeto para manipular objetos (que requiere robótica ). [98]

registros médicos electrónicos

Una carta publicada en Communications of the ACM [99] describe el concepto de generar una población de pacientes sintética y propone una variación de la prueba de Turing para evaluar la diferencia entre pacientes sintéticos y reales. La carta dice: "En el contexto de la HCE, aunque un médico humano puede distinguir fácilmente entre pacientes humanos generados sintéticamente y pacientes reales, ¿se le podría dar a una máquina la inteligencia para tomar esa determinación por sí sola?" y además la carta dice: "Antes de que las identidades sintéticas de los pacientes se conviertan en un problema de salud pública, el mercado legítimo de EHR podría beneficiarse de la aplicación de técnicas similares a la prueba de Turing para garantizar una mayor confiabilidad de los datos y valor de diagnóstico. Por lo tanto, cualquier técnica nueva debe considerar la heterogeneidad de los pacientes y ser "Es probable que tenga mayor complejidad que la que el examen de ciencias de octavo grado de Allen puede calificar".

Prueba mínima de señal inteligente

La prueba de mínima señal inteligente fue propuesta por Chris McKinstry como "la máxima abstracción de la prueba de Turing", [100] en la que sólo se permiten respuestas binarias (verdadero/falso o sí/no), para centrarse únicamente en la capacidad de pensamiento. Elimina los problemas del chat de texto, como el sesgo de antropomorfismo, y no requiere emulación de comportamiento humano poco inteligente, lo que permite sistemas que exceden la inteligencia humana. Sin embargo, cada una de las preguntas debe ser independiente, lo que lo hace más parecido a una prueba de coeficiente intelectual que a un interrogatorio. Normalmente se utiliza para recopilar datos estadísticos con los que se puede medir el rendimiento de los programas de inteligencia artificial. [101]

Premio Hutter

Los organizadores del Premio Hutter creen que comprimir texto en lenguaje natural es un problema difícil para la IA, equivalente a pasar la prueba de Turing.

La prueba de compresión de datos tiene algunas ventajas sobre la mayoría de las versiones y variaciones de una prueba de Turing, que incluyen:

Las principales desventajas de utilizar la compresión de datos como prueba son:

Otras pruebas basadas en compresión o complejidad de Kolmogorov

Un enfoque relacionado con el premio de Hutter que apareció mucho antes, a finales de los años 1990, es la inclusión de problemas de compresión en una prueba de Turing ampliada. [102] o mediante pruebas que se derivan completamente de la complejidad de Kolmogorov . [103] Hernández-Orallo y Dowe presentan otras pruebas relacionadas en esta línea. [104]

El coeficiente intelectual algorítmico, o AIQ para abreviar, es un intento de convertir la medida teórica de inteligencia universal de Legg y Hutter (basada en la inferencia inductiva de Solomonoff ) en una prueba práctica de inteligencia artificial. [105]

Dos ventajas principales de algunas de estas pruebas son su aplicabilidad a inteligencias no humanas y la ausencia de requisitos para pruebas humanas.

prueba de ebert

La prueba de Turing inspiró la prueba de Ebert propuesta en 2011 por el crítico de cine Roger Ebert , que consiste en comprobar si una voz sintetizada por computadora tiene la habilidad suficiente en términos de entonación, inflexiones, sincronización, etc., para hacer reír a la gente. [106]

Juego social de Turing

Aprovechando los grandes modelos de lenguaje , en 2023 la empresa de investigación AI21 Labs creó un experimento social en línea titulado "¿Humano o no?". [107] [108] Fue jugado más de 10 millones de veces por más de 2 millones de personas. [109] Es el mayor experimento de estilo Turing hasta la fecha. Los resultados mostraron que el 32% de las personas no podían distinguir entre humanos y máquinas. [110] [111]

Conferencias

Coloquio de Turing

1990 marcó el cuadragésimo aniversario de la primera publicación del artículo "Computing Machinery and Intelligence" de Turing y vio un renovado interés en la prueba. En ese año ocurrieron dos eventos significativos: el primero fue el Coloquio de Turing, que se celebró en la Universidad de Sussex en abril, y reunió a académicos e investigadores de una amplia variedad de disciplinas para discutir la prueba de Turing en términos de su pasado, presente y futuro; el segundo fue la creación del concurso anual del Premio Loebner .

Blay Whitby enumera cuatro puntos de inflexión importantes en la historia de la prueba de Turing: la publicación de "Computing Machinery and Intelligence" en 1950, el anuncio de ELIZA de Joseph Weizenbaum en 1966, la creación de PARRY por Kenneth Colby , que fue descrito por primera vez. en 1972 y el Coloquio de Turing en 1990. [112]

Simposio AISB 2008

Paralelamente al Premio Loebner 2008 celebrado en la Universidad de Reading , [113] la Sociedad para el Estudio de la Inteligencia Artificial y la Simulación del Comportamiento (AISB), organizó un simposio de un día para discutir la prueba de Turing, organizado por John Barnden. , Mark Bishop , Huma Shah y Kevin Warwick . [114] Entre los oradores se encontraban la directora de la Royal Institution, la baronesa Susan Greenfield , Selmer Bringsjord , el biógrafo de Turing, Andrew Hodges , y el científico de la conciencia Owen Holland . No surgió ningún acuerdo para una prueba de Turing canónica, aunque Bringsjord expresó que un premio considerable permitiría que la prueba de Turing se aprobara antes.

Ver también

Notas

  1. ^ Imagen adaptada de Saygin 2000
  2. ^ ab (Turing 1950). Turing escribió sobre el "juego de la imitación" de manera central y extensa a lo largo de su texto de 1950, pero aparentemente retiró el término posteriormente. Se refirió a '[su] prueba' cuatro veces: tres veces en las págs. 446 y 447 y una vez en la pág. 454. También se refirió a ello como un "experimento" (una vez en la p. 436, dos veces en la pág. 455, y dos veces más en la p. 457—y utilizó el término 'viva voce' (p. 446), véase Gonçalves (2023b, p. 2). Consulte también #Versiones a continuación. Turing ofrece una versión más precisa de la pregunta más adelante en el artículo: "[E]stas preguntas [son] equivalentes a esto: 'Fijemos nuestra atención en una computadora digital C en particular. ¿Es cierto que al modificar esta computadora para que tenga con un almacenamiento adecuado, aumentando adecuadamente su velocidad de acción y proporcionándole un programa adecuado, ¿se puede hacer que C desempeñe satisfactoriamente el papel de A en el juego de imitación, siendo el papel de B un hombre?'" ( Turing 1950 , pág.442)
  3. ^ Turing sugirió originalmente una teleimpresora , uno de los pocos sistemas de comunicación de sólo texto disponibles en 1950 (Turing 1950, p. 433).
  4. ^ ab Oppy, Graham & Dowe, David (2011) La prueba de Turing Archivado el 20 de marzo de 2012 en Wayback Machine . Enciclopedia de Filosofía de Stanford .
  5. ^ "La prueba de Turing, 1950". turing.org.uk . El álbum de recortes de Internet de Alan Turing. Archivado desde el original el 3 de abril de 2019 . Consultado el 23 de abril de 2015 .
  6. ^ abc Turing 1950, pag. 433.
  7. ^ ab Turing 1950, págs. 442–454 y véase Russell y Norvig (2003, pág. 948), donde comentan: "Turing examinó una amplia variedad de posibles objeciones a la posibilidad de máquinas inteligentes, incluidas prácticamente todas aquellas que tienen "Se ha planteado en el medio siglo desde que apareció su artículo".
  8. ^ abcdef Saygin 2000.
  9. ^ Russell y Norvig 2003, págs. 2-3, 948.
  10. ^ Swiechowski, Maciej (2020). "Competiciones de juegos de IA: motivación para la competición de juegos de imitación" (PDF) . Actas de la Conferencia Federada de 2020 sobre Ciencias de la Computación y Sistemas de Información . Publicaciones IEEE. págs. 155-160. doi : 10.15439/2020F126 . ISBN 978-83-955416-7-4. S2CID  222296354. Archivado (PDF) desde el original el 26 de enero de 2021 . Consultado el 8 de septiembre de 2020 .
  11. ^ Descartes 1996, págs. 34-35.
  12. ^ Para ver un ejemplo de dualismo de propiedad, consulte Qualia .
  13. ^ Observando que el materialismo no requiere la posibilidad de mentes artificiales (por ejemplo, Roger Penrose ), como tampoco el dualismo excluye necesariamente la posibilidad. (Ver, por ejemplo, Dualismo de propiedad ).
  14. ^ Ayer, AJ (2001), "Lenguaje, verdad y lógica", Naturaleza , Penguin , 138 (3498): 140, Bibcode :1936Natur.138..823G, doi : 10.1038/138823a0 , ISBN 978-0-334-04122-1, S2CID  4121089[ se necesita aclaración ]
  15. ^ ab Svilpis, Janis (2008). "La prehistoria de ciencia ficción de la prueba de Turing". Estudios de ciencia ficción . 35 (3): 430–449. ISSN  0091-7729. JSTOR  25475177.
  16. ^ Wansbrough, Aleks (2021). El capitalismo y la pantalla encantada: mitos y alegorías en la era digital . Nueva York: Académico de Bloomsbury. pag. 114.ISBN _ 978-1-5013-5639-1. OCLC  1202731640.
  17. ^ Las conferencias de Dartmouth de 1956 se consideran ampliamente el "nacimiento de la IA". (Crevier 1993, pág. 49)
  18. ^ McCorduck 2004, pag. 95.
  19. ^ Copeland 2003, pag. 1.
  20. ^ Copeland 2003, pag. 2.
  21. ^ "Intelligent Machinery" (1948) no fue publicada por Turing y no se publicó hasta 1968 en:
    • Evans, ADJ; Robertson (1968), Cibernética: artículos clave , University Park Press
  22. ^ Turing 1948, pag. 412.
  23. En 1948, trabajando con su antiguo colega universitario, DG Champernowne , Turing comenzó a escribir un programa de ajedrez para una computadora que aún no existía y, en 1952, al carecer de una computadora lo suficientemente potente como para ejecutar el programa, jugó una partida en la que simulaba ello, tomando alrededor de media hora en cada movimiento. La partida fue grabada y el programa perdió ante el colega de Turing, Alick Glennie , aunque se dice que ganó una partida contra la esposa de Champernowne.
  24. ^ Turing 1948, pag. [ página necesaria ] .
  25. ^ Harnad 2004, pag. 1.
  26. ^ abcde Turing 1950, pag. 434.
  27. ^ ab Shah y Warwick 2010a.
  28. ^ Turing 1950, pag. 446.
  29. ^ Turing 1952, págs. 524–525. Turing no parece distinguir entre "hombre" como género y "hombre" como ser humano. En el primer caso, esta formulación estaría más cerca del juego de imitación, mientras que en el segundo se acercaría más a las representaciones actuales de la prueba.
  30. ^ Weizenbaum 1966, pág. 37.
  31. ^ abc Weizenbaum 1966, pag. 42.
  32. ^ Tomás 1995, pág. 112.
  33. ^ Bowden 2006, pag. 370.
  34. ^ ab Colby y col. 1972, pág. 220.
  35. ^ Withers, Steven (11 de diciembre de 2007), "Flirty Bot Passes for Human", iTWire , archivado desde el original el 4 de octubre de 2017 , recuperado 10 de febrero 2010
  36. ^ Williams, Ian (10 de diciembre de 2007), "Online Love Seerkers Warned Flirt Bots", V3 , archivado desde el original el 24 de abril de 2010 , recuperado 10 de febrero de 2010
  37. ^ ab Searle 1980.
  38. ^ Hay una gran cantidad de argumentos en contra de la habitación china de Searle . Algunos son:
    • Hauser, Larry (1997), "La caja china de Searle: desacreditando el argumento de la habitación china", Mentes y máquinas , 7 (2): 199–226, doi :10.1023/A:1008255830248, S2CID  32153206.
    • Rehman, Warren. (19 de julio de 2009), Argumento contra el argumento de la habitación china, archivado desde el original el 19 de julio de 2010..
    • Thornley, David H. (1997), Por qué la sala china no funciona, archivado desde el original el 26 de abril de 2009.
  39. ^ M. Bishop y J. Preston (eds.) (2001) Ensayos sobre el argumento de la habitación china de Searle. Prensa de la Universidad de Oxford.
  40. ^ Saygin 2000, pag. 479.
  41. ^ Sundman 2003.
  42. ^ Loebner 1994.
  43. ^ abc "Estupidez artificial". El economista . vol. 324, núm. 7770. 1 de agosto de 1992. pág. 14.
  44. ^ abc Shapiro 1992, pag. 10-11 y Shieber 1994, entre otros.
  45. ^ ab Shieber 1994, pág. 77.
  46. ^ "Prueba de Turing, en la temporada 4, episodio 3". Fronteras científicas americanas . Compañía de producción Chedd-Angier. 1993–1994. PBS . Archivado desde el original el 1 de enero de 2006.
  47. ^ Dan Williams (9 de junio de 2022). "Las redes neuronales artificiales avanzan hacia la conciencia, según Blaise Agüera y Arcas". El economista . Archivado desde el original el 9 de junio de 2022 . Consultado el 13 de junio de 2022 .
  48. ^ Nitasha Tiku (11 de junio de 2022). "El ingeniero de Google que cree que la IA de la empresa ha cobrado vida". El Correo de Washington . Archivado desde el original el 11 de junio de 2022 . Consultado el 13 de junio de 2022 .
  49. ^ Jeremy Kahn (13 de junio de 2022). "Los expertos en inteligencia artificial dicen que la afirmación del investigador de Google de que su chatbot se volvió 'sensible' es ridícula, pero también resalta grandes problemas en el campo". Fortuna . Archivado desde el original el 13 de junio de 2022 . Consultado el 13 de junio de 2022 .
  50. ^ abc Traiger 2000.
  51. ^ Saygin, Roberts y Beber 2008.
  52. ^ ab Moor 2003.
  53. ^ Traiger 2000, pag. 99.
  54. ^ Sterret 2000.
  55. ^ Sha 2011.
  56. ^ Génova 1994, Hayes y Ford 1995, Heil 1998, Dreyfus 1979
  57. ^ Turing 1948, pag. 431.
  58. ^ Pie orgulloso 2013, pag. 398.
  59. ^ Goncalves 2023a.
  60. ^ Goncalves 2023b.
  61. ^ Dánziger 2022.
  62. ^ abc Turing 1950, pag. 442.
  63. ^ R. Epstein, G. Roberts, G. Polonia, (eds.) Análisis de la prueba de Turing: cuestiones filosóficas y metodológicas en la búsqueda de la computadora pensante. Springer: Dordrecht, Países Bajos
  64. ^ Thompson, Clive (julio de 2005). "La otra prueba de Turing". Edición 13.07 . Revista CABLE . Archivado desde el original el 19 de agosto de 2011 . Consultado el 10 de septiembre de 2011 . Como hombre gay que pasó casi toda su vida en el armario, Turing debe haber sido muy consciente de la dificultad social de falsificar constantemente la verdadera identidad. Y hay una deliciosa ironía en el hecho de que décadas de científicos de IA hayan decidido ignorar la prueba de torsión de género de Turing, sólo para que tres mujeres en edad universitaria se aprovechen de ella.. (Versión completa Archivada el 23 de marzo de 2019 en Wayback Machine ).
  65. ^ Colby y col. 1972.
  66. ^ ab Swirski 2000.
  67. ^ Saygin y Čicekli 2002.
  68. ^ Turing 1950, en "Crítica del nuevo problema".
  69. ^ Haugeland 1985, pag. 8.
  70. ^ "Estas seis disciplinas", escriben Stuart J. Russell y Peter Norvig , "representan la mayor parte de la IA". Russell y Norvig 2003, pág. 3
  71. ^ Urbano, Tim (febrero de 2015). "La revolución de la IA: nuestra inmortalidad o extinción". Espera pero por qué. Archivado desde el original el 23 de marzo de 2019 . Consultado el 5 de abril de 2015 .
  72. ^ Smith, GW (27 de marzo de 2015). "Arte e Inteligencia Artificial". ArteEnt. Archivado desde el original el 25 de junio de 2017 . Consultado el 27 de marzo de 2015 .
  73. ^ Marcus, Gary (9 de junio de 2014). "¿Qué viene después de la prueba de Turing?". El neoyorquino . Archivado desde el original el 1 de enero de 2022 . Consultado el 16 de diciembre de 2021 .
  74. ^ Shah y Warwick 2010j.
  75. ^ Kevin Warwick; Huma Shah (junio de 2014). "Identificación humana errónea en las pruebas de Turing". Revista de Inteligencia Artificial Experimental y Teórica . 27 (2): 123-135. doi :10.1080/0952813X.2014.921734. S2CID  45773196.
  76. ^ Saygin y Cicekli 2002, págs. 227–258.
  77. ^ Turing 1950, pag. 448.
  78. ^ Varias alternativas al test de Turing, diseñadas para evaluar máquinas más inteligentes que los humanos:
    • José Hernández-Orallo (2000), "Más allá de la prueba de Turing", Revista de lógica, lenguaje e información , 9 (4): 447–466, CiteSeerX  10.1.1.44.8943 , doi :10.1023/A:1008367325700, S2CID  14481982.
    • DL Dowe & AR Hajek (1997), "A computational extension to the Turing Test", Actas de la 4ª Conferencia de la Sociedad de Ciencias Cognitivas de Australasia , archivado desde el original el 28 de junio de 2011 , consultado el 21 de julio de 2009 .
    • Shane Legg y Marcus Hutter (2007), "Inteligencia universal: una definición de inteligencia artificial" (PDF) , Mentes y máquinas , 17 (4): 391–444, arXiv : 0712.3329 , Bibcode : 2007arXiv0712.3329L, doi : 10.1007/ s11023-007-9079-x, S2CID  847021, archivado desde el original (PDF) el 18 de junio de 2009 , consultado el 21 de julio de 2009 .
    • Hernández-Orallo, J; Dowe, DL (2010), "Medición de la inteligencia universal: hacia una prueba de inteligencia en cualquier momento", Inteligencia artificial , 174 (18): 1508–1539, doi : 10.1016/j.artint.2010.09.006 .
  79. Russell y Norvig (2003, págs. 958–960) identifican el argumento de Searle con el que responde Turing.
  80. ^ Turing 1950.
  81. ^ ab Russell y Norvig 2003, pág. 3.
  82. ^ Turing 1950, bajo el título "El juego de la imitación", donde escribe: "En lugar de intentar esa definición, reemplazaré la pregunta por otra, que está estrechamente relacionada con ella y se expresa en palabras relativamente inequívocas".
  83. ^ McCarthy, John (1996), "La filosofía de la inteligencia artificial", ¿Qué tiene la IA en común con la filosofía? , archivado desde el original el 5 de abril de 2019 , consultado el 26 de febrero de 2009
  84. ^ Brynjolfsson, Erik (1 de mayo de 2022). "La trampa de Turing: la promesa y el peligro de la inteligencia artificial similar a la humana". Dédalo . 151 (2): 272–287. doi : 10.1162/daed_a_01915 .
  85. ^ Gardner, H. (2011). Estados mentales: la teoría de las inteligencias múltiples. Hachette Reino Unido
  86. ^ Warwick, Kevin; Shah, Huma (4 de marzo de 2017). "Tomando la quinta enmienda en el juego de imitación de Turing" (PDF) . Revista de inteligencia artificial teórica y experimental . 29 (2): 287–297. Código Bib : 2017JETAI..29..287W. doi :10.1080/0952813X.2015.1132273. ISSN  0952-813X. S2CID  205634569.[ enlace muerto permanente ]
  87. ^ Warwick, Kevin; Shah, Huma (4 de marzo de 2015). "Identificación humana errónea en las pruebas de Turing". Revista de inteligencia artificial teórica y experimental . 27 (2): 123-135. doi :10.1080/0952813X.2014.921734. ISSN  0952-813X. S2CID  45773196.
  88. ^ Bión 1979.
  89. ^ Hinshelwood 2001.
  90. ^ Malik, Jitendra ; Mori, Greg, Breaking a Visual CAPTCHA, archivado desde el original el 23 de marzo de 2019 , recuperado 21 de noviembre 2009
  91. ^ Pachal, Pete, Captcha FAIL: los investigadores descifran la prueba de Turing más popular de la Web, archivado desde el original el 3 de diciembre de 2018 , recuperado 31 de diciembre 2015
  92. ^ Tung, Liam, el algoritmo de Google elimina CAPTCHA con una precisión del 99,8 por ciento, archivado desde el original el 23 de marzo de 2019 , recuperado 31 de diciembre 2015
  93. ^ Ghosemajumder, Shuman, The Imitation Game: The New Frontline of Security, archivado desde el original el 23 de marzo de 2019 , recuperado 31 de diciembre 2015
  94. ^ Schwaninger, Arthur C. (2022), "La máquina de filosofar: una especificación de la prueba de Turing", Philosophia , 50 (3): 1437–1453, doi : 10.1007/s11406-022-00480-5 , S2CID  247282718
  95. ^ McCorduck 2004, págs. 503–505, Feigenbaum 2003. La prueba pericial en la materia también se menciona en Kurzweil (2005)
  96. ^ Francés, Robert M. , "La subcognición y los límites de la prueba de Turing", Mind , 99 (393): 53–65
  97. ^ Gent, Edd (2014), La prueba de Turing: enfoque de múltiples rutas de la computación inspirada en el cerebro, archivado desde el original el 23 de marzo de 2019 , recuperado 18 de octubre 2018
  98. ^ Russell y Norvig 2010, pág. 3.
  99. ^ Personal de Cacm (2017). "Un salto de la inteligencia artificial a la inteligencia". Comunicaciones de la ACM . 61 : 10–11. doi :10.1145/3168260.
  100. ^ [1]
  101. ^ McKinstry, Chris (1997), "Prueba de señal inteligente mínima: una prueba de Turing alternativa", Inteligencia artificial canadiense (41), archivado desde el original el 31 de marzo de 2019 , recuperado 4 de mayo 2011
  102. ^ DL Dowe y AR Hajek (1997), "Una extensión computacional de la prueba de Turing", Actas de la cuarta conferencia de la Sociedad de Ciencias Cognitivas de Australasia , archivado desde el original el 28 de junio de 2011 , consultado el 21 de julio de 2009 .
  103. ^ José Hernández-Orallo (2000), "Más allá de la prueba de Turing", Revista de lógica, lenguaje e información , 9 (4): 447–466, CiteSeerX 10.1.1.44.8943 , doi :10.1023/A:1008367325700, S2CID  14481982 . 
  104. ^ Hernández-Orallo y Dowe 2010.
  105. ^ Una aproximación de la medida de inteligencia universal, Shane Legg y Joel Veness, Conferencia en memoria de Solomonoff de 2011
  106. ^ Alex_Pasternack (18 de abril de 2011). "Es posible que una MacBook le haya dado la voz a Roger Ebert, pero un iPod le salvó la vida (vídeo)". Tarjeta madre. Archivado desde el original el 6 de septiembre de 2011 . Consultado el 12 de septiembre de 2011 . Lo llama "Prueba de Ebert", en honor al estándar de inteligencia artificial de Turing...
  107. ^ Key, Alys (21 de abril de 2023). "¿Podrías saber si alguien era humano o IA?". Estándar de la tarde . Consultado el 2 de agosto de 2023 .
  108. ^ "La prueba masiva de Turing muestra que sólo podemos distinguir a las IA de los humanos". Científico nuevo . Consultado el 2 de agosto de 2023 .
  109. ^ Biever, Celeste (25 de julio de 2023). "ChatGPT superó la prueba de Turing: ha comenzado la carrera por nuevas formas de evaluar la IA". Naturaleza . 619 (7971): 686–689. Código Bib :2023Natur.619..686B. doi : 10.1038/d41586-023-02361-7 . PMID  37491395.
  110. ^ "¿Puedes distinguir a las personas de los robots de IA? El juego en línea 'humano o no' revela resultados". ZDNET . Consultado el 2 de agosto de 2023 .
  111. ^ Prensa, Gil. "¿Es un chatbot de IA o un ser humano? El 32% no lo sabe". Forbes . Consultado el 2 de agosto de 2023 .
  112. ^ Whitby 1996, pág. 53.
  113. ^ Premio Loebner 2008, Universidad de Reading , consultado el 29 de marzo de 2009[ enlace muerto permanente ]
  114. ^ Simposio AISB 2008 sobre la prueba de Turing, Sociedad para el estudio de la inteligencia artificial y la simulación del comportamiento, archivado desde el original el 18 de marzo de 2009 , recuperado 29 de marzo 2009

Referencias

Otras lecturas

enlaces externos