Un sistema de símbolos físicos (también llamado sistema formal ) toma patrones físicos (símbolos), los combina en estructuras (expresiones) y los manipula (usando procesos) para producir nuevas expresiones.
La hipótesis del sistema de símbolos físicos ( PSSH ) es una posición en la filosofía de la inteligencia artificial formulada por Allen Newell y Herbert A. Simon . Ellos escribieron:
"Un sistema de símbolos físicos tiene los medios necesarios y suficientes para una acción inteligente general". [1]
Esta afirmación implica tanto que el pensamiento humano es una especie de manipulación de símbolos (porque un sistema de símbolos es necesario para la inteligencia) como que las máquinas pueden ser inteligentes (porque un sistema de símbolos es suficiente para la inteligencia). [2]
La idea tiene raíces filosóficas en Hobbes (que afirmó que el razonamiento no era más que cálculos), Leibniz (que intentó crear un cálculo lógico de todas las ideas humanas), Hume (que pensó que la percepción podía reducirse a "impresiones atómicas") y incluso Kant (que analizó toda experiencia como controlada por reglas formales). [3] La última versión se llama teoría computacional de la mente , asociada a los filósofos Hilary Putnam y Jerry Fodor . [4]
Ejemplos de sistemas de símbolos físicos incluyen:
La hipótesis del sistema de símbolos físicos afirma que los dos siguientes también son ejemplos de sistemas de símbolos físicos:
Dos líneas de evidencia sugirieron a Allen Newell y Herbert A. Simon que la "manipulación de símbolos" era la esencia de la inteligencia humana y de la máquina: experimentos psicológicos con seres humanos y el desarrollo de programas de inteligencia artificial .
Newell y Simon llevaron a cabo experimentos psicológicos que demostraron que, para problemas difíciles de lógica, planificación o cualquier tipo de "resolución de acertijos", las personas procedían cuidadosamente paso a paso, considerando varias formas posibles de avanzar, seleccionaban la más prometedora, retroceder cuando la posibilidad llegó a un callejón sin salida. Cada posible solución se visualizó con símbolos, como palabras, números o diagramas. Esto fue "manipulación de símbolos": la gente exploraba iterativamente un sistema formal en busca de un patrón coincidente que resolviera el rompecabezas. [5] [6] [7] Newell y Simon pudieron simular las habilidades de resolución de problemas paso a paso de las personas con programas de computadora; Crearon programas que usaban los mismos algoritmos que las personas y podían resolver los mismos problemas.
Este tipo de investigación, que utiliza tanto psicología experimental como modelos informáticos, fue denominada " simulación cognitiva " por Hubert Dreyfus . [8] Su trabajo fue profundamente influyente: contribuyó a la revolución cognitiva de la década de 1960, además de la fundación de los campos de la ciencia cognitiva y el cognitivismo en psicología.
Esta línea de investigación sugirió que la resolución de problemas humanos consistía principalmente en la manipulación de símbolos de alto nivel.
En las primeras décadas de la investigación de la IA, había muchos programas que utilizaban procesamiento de símbolos de alto nivel. Estos programas tuvieron mucho éxito y demostraron habilidades que muchas personas en ese momento habían asumido que eran imposibles para las máquinas, como resolver problemas escritos de álgebra ( ESTUDIANTE ), demostrar teoremas de lógica ( Teórico de la lógica ), aprender a jugar damas competitivas ( Arthur Samuel 's damas) y comunicarse en lenguaje natural ( ELIZA , SHRDLU ). [9] [10] [11]
El éxito de estos programas sugirió que los sistemas de procesamiento de símbolos podrían simular cualquier acción inteligente.
La hipótesis de los sistemas de símbolos físicos se vuelve trivial, incoherente o irrelevante a menos que reconozcamos una distinción entre "señales digitalizadas" y "símbolos", entre IA "estrecha" e inteligencia general y entre conciencia y comportamiento inteligente.
La hipótesis del sistema de símbolos físicos sólo es interesante si restringimos los "símbolos" a cosas que tienen un significado o denotación reconocible y que pueden componerse con otros símbolos para crear símbolos más complejos, como <perro> y <cola>. No se aplica a los simples ceros y unos abstractos en la memoria de una computadora digital o al flujo de ceros y unos que pasa a través del aparato de percepción de un robot. Tampoco se aplica a matrices de números no identificados, como las utilizadas en redes neuronales o máquinas de vectores de soporte . Técnicamente pueden ser símbolos, pero no siempre es posible determinar exactamente qué representan. Esto no es lo que Newell y Simon tenían en mente, y el argumento se vuelve trivial si los incluimos.
David Touretzky y Dean Pomerleau consideran lo que sucedería si interpretamos los "símbolos" del PSSH como dígitos binarios de hardware digital. En esta versión de la hipótesis no se hace distinción entre "símbolos" y "señales". Aquí la hipótesis del sistema de símbolos físicos afirma simplemente que la inteligencia puede digitalizarse . Ésta es una afirmación más débil. De hecho, Touretzky y Pomerleau escriben que si los símbolos y las señales son la misma cosa, entonces "la suficiencia es un hecho, a menos que uno sea dualista o algún otro tipo de místico, porque los sistemas de símbolos físicos son universales de Turing ". [12] La tesis ampliamente aceptada de Church-Turing sostiene que cualquier sistema universal de Turing puede simular cualquier proceso concebible que pueda digitalizarse, con suficiente tiempo y memoria. Dado que cualquier computadora digital es Turing-universal , cualquier computadora digital puede, en teoría, simular cualquier cosa que pueda digitalizarse con un nivel suficiente de precisión, incluido el comportamiento de organismos inteligentes. La condición necesaria de la hipótesis de los sistemas de símbolos físicos también se puede perfeccionar, ya que estamos dispuestos a aceptar casi cualquier señal como una forma de "símbolo" y todos los sistemas biológicos inteligentes tienen rutas de señales. [12]
La misma cuestión se aplica a los números no identificados que aparecen en las matrices de una red neuronal o una máquina de vectores de soporte . Estos programas utilizan las mismas matemáticas que una simulación digital de un sistema dinámico y se entiende mejor como "sistema dinámico" que como "sistema de símbolos físicos". Nils Nilsson escribió: "cualquier proceso físico puede simularse con cualquier grado de precisión deseado en una computadora que manipule símbolos, pero explicar tal simulación en términos de símbolos, en lugar de señales, puede ser inmanejablemente engorroso". [13]
El PSSH se refiere a "acción inteligente general", es decir, a toda actividad que consideraríamos "inteligente". De ahí la afirmación de que la inteligencia artificial general puede lograrse utilizando únicamente métodos simbólicos. No se refiere a aplicaciones " limitadas ".
La investigación en inteligencia artificial ha logrado desarrollar muchos programas que son capaces de resolver problemas particulares de manera inteligente. Sin embargo, la investigación sobre IA hasta ahora no ha podido producir un sistema con inteligencia artificial general : la capacidad de resolver una variedad de problemas novedosos, como lo hacen los humanos. Así, la crítica del PSSH se refiere a los límites de la IA en el futuro y no se aplica a ninguna investigación o programa actual.
El PSSH se refiere a la "acción inteligente" -es decir, el comportamiento de la máquina-, no se refiere a los "estados mentales", la "mente", la "conciencia" o las "experiencias" de la máquina. La "conciencia", hasta donde la neurología puede determinar, no es algo que pueda deducirse del comportamiento de un agente: siempre es posible que la máquina esté simulando la experiencia de la conciencia, sin llegar a experimentarla, de manera similar a como lo hace una escritura perfectamente escrita. El personaje ficticio podría simular una persona con conciencia.
Por lo tanto, el PSSH no es relevante para posiciones que se refieren a la "mente" o la "conciencia", como la hipótesis de la IA fuerte de John Searle :
La computadora apropiadamente programada con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido en que la tienen los seres humanos. [14] [15]
Nils Nilsson ha identificado cuatro "temas" o fundamentos principales en los que se ha atacado la hipótesis del sistema de símbolos físicos. [dieciséis]
Si el cerebro humano no utiliza el razonamiento simbólico para crear un comportamiento inteligente, entonces el lado necesario de la hipótesis es falso y la inteligencia humana es el contraejemplo.
Hubert Dreyfus atacó la condición necesaria de la hipótesis del sistema de símbolos físicos, llamándola "el supuesto psicológico" y definiéndola así:
Dreyfus refutó esto mostrando que la inteligencia y la experiencia humana dependían principalmente de instintos inconscientes más que de una manipulación simbólica consciente. Los expertos resuelven problemas rápidamente utilizando sus intuiciones, en lugar de búsquedas de prueba y error paso a paso. Dreyfus argumentó que estas habilidades inconscientes nunca serían plasmadas en reglas formales. [18]
George Lakoff , Mark Turner y otros han argumentado que nuestras habilidades abstractas en áreas como las matemáticas , la ética y la filosofía dependen de habilidades inconscientes que se derivan del cuerpo, y que la manipulación consciente de símbolos es sólo una pequeña parte de nuestra inteligencia. [ cita necesaria ]
Es imposible demostrar que la IA simbólica nunca producirá inteligencia general, pero si no podemos encontrar una manera eficiente de resolver problemas particulares con la IA simbólica, esto es evidencia de que es poco probable que el lado suficiente del PSSH sea cierto.
Si los programas de IA subsimbólicos, como el aprendizaje profundo , pueden resolver problemas de manera inteligente, entonces esto es evidencia de que el lado necesario del PSSH es falso.
Si los enfoques híbridos que combinan la IA simbólica con otros enfoques pueden resolver eficientemente una gama más amplia de problemas que cualquiera de las técnicas por sí sola, esto es evidencia de que el lado necesario es verdadero y el lado de la suficiencia es falso.
Rodney Brooks, del MIT, pudo construir robots que tenían una capacidad superior para moverse y sobrevivir sin utilizar ningún razonamiento simbólico. Brooks (y otros, como Hans Moravec ) descubrieron que nuestras habilidades más básicas de movimiento, supervivencia, percepción, equilibrio, etc., no parecían requerir símbolos de alto nivel en absoluto; que, de hecho, el uso de símbolos de alto nivel Fue más complicado y menos exitoso.
En un artículo de 1990, Elephants Don't Play Chess, el investigador en robótica Rodney Brooks apuntó directamente a la hipótesis del sistema de símbolos físicos, argumentando que los símbolos no siempre son necesarios ya que "el mundo es su mejor modelo. Siempre está exactamente actualizado". Siempre tiene todos los detalles que hay que conocer. El truco consiste en sentirlo de forma adecuada y con la suficiente frecuencia". [19]
En 2012, AlexNet , una red de aprendizaje profundo , superó a todos los demás programas en la clasificación de imágenes en ImageNet por un margen sustancial. En los años transcurridos desde entonces, el aprendizaje profundo ha demostrado ser mucho más exitoso en muchos ámbitos que la IA simbólica. [ cita necesaria ]