stringtranslate.com

Sistema de símbolos físicos

Un sistema de símbolos físicos (también llamado sistema formal ) toma patrones físicos (símbolos), los combina en estructuras (expresiones) y los manipula (usando procesos) para producir nuevas expresiones.

La hipótesis del sistema de símbolos físicos ( PSSH ) es una posición en la filosofía de la inteligencia artificial formulada por Allen Newell y Herbert A. Simon . Ellos escribieron:

"Un sistema de símbolos físicos tiene los medios necesarios y suficientes para una acción inteligente general". [1]

Esta afirmación implica tanto que el pensamiento humano es una especie de manipulación de símbolos (porque un sistema de símbolos es necesario para la inteligencia) como que las máquinas pueden ser inteligentes (porque un sistema de símbolos es suficiente para la inteligencia). [2]

La idea tiene raíces filosóficas en Hobbes (que afirmó que el razonamiento no era más que cálculos), Leibniz (que intentó crear un cálculo lógico de todas las ideas humanas), Hume (que pensó que la percepción podía reducirse a "impresiones atómicas") y incluso Kant (que analizó toda experiencia como controlada por reglas formales). [3] La última versión se llama teoría computacional de la mente , asociada a los filósofos Hilary Putnam y Jerry Fodor . [4]

Ejemplos

Ejemplos de sistemas de símbolos físicos incluyen:

La hipótesis del sistema de símbolos físicos afirma que ambos son también ejemplos de sistemas de símbolos físicos:

Evidencia de la hipótesis.

Dos líneas de evidencia sugirieron a Allen Newell y Herbert A. Simon que la "manipulación de símbolos" era la esencia de la inteligencia humana y de la máquina: experimentos psicológicos con seres humanos y el desarrollo de programas de inteligencia artificial .

Experimentos psicológicos y modelos informáticos.

Newell y Simon llevaron a cabo experimentos psicológicos que demostraron que, para problemas difíciles de lógica, planificación o cualquier tipo de "resolución de acertijos", las personas procedían cuidadosamente paso a paso, considerando varias formas posibles de avanzar, seleccionaban la más prometedora y respaldaban cuando la posibilidad llegó a un callejón sin salida. Cada posible solución se visualizó con símbolos, como palabras, números o diagramas. Esto fue "manipulación de símbolos": la gente exploraba iterativamente un sistema formal en busca de un patrón coincidente que resolviera el rompecabezas. [5] [6] [7] Newell y Simon pudieron simular las habilidades de resolución de problemas paso a paso de las personas con programas de computadora; Crearon programas que usaban los mismos algoritmos que las personas y podían resolver los mismos problemas.

Este tipo de investigación, que utiliza tanto psicología experimental como modelos informáticos, fue denominada " simulación cognitiva " por Hubert Dreyfus . [8] Su trabajo fue profundamente influyente: contribuyó a la revolución cognitiva de la década de 1960, a la fundación del campo de la ciencia cognitiva y al cognitivismo en psicología.

Esta línea de investigación sugirió que la resolución de problemas humanos consistía principalmente en la manipulación de símbolos de alto nivel.

Programas de inteligencia artificial en los años 1950 y 1960

En las primeras décadas de la investigación de la IA, hubo muchos programas muy exitosos que utilizaban procesamiento de símbolos de alto nivel. Estos programas tuvieron mucho éxito y demostraron habilidades que muchas personas en ese momento habían asumido que eran imposibles para las máquinas, como resolver problemas escritos de álgebra ( ESTUDIANTE ), demostrar teoremas de lógica ( Teórico de la lógica ), aprender a jugar damas competitivas ( Arthur Samuel 's damas) y comunicarse en lenguaje natural ( ELIZA , SHRDLU ). [9] [10] [11]

El éxito de estos programas sugirió que los sistemas de procesamiento de símbolos podrían simular cualquier acción inteligente.

Aclaraciones

La hipótesis de los sistemas de símbolos físicos se vuelve trivial, incoherente o irrelevante a menos que reconozcamos una distinción entre "señales digitalizadas" y "símbolos", entre IA "estrecha" e inteligencia general y entre conciencia y comportamiento inteligente.

Símbolos semánticos versus señales dinámicas

La hipótesis del sistema de símbolos físicos sólo es interesante si restringimos los "símbolos" a cosas que tienen un significado o denotación reconocible y que pueden componerse con otros símbolos para crear símbolos más complejos, como <perro> y <cola>. No se aplica a los simples ceros y unos abstractos en la memoria de una computadora digital o al flujo de ceros y unos que pasa a través del aparato de percepción de un robot. Tampoco se aplica a matrices de números no identificados, como las utilizadas en redes neuronales o máquinas de vectores de soporte . Técnicamente pueden ser símbolos, pero no siempre es posible determinar exactamente qué representan. Esto no es lo que Newell y Simon tenían en mente, y el argumento se vuelve trivial si los incluimos.

David Touretzky y Dean Pomerleau consideran lo que sucedería si interpretamos los "símbolos" del PSSH como dígitos binarios de hardware digital. En esta versión de la hipótesis no se hace distinción entre "símbolos" y "señales". Aquí la hipótesis del sistema de símbolos físicos afirma simplemente que la inteligencia puede digitalizarse . Esta es una afirmación más débil. De hecho, Touretzky y Pomerleau escriben que si los símbolos y las señales son la misma cosa, entonces "la suficiencia es un hecho, a menos que uno sea dualista o algún otro tipo de místico, porque los sistemas de símbolos físicos son universales de Turing ". [12] La tesis ampliamente aceptada de Church-Turing sostiene que cualquier sistema universal de Turing puede simular cualquier proceso concebible que pueda digitalizarse, con suficiente tiempo y memoria. Dado que cualquier computadora digital es Turing-universal , cualquier computadora digital puede, en teoría, simular cualquier cosa que pueda digitalizarse con un nivel suficiente de precisión, incluido el comportamiento de organismos inteligentes. La condición necesaria de la hipótesis de los sistemas de símbolos físicos también se puede perfeccionar, ya que estamos dispuestos a aceptar casi cualquier señal como una forma de "símbolo" y todos los sistemas biológicos inteligentes tienen rutas de señales. [12]

La misma cuestión se aplica a los números no identificados que aparecen en las matrices de una red neuronal o una máquina de vectores de soporte . Estos programas utilizan las mismas matemáticas que una simulación digital de un sistema dinámico y se entiende mejor como "sistema dinámico" que como "sistema de símbolos físicos". Nils Nilsson escribió: "cualquier proceso físico puede simularse con cualquier grado de precisión deseado en una computadora que manipule símbolos, pero explicar tal simulación en términos de símbolos, en lugar de señales, puede ser inmanejablemente engorroso". [13]

Inteligencia general versus inteligencia "estrecha"

El PSSH se refiere a "acción inteligente general", es decir, a toda actividad que consideraríamos "inteligente". De ahí la afirmación de que la inteligencia artificial general puede lograrse utilizando únicamente métodos simbólicos. No se refiere a aplicaciones " limitadas ".

La investigación en inteligencia artificial ha logrado desarrollar muchos programas que son capaces de resolver problemas particulares de manera inteligente. Sin embargo, la investigación sobre IA hasta ahora no ha podido producir un sistema con inteligencia artificial general : la capacidad de resolver una variedad de problemas novedosos, como lo hacen los humanos. Así, la crítica del PSSH se refiere a los límites de la IA en el futuro y no se aplica a ninguna investigación o programa actual.

Conciencia versus acción inteligente

El PSSH se refiere a la "acción inteligente" -es decir, el comportamiento de la máquina-, no se refiere a los "estados mentales", la "mente", la "conciencia" o las "experiencias" de la máquina. La "conciencia", hasta donde la neurología puede determinar, no es algo que pueda deducirse del comportamiento de un agente: siempre es posible que la máquina esté simulando la experiencia de la conciencia, sin llegar a experimentarla, de manera similar a como lo hace una escritura perfectamente escrita. El personaje ficticio podría simular una persona con conciencia.

Por lo tanto, el PSSH no es relevante para posiciones que se refieren a la "mente" o la "conciencia", como la hipótesis de la IA fuerte de John Searle :

La computadora apropiadamente programada con las entradas y salidas correctas tendría una mente exactamente en el mismo sentido en que la tienen los seres humanos. [14] [15]

Evidencia contra la hipótesis.

Nils Nilsson ha identificado cuatro "temas" o fundamentos principales en los que se ha atacado la hipótesis del sistema de símbolos físicos. [dieciséis]

  1. La "afirmación errónea de que la [hipótesis del sistema de símbolos físicos] carece de fundamento simbólico ", que se presume es un requisito para la acción inteligente general.
  2. La creencia común de que la IA requiere un procesamiento no simbólico (el que puede ser proporcionado por una arquitectura conexionista, por ejemplo).
  3. La afirmación común de que el cerebro simplemente no es una computadora y que "la computación tal como se entiende actualmente no proporciona un modelo apropiado para la inteligencia".
  4. Y por último, algunos también creen que el cerebro es esencialmente inconsciente, que la mayor parte de lo que ocurre son reacciones químicas y que el comportamiento inteligente humano es análogo al comportamiento inteligente que muestran, por ejemplo, las colonias de hormigas.

Evidencia de que el cerebro no siempre usa símbolos

Si el cerebro humano no utiliza el razonamiento simbólico para crear un comportamiento inteligente, entonces el lado necesario de la hipótesis es falso y la inteligencia humana es el contraejemplo.

Dreyfus

Hubert Dreyfus atacó la condición necesaria de la hipótesis del sistema de símbolos físicos, llamándola "el supuesto psicológico" y definiéndola así:

Dreyfus refutó esto mostrando que la inteligencia y la experiencia humanas dependían principalmente de instintos inconscientes más que de una manipulación simbólica consciente. Los expertos resuelven problemas rápidamente utilizando sus intuiciones, en lugar de búsquedas de prueba y error paso a paso. Dreyfus argumentó que estas habilidades inconscientes nunca serían plasmadas en reglas formales. [18]

Tversky y Kahnemann

Cognición encarnada

George Lakoff , Mark Turner y otros han argumentado que nuestras habilidades abstractas en áreas como las matemáticas , la ética y la filosofía dependen de habilidades inconscientes que se derivan del cuerpo, y que la manipulación consciente de símbolos es sólo una pequeña parte de nuestra inteligencia. [ cita necesaria ]

Evidencia de que la IA simbólica no puede generar inteligencia de manera eficiente para todos los problemas

Es imposible demostrar que la IA simbólica nunca producirá inteligencia general, pero si no podemos encontrar una manera eficiente de resolver problemas particulares con la IA simbólica, esto es evidencia de que es poco probable que el lado suficiente del PSSH sea cierto.

Dificultad

Problemas de conocimiento, marco, calificación y ramificación del sentido común.

La paradoja de Moravec

Evidencia de que los programas de IA subsimbólicos o neurosimbólicos pueden generar inteligencia

Si los programas de IA subsimbólicos, como el aprendizaje profundo , pueden resolver problemas de manera inteligente, entonces esto es evidencia de que el lado necesario del PSSH es falso.

Si los enfoques híbridos que combinan la IA simbólica con otros enfoques pueden resolver eficientemente una gama más amplia de problemas que cualquiera de las técnicas por sí sola, esto es evidencia de que el lado necesario es verdadero y el lado de la suficiencia es falso.

Arroyos

Rodney Brooks, del MIT, pudo construir robots que tenían una capacidad superior para moverse y sobrevivir sin utilizar ningún razonamiento simbólico. Brooks (y otros, como Hans Moravec ) descubrieron que nuestras habilidades más básicas de movimiento, supervivencia, percepción, equilibrio, etc. no parecían requerir símbolos de alto nivel en absoluto; que, de hecho, el uso de símbolos de alto nivel Fue más complicado y menos exitoso.

En un artículo de 1990, Elephants Don't Play Chess, el investigador en robótica Rodney Brooks apuntó directamente a la hipótesis del sistema de símbolos físicos, argumentando que los símbolos no siempre son necesarios ya que "el mundo es su mejor modelo. Siempre está exactamente actualizado". Siempre tiene todos los detalles que hay que conocer. El truco está en sentirlo apropiadamente y con suficiente frecuencia". [19]

Conexionismo y aprendizaje profundo

En 2012, AlexNet , una red de aprendizaje profundo , superó a todos los demás programas en la clasificación de imágenes en ImageNet por un margen sustancial. En los años transcurridos desde entonces, el aprendizaje profundo ha demostrado ser mucho más exitoso en muchos ámbitos que la IA simbólica. [ cita necesaria ]

IA híbrida

Símbolo de puesta a tierra

Ver también

Notas

  1. ^ Newell y Simon 1976, pág. 116 y Russell y Norvig 2003, pág. 18
  2. ^ Nilsson 2007, pág. 1.
  3. ^ Dreyfus 1979, pag. 156, Haugeland, págs. 15-44
  4. ^ Horst 2005
  5. ^ Newell, Shaw y Simon 1958.
  6. ^ McCorduck 2004, págs. 450–451.
  7. ^ Crevier 1993, págs. 258-263.
  8. ^ Dreyfus 1979, págs. 130-148.
  9. ^ McCorduck 2004, págs. 243-252.
  10. ^ Crevier 1993, págs. 52-107.
  11. ^ Russell y Norvig 2021, págs. 19-21.
  12. ^ ab Reconstrucción de sistemas de símbolos físicos David S. Touretzky y Dean A. Pomerleau Departamento de Ciencias de la Computación Universidad Carnegie Mellon Ciencia cognitiva 18(2):345–353, 1994. https://www.cs.cmu.edu/~dst/pubs /simon-respuesta-www.ps.gz
  13. ^ Nilsson 2007, pág. 10.
  14. ^ Searle 1999, pág.  [ página necesaria ] .
  15. ^ Dennett 1991, pag. 435.
  16. ^ Nilsson, pág. 1.
  17. ^ Dreyfus 1979, pag. 156
  18. ^ Dreyfus 1972, Dreyfus 1979, Dreyfus & Dreyfus 1986. Véase también Crevier 1993, págs. 120-132 y Hearn 2007, págs.
  19. ^ Brooks 1990, pag. 3

Referencias