stringtranslate.com

Sistema de símbolos físicos

Un sistema de símbolos físicos (también llamado sistema formal ) toma patrones físicos (símbolos), los combina en estructuras (expresiones) y los manipula (usando procesos) para producir nuevas expresiones.

La hipótesis del sistema de símbolos físicos ( PSSH ) es una postura en la filosofía de la inteligencia artificial formulada por Allen Newell y Herbert A. Simon . Ellos escribieron:

"Un sistema de símbolos físicos tiene los medios necesarios y suficientes para la acción inteligente general". [1]

—Allen  Newell y Herbert A. Simon

Esta afirmación implica tanto que el pensamiento humano es una especie de manipulación de símbolos (porque un sistema de símbolos es necesario para la inteligencia) como que las máquinas pueden ser inteligentes (porque un sistema de símbolos es suficiente para la inteligencia). [2]

La idea tiene raíces filosóficas en Hobbes (quien afirmó que el razonamiento no era "nada más que un cálculo"), Leibniz (quien intentó crear un cálculo lógico de todas las ideas humanas), Hume (quien pensó que la percepción podía reducirse a "impresiones atómicas") e incluso Kant (quien analizó toda la experiencia como controlada por reglas formales). [3] La última versión se llama teoría computacional de la mente , asociada con los filósofos Hilary Putnam y Jerry Fodor . [4]

Ejemplos

Algunos ejemplos de sistemas de símbolos físicos incluyen:

La hipótesis del sistema de símbolos físicos afirma que los dos siguientes también son ejemplos de sistemas de símbolos físicos:

Evidencia de la hipótesis

Dos líneas de evidencia sugirieron a Allen Newell y Herbert A. Simon que la "manipulación de símbolos" era la esencia de la inteligencia humana y de las máquinas: los experimentos psicológicos con seres humanos y el desarrollo de programas de inteligencia artificial .

Experimentos psicológicos y modelos informáticos

Newell y Simon realizaron experimentos psicológicos que demostraron que, para resolver problemas difíciles de lógica, planificación o cualquier tipo de "resolución de acertijos", las personas procedían cuidadosamente paso a paso, considerando varias posibles formas de avanzar, seleccionaban la más prometedora y retrocedían cuando la posibilidad llegaba a un callejón sin salida. Cada posible solución se visualizaba con símbolos, como palabras, números o diagramas. Esto era "manipulación de símbolos": las personas exploraban iterativamente un sistema formal en busca de un patrón coincidente que resolviera el acertijo. [5] [6] [7] Newell y Simon pudieron simular las habilidades de resolución de problemas paso a paso de las personas con programas informáticos; crearon programas que usaban los mismos algoritmos que las personas y eran capaces de resolver los mismos problemas.

Este tipo de investigación, que utiliza tanto la psicología experimental como los modelos informáticos, fue llamado " simulación cognitiva " por Hubert Dreyfus . [8] Su trabajo fue profundamente influyente: contribuyó a la revolución cognitiva de la década de 1960, además de la fundación de los campos de la ciencia cognitiva y el cognitivismo en psicología.

Esta línea de investigación sugirió que la resolución de problemas humanos consistía principalmente en la manipulación de símbolos de alto nivel.

Programas de inteligencia artificial en los años 50 y 60

En las primeras décadas de la investigación en IA, había muchos programas que utilizaban el procesamiento de símbolos de alto nivel. Estos programas tuvieron mucho éxito y demostraron habilidades que muchas personas en ese momento habían asumido que eran imposibles para las máquinas, como resolver problemas de álgebra ( STUDENT ), demostrar teoremas de lógica ( Logic Theorist ), aprender a jugar a las damas competitivas ( las damas de Arthur Samuel ) y comunicarse en lenguaje natural ( ELIZA , SHRDLU ). [9] [10] [11]

El éxito de estos programas sugirió que los sistemas de procesamiento de símbolos podrían simular cualquier acción inteligente.

Aclaraciones

La hipótesis de los sistemas de símbolos físicos se vuelve trivial, incoherente o irrelevante a menos que reconozcamos tres distinciones: entre "señales digitalizadas" y "símbolos"; entre IA "estrecha" e inteligencia general ; y entre conciencia y comportamiento inteligente.

Símbolos semánticos vs. señales dinámicas

La hipótesis del sistema de símbolos físicos sólo es interesante si restringimos los "símbolos" a cosas que tienen un significado o una denotación reconocibles y que pueden combinarse con otros símbolos para crear símbolos más complejos, como <perro> y <cola>. No se aplica a los simples 0 y 1 abstractos de la memoria de una computadora digital ni a la corriente de 0 y 1 que pasa por el aparato perceptivo de un robot. Tampoco se aplica a matrices de números no identificados, como las que se utilizan en redes neuronales o máquinas de vectores de soporte . Técnicamente, estos pueden ser símbolos, pero no siempre es posible determinar exactamente qué representan los símbolos. Esto no es lo que Newell y Simon tenían en mente, y el argumento se vuelve trivial si los incluimos.

David Touretzky y Dean Pomerleau analizan lo que sucedería si interpretáramos los "símbolos" del PSSH como dígitos binarios de hardware digital. En esta versión de la hipótesis, no se hace distinción entre "símbolos" y "señales". Aquí la hipótesis del sistema de símbolos físicos afirma simplemente que la inteligencia puede digitalizarse . Esta es una afirmación más débil. De hecho, Touretzky y Pomerleau escriben que si los símbolos y las señales son la misma cosa, entonces "la suficiencia es un hecho, a menos que uno sea dualista o algún otro tipo de místico, porque los sistemas de símbolos físicos son universales de Turing ". [12] La tesis de Church-Turing, ampliamente aceptada, sostiene que cualquier sistema universal de Turing puede simular cualquier proceso concebible que pueda digitalizarse, dado suficiente tiempo y memoria. Dado que cualquier computadora digital es universal de Turing , cualquier computadora digital puede, en teoría, simular cualquier cosa que pueda digitalizarse con un nivel suficiente de precisión, incluido el comportamiento de los organismos inteligentes. La condición necesaria de la hipótesis de los sistemas de símbolos físicos también puede ser modificada, ya que estamos dispuestos a aceptar casi cualquier señal como una forma de "símbolo" y todos los sistemas biológicos inteligentes tienen vías de señales. [12]

El mismo problema se aplica a los números no identificados que aparecen en las matrices de una red neuronal o una máquina de vectores de soporte . Estos programas utilizan las mismas matemáticas que una simulación digital de un sistema dinámico , y se entienden mejor como "sistema dinámico" que como "sistema de símbolos físicos". Nils Nilsson escribió: "cualquier proceso físico puede simularse con cualquier grado deseado de precisión en una computadora que manipule símbolos, pero una explicación de tal simulación en términos de símbolos, en lugar de señales, puede ser inmanejablemente engorrosa". [13]

Inteligencia general vs. inteligencia “estrecha”

La PSSH se refiere a "acción inteligente general", es decir, a toda actividad que consideraríamos "inteligente". Por lo tanto, se trata de la afirmación de que la inteligencia artificial general se puede lograr utilizando únicamente métodos simbólicos. No se refiere a aplicaciones " estrechas " (es decir, aplicaciones destinadas únicamente a resolver exactamente un problema, lo que incluye casi todos los sistemas de IA que se utilizan actualmente).

La investigación en inteligencia artificial ha logrado desarrollar muchos programas capaces de resolver de forma inteligente problemas concretos. Sin embargo, hasta ahora no ha sido posible producir un sistema con inteligencia artificial general , es decir, la capacidad de resolver una variedad de problemas nuevos, como hacen los humanos. Por tanto, la crítica del PSSH se refiere a los límites de la IA en el futuro y no se aplica a ninguna investigación o programa actual.

Algunos afirman que los modelos de lenguaje de gran tamaño son capaces de realizar "acciones inteligentes generales", aunque esto es discutible.

Conciencia vs. acción inteligente

El PSSH se refiere a la "acción inteligente", es decir, al comportamiento de la máquina; no se refiere a los "estados mentales", la "mente", la "conciencia" o las "experiencias" de la máquina. La "conciencia", en la medida en que la neurología puede determinarlo, no es algo que pueda deducirse del comportamiento de un agente: siempre es posible que la máquina esté simulando la experiencia de la conciencia, sin experimentarla realmente, de manera similar a la forma en que un personaje de ficción perfectamente escrito podría simular a una persona con conciencia.

Por lo tanto, la PSSH no es relevante para posiciones que se refieren a la "mente" o la "conciencia", como la hipótesis de la IA fuerte de John Searle :

La computadora adecuadamente programada con las entradas y salidas correctas tendría entonces una mente exactamente en el mismo sentido en que los seres humanos tienen mente. [14] [15]

Evidencia contra la hipótesis

Nils Nilsson ha identificado cuatro "temas" o fundamentos principales en los que se ha atacado la hipótesis del sistema de símbolos físicos. [16]

  1. La "afirmación errónea de que la [hipótesis del sistema de símbolos físicos] carece de fundamento simbólico ", que se supone es un requisito para la acción inteligente general.
  2. La creencia común de que la IA requiere un procesamiento no simbólico (el que puede proporcionar una arquitectura conexionista , por ejemplo).
  3. La afirmación común de que el cerebro simplemente no es una computadora y que "la computación tal como se entiende actualmente no proporciona un modelo apropiado para la inteligencia".
  4. Y por último, algunos también creen que el cerebro es esencialmente inconsciente, que la mayor parte de lo que ocurre son reacciones químicas y que el comportamiento inteligente humano es análogo al comportamiento inteligente que muestran, por ejemplo, las colonias de hormigas.

Evidencia de que el cerebro no siempre utiliza símbolos

Si el cerebro humano no utiliza el razonamiento simbólico para crear un comportamiento inteligente, entonces el lado necesario de la hipótesis es falso y la inteligencia humana es el contraejemplo.

Dreyfus

Hubert Dreyfus atacó la condición necesaria de la hipótesis del sistema de símbolos físicos, llamándola "el supuesto psicológico" y definiéndola así:

Dreyfus refutó esto al demostrar que la inteligencia y la pericia humanas dependían principalmente de instintos inconscientes más que de la manipulación simbólica consciente. Los expertos resuelven problemas rápidamente utilizando sus intuiciones, en lugar de buscar paso a paso mediante ensayo y error. Dreyfus argumentó que estas habilidades inconscientes nunca se plasmarían en reglas formales. [18]

Tversky y Kahnemann

Cognición encarnada

George Lakoff , Mark Turner y otros han argumentado que nuestras habilidades abstractas en áreas como las matemáticas , la ética y la filosofía dependen de habilidades inconscientes que derivan del cuerpo, y que la manipulación consciente de símbolos es solo una pequeña parte de nuestra inteligencia. [ cita requerida ]

Evidencia de que la IA simbólica no puede generar inteligencia de manera eficiente para todos los problemas

Es imposible demostrar que la IA simbólica nunca producirá inteligencia general, pero si no podemos encontrar una forma eficiente de resolver problemas particulares con IA simbólica, esto es evidencia de que es poco probable que el lado suficiente del PSSH sea cierto.

Dificultad

Conocimiento del sentido común, problemas de marco, calificación y ramificación

La paradoja de Moravec

Evidencia de que los programas de IA subsimbólicos o neurosimbólicos pueden generar inteligencia

Si los programas de IA subsimbólicos, como el aprendizaje profundo , pueden resolver problemas de forma inteligente, entonces esto es evidencia de que el lado necesario del PSSH es falso.

Si los enfoques híbridos que combinan la IA simbólica con otros enfoques pueden resolver de manera eficiente una gama más amplia de problemas que cualquier técnica por sí sola, esto es evidencia de que el lado necesario es verdadero y el lado de la suficiencia es falso.

Arroyos

Rodney Brooks, del MIT, fue capaz de construir robots que tenían una capacidad superior para moverse y sobrevivir sin necesidad de utilizar el razonamiento simbólico. Brooks (y otros, como Hans Moravec ) descubrieron que nuestras habilidades más básicas de movimiento, supervivencia, percepción, equilibrio, etc., no parecían requerir símbolos de alto nivel en absoluto; de hecho, el uso de símbolos de alto nivel era más complicado y menos exitoso.

En un artículo de 1990 titulado Los elefantes no juegan al ajedrez, el investigador en robótica Rodney Brooks criticó directamente la hipótesis del sistema de símbolos físicos, argumentando que los símbolos no siempre son necesarios, ya que "el mundo es su propio mejor modelo. Siempre está exactamente actualizado. Siempre tiene todos los detalles que se pueden conocer. El truco es percibirlo de manera adecuada y con la suficiente frecuencia". [19]

Conexionismo y aprendizaje profundo

En 2012, AlexNet , una red de aprendizaje profundo , superó a todos los demás programas en la clasificación de imágenes en ImageNet por un margen sustancial. En los años posteriores, el aprendizaje profundo ha demostrado ser mucho más exitoso en muchos dominios que la IA simbólica. [ cita requerida ]

IA híbrida

Símbolo de puesta a tierra

Véase también

Notas

  1. ^ Newell y Simon 1976, pág. 116 y Russell y Norvig 2003, pág. 18
  2. ^ Nilsson 2007, pág. 1.
  3. ^ Dreyfus 1979, pág. 156, Haugeland, págs. 15-44
  4. ^ Horst 2005
  5. ^ Newell, Shaw y Simon 1958.
  6. ^ McCorduck 2004, págs. 450–451.
  7. ^ Crevier 1993, págs. 258-263.
  8. ^ Dreyfus 1979, págs. 130-148.
  9. ^ McCorduck 2004, págs. 243-252.
  10. ^ Crevier 1993, págs. 52-107.
  11. ^ Russell y Norvig 2021, págs. 19-21.
  12. ^ ab Reconstrucción de sistemas de símbolos físicos David S. Touretzky y Dean A. Pomerleau Departamento de Ciencias de la Computación Universidad Carnegie Mellon Ciencia cognitiva 18(2):345–353, 1994. https://www.cs.cmu.edu/~dst/pubs/simon-reply-www.ps.gz
  13. ^ Nilsson 2007, pág. 10.
  14. ^ Searle 1999, p.  [ página necesaria ] .
  15. ^ Dennett 1991, pág. 435.
  16. ^ Nilsson, pág. 1.
  17. ^ Dreyfus 1979, pág. 156
  18. ^ Dreyfus 1972, Dreyfus 1979, Dreyfus & Dreyfus 1986. Véase también Crevier 1993, págs. 120-132 y Hearn 2007, págs. 50-51.
  19. ^ Brooks 1990, pág. 3

Referencias