La inteligencia artificial débil ( IA débil ) es una inteligencia artificial que implementa una parte limitada de la mente o, como la IA estrecha , [1] [2] [3] se centra en una tarea limitada.
La IA débil se contrasta con la IA fuerte , lo que puede interpretarse de varias maneras:
La IA limitada se puede clasificar como "limitada a una única tarea estrechamente definida. La mayoría de los sistemas de IA modernos se clasificarían en esta categoría". [4] La inteligencia artificial general, por el contrario, es lo opuesto.
Algunos ejemplos de IA limitada son AlphaGo , [5] los coches autónomos , los sistemas robóticos utilizados en el campo médico y los médicos que realizan diagnósticos. Los sistemas de IA limitada a veces son peligrosos si no son fiables y el comportamiento que siguen puede volverse inconsistente. [6] Puede resultar difícil para la IA captar patrones complejos y llegar a una solución que funcione de forma fiable en diversos entornos. Esta "fragilidad" puede hacer que falle de forma impredecible . [7]
Los fallos de la IA en algunos casos pueden tener consecuencias importantes. Por ejemplo, podrían causar interrupciones en la red eléctrica, dañar plantas de energía nuclear, causar problemas económicos globales y desviar la orientación de los vehículos autónomos [1] . Los medicamentos podrían clasificarse y distribuirse incorrectamente. Además, los diagnósticos médicos pueden tener consecuencias graves y, en ocasiones, mortales si la IA es defectuosa o parcial [8] .
Los programas de inteligencia artificial sencillos ya se han introducido en nuestra sociedad sin que nos demos cuenta. Algunos ejemplos son la autocorrección de la escritura, el reconocimiento de voz para los programas de conversión de voz a texto y las amplias expansiones en los campos de la ciencia de datos . [9] Si bien la inteligencia artificial estrecha y relativamente general está empezando a ayudar lentamente a las sociedades, también está empezando a perjudicarlas. La inteligencia artificial ya ha encarcelado injustamente a personas, ha discriminado a las mujeres en el lugar de trabajo para contratarlas, ha enseñado algunas ideas problemáticas a millones de personas e incluso ha matado a personas con automóviles automáticos. [10] La inteligencia artificial puede ser una herramienta poderosa que se puede utilizar para mejorar las vidas, pero también podría ser una tecnología peligrosa con el potencial de un mal uso.
A pesar de ser una IA "estrecha", los sistemas de recomendación son eficientes a la hora de predecir las reacciones de los usuarios en función de sus publicaciones, patrones o tendencias. [11] Por ejemplo, el algoritmo "Para ti" de TikTok puede determinar los intereses o preferencias del usuario en menos de una hora. [12] Algunos otros sistemas de IA de redes sociales se utilizan para detectar bots que pueden estar involucrados en propaganda sesgada u otras actividades potencialmente maliciosas. [13]
John Searle cuestiona la posibilidad de que exista una IA fuerte (con lo que se refiere a una IA consciente). Además, cree que el test de Turing (creado por Alan Turing y llamado originalmente el "juego de la imitación", utilizado para evaluar si una máquina puede conversar de manera indistinguible de un humano) no es preciso ni apropiado para probar si una IA es "fuerte". [14]
Académicos como Antonio Lieto han argumentado que la investigación actual sobre IA y modelado cognitivo está perfectamente alineada con la hipótesis de IA débil (que no debe confundirse con la distinción entre IA "general" vs "estrecha") y que la suposición popular de que los sistemas de IA inspirados cognitivamente adoptan la hipótesis de IA fuerte está mal planteada y es problemática ya que "los modelos artificiales del cerebro y la mente pueden usarse para comprender los fenómenos mentales sin pretender que son los fenómenos reales que están modelando" [15] (como, por otro lado, implica la suposición de IA fuerte).