La estupidez artificial es un término utilizado en el campo de la informática para referirse a una técnica de " embrutecer " los programas informáticos con el fin de introducir deliberadamente errores en sus respuestas.
Alan Turing , en su artículo de 1950 Computing Machinery and Intelligence , propuso una prueba de inteligencia que desde entonces se conoce como la prueba de Turing . [1] Si bien hay varias versiones diferentes, la prueba original, descrita por Turing como basada en el " juego de imitación ", involucraba una "inteligencia de máquina" (una computadora que ejecutaba un programa de IA), una participante femenina y un interrogador. Tanto la IA como la participante femenina debían afirmar que eran mujeres, y la tarea del interrogador era determinar cuál era la participante femenina y cuál no examinando las respuestas de la participante a preguntas escritas. [1] Si bien no está claro si Turing pretendía o no que el interrogador supiera que uno de los participantes era una computadora, al discutir algunas de las posibles objeciones a su argumento, Turing planteó la preocupación de que "las máquinas no pueden cometer errores". [1]
Se afirma que el interrogador podría distinguir la máquina del hombre simplemente planteándoles una serie de problemas de aritmética. La máquina quedaría desenmascarada gracias a su precisión letal.
— Turing, 1950, página 448
Como señaló entonces Turing, la respuesta a esto es sencilla: la máquina no debería intentar "dar las respuestas correctas a los problemas aritméticos" [1] , sino que debería introducir errores deliberados en las respuestas del ordenador.
Dentro de la ciencia informática, hay al menos dos aplicaciones principales para la estupidez artificial: la generación de errores deliberados en chatbots que intentan pasar la prueba de Turing o engañar de alguna otra manera a un participante haciéndole creer que es humano; y la limitación deliberada de las IA de las computadoras en los videojuegos para controlar la dificultad del juego.
El primer concurso del premio Loebner se celebró en 1991. Como informó The Economist , el proyecto ganador incorporó errores deliberados (descritos por The Economist como "estupidez artificial") para engañar a los jueces y hacerlos creer que era humano. [2] Esta técnica ha seguido siendo parte de los concursos del premio Loebner posteriores y refleja la cuestión planteada por primera vez por Turing.
Lars Lidén sostiene que un buen diseño de juegos implica encontrar un equilibrio entre la "inteligencia" de la computadora y la capacidad del jugador para ganar. Al ajustar con precisión el nivel de "estupidez artificial", es posible crear jugadas controladas por la computadora que permitan al jugador ganar, pero que lo hagan "sin parecer poco inteligente". [3]
Existen muchas formas de introducir deliberadamente una mala toma de decisiones en los algoritmos de búsqueda. Tomemos como ejemplo el algoritmo minimax . El algoritmo minimax es un algoritmo de búsqueda adversarial que se utiliza popularmente en juegos que requieren que más de un jugador compita entre sí. El objetivo principal de este algoritmo es elegir un movimiento que maximice sus posibilidades de ganar y evitar movimientos que maximicen las posibilidades de que su oponente gane. Un algoritmo como este sería extremadamente beneficioso para la computadora, ya que las computadoras pueden buscar miles de movimientos por adelantado. Para "simplificar" este algoritmo y permitir diferentes niveles de dificultad, se deben ajustar las funciones heurísticas . Normalmente, se otorgan grandes puntos en los estados ganadores. Ajustar la heurística reduciendo esos grandes pagos reduciría la posibilidad de que el algoritmo elija el estado ganador.
Crear funciones heurísticas que permitan la estupidez es más difícil de lo que se podría pensar. Si una heurística permite la mejor jugada, el oponente de la computadora sería demasiado omnisciente, lo que haría que el juego fuera frustrante y desagradable. Pero si la heurística es deficiente, el juego también podría ser desagradable. Por lo tanto, un equilibrio entre buenas y malas jugadas en un juego de adversarios depende de una función heurística bien implementada.
En un editorial de 1993 publicado en The Economist se afirma que "no hay ninguna razón práctica" para intentar crear una máquina que imite el comportamiento de un ser humano, ya que el propósito de un ordenador es realizar tareas que los seres humanos no pueden realizar solos, o al menos no con la misma eficiencia. Al hablar del proyecto ganador de un concurso de Turing de 1991, que fue programado para introducir deliberadamente errores de mecanografía en su conversación para engañar a los jueces, el editorial pregunta: "¿Quién necesita un ordenador que no sepa mecanografiar?" [2]