La prueba de Turing de robots de juegos de computadora es una variante de la prueba de Turing , donde un juez humano que ve e interactúa con un mundo virtual debe distinguir entre otros humanos y robots de videojuegos , ambos interactuando con el mismo mundo virtual. Esta variante fue propuesta por primera vez en 2008 por el profesor asociado Philip Hingston [1] [2] de la Universidad Edith Cowan e implementada a través de un torneo llamado 2K BotPrize. [3]
Historia
La prueba de Turing del robot de juegos de computadora se propuso para avanzar en los campos de la inteligencia artificial (IA) y la inteligencia computacional con respecto a los videojuegos. Se consideró que un bot mal implementado implicaba un juego deficiente, por lo que un bot que fuera capaz de pasar esta prueba y, por lo tanto, pudiera ser indistinguible de un jugador humano, mejoraría directamente la calidad de un juego. También sirvió para desacreditar la noción errónea de que "la IA de los juegos es un problema resuelto". [2]
Se pone énfasis en un robot de juego que interactúa con otros jugadores en un entorno multijugador . A diferencia de un robot que simplemente necesita tomar decisiones óptimas similares a las de un humano para jugar o ganar un juego, este robot debe tomar las mismas decisiones y al mismo tiempo convencer a otro jugador del juego de su semejanza humana. [ cita necesaria ]
Implementación
La prueba de Turing del robot de juego de computadora fue diseñada para probar la capacidad de un robot para interactuar con un entorno de juego en comparación con un jugador humano; simplemente "ganar" era insuficiente. Esto evolucionó hasta convertirse en un concurso con algunos objetivos importantes en mente: [2]
Hay tres participantes: un jugador humano, un robot de juego de computadora y un juez.
El robot debe parecer más humano que el jugador humano. Las puntuaciones de los jueces no son bipolares: tanto los humanos como los robots pueden recibir una puntuación en cualquier lugar en una escala del 1 al 5 (1 = no humano, 5 = humano).
Los tres participantes deben ser indistinguibles en la arena, con la excepción de una etiqueta con su nombre generada aleatoriamente, para reducir la posibilidad de que elementos aleatorios como el nombre o la apariencia influyan en los jueces.
El chat está desactivado durante todo el partido.
A los bots no se les otorgaron poderes omniscientes como pueden ocurrir en otros juegos. Los bots deben reaccionar únicamente ante los datos que puedan estar razonablemente disponibles para un jugador humano.
Los participantes humanos tenían un rango de habilidades moderado, y ningún participante ignoraba el juego o era capaz de jugar a un nivel profesional.
En 2008 tuvo lugar el primer torneo 2K BotPrize. [4] El concurso se realizó con el juego Unreal Tournament 2004 como plataforma. Los concursantes crearon sus bots de antemano utilizando la interfaz de GameBots. A los GameBots se les realizaron algunas modificaciones para cumplir con las condiciones anteriores, como la eliminación de datos sobre puntos de vista o daños de armas que informaban injustamente a los bots sobre fortalezas y debilidades relevantes que de otro modo un humano necesitaría aprender. [ cita necesaria ]
Torneo
El primer torneo BotPrize se celebró el 17 de diciembre de 2008, como parte del Simposio IEEE de 2008 sobre juegos e inteligencia computacional en Australia. [4] [5] A cada equipo competidor se le dio tiempo para configurar y ajustar sus bots al cliente de juego modificado, aunque no se permitieron cambios de codificación en ese momento. El torneo se desarrolló en rondas, cada una de las cuales era un combate a muerte de 10 minutos. Los jueces fueron los últimos en unirse al servidor y cada juez observó a cada jugador y cada bot exactamente una vez, aunque la pareja de jugadores y bots cambió. Cuando terminó el torneo, ningún bot fue calificado como más humano que ningún jugador. [6] [ cita necesaria ]
En torneos posteriores, celebrados entre 2009 y 2011, [7] [8] [9] los robots lograron puntuaciones cada vez más parecidas a las humanas, pero ningún concursante había ganado el BotPrize en ninguno de estos concursos.
En 2012, se volvió a celebrar el 2K BotPrize, y dos equipos programaron bots que alcanzaron puntuaciones superiores a las de los jugadores humanos. [3]
robots exitosos
Hasta la fecha, ha habido dos bots programados con éxito que pasaron la prueba de Turing de bots de juegos de computadora:
UT^2, un equipo de la Universidad de Texas en Austin , destacó un robot que ajustaba su comportamiento basándose en el comportamiento humano y la neuroevolución observados previamente . El equipo ha puesto a disposición su bot, [10] aunque se requiere una copia de Unreal Tournament 2004 . [11]
Mihai Polceanu, un estudiante de doctorado de Rumania , se centró en crear un robot que imitara las reacciones del oponente, en cierto sentido "tomando prestada" la naturaleza humana del oponente. [3] Estos vencedores tuvieron éxito en el año 2012, el año del centenario de Alan Turing .
Secuelas
El resultado de un bot que parece más humano que un jugador humano posiblemente esté exagerado, ya que en el torneo en el que los bots triunfaron, la calificación media de "humanidad" de los jugadores humanos fue sólo del 41,4%. [12] Esto muestra algunos límites de esta prueba de Turing, ya que los resultados demuestran que el comportamiento humano es más complicado y cuantitativo de lo que se pensaba. [13] A la luz de esto, los organizadores del concurso BotPrize aumentarán la dificultad en los próximos años con nuevos desafíos, lo que obligará a los competidores a mejorar sus bots. [14]
También se cree que los métodos y técnicas desarrollados para la prueba de Turing del robot de juegos de computadora serán útiles en campos distintos de los videojuegos, como entornos de entrenamiento virtuales y para mejorar la interacción entre humanos y robots . [15]
A diferencia de la prueba de Turing tradicional, por ejemplo el concurso estilo Chatterbot que se celebra anualmente en el marco del concurso del Premio Loebner , los humanos que jugaron contra los Computer Game Bots no intentan convencer a los jueces de que son humanos; más bien, quieren ganar el juego (es decir, logrando la puntuación de muerte más alta).
Los jueces no están limitados a otorgar a un solo participante en un combate el título de "humano" y el otro el de "no humano". Esto enfatiza hallazgos más cualitativos que polarizados.
Con respecto a un robot de videojuego exitoso, esto no debe confundirse con la afirmación de que el robot es "inteligente", mientras que una máquina que "pasó" la prueba de Turing podría decirse que tendría alguna evidencia de la "inteligencia" de su Chatterbot.
El juego Unreal Tournament 2004 fue elegido por su disponibilidad comercial y su interfaz para la creación de bots, GameBots. Esta limitación del medio contrasta marcadamente con la prueba de Turing, que enfatiza una conversación, donde las preguntas posibles son mucho más numerosas que el conjunto de acciones posibles disponibles en cualquier videojuego específico.
La información disponible para los participantes, humanos y bots, no es igual. Los humanos interactúan a través de la visión y el sonido, mientras que los robots interactúan con datos y eventos.
Los jueces no pueden introducir nuevos eventos (por ejemplo, un pozo de lava) para ayudar a diferenciar entre humanos y robots, mientras que en un sistema diseñado por Chatterbot, los jueces teóricamente pueden hacer cualquier pregunta de cualquier manera.
Los dos participantes y el juez participan en una interacción a tres bandas, a diferencia de, por ejemplo, la interacción bidireccional por parejas del Concurso del Premio Loebner.
El Premio Loebner , un concurso que implementa el 'tradicional' Test de Turing
Rog-O-Matic , un robot de 1984 que juega al rastreador de mazmorras de los años 80, Rogue.
Referencias
^ "Philip Hingston | Inicio".
^ abcd Hingston, Philip (septiembre de 2009). "Una prueba de Turing para Game Bots" (PDF) . Transacciones IEEE sobre inteligencia computacional e inteligencia artificial en juegos . doi :10.1109/TCIAIG.2009.2032534. S2CID 13988179.
^ abc "El premio 2K Bot: Inicio". Archivado desde el original el 13 de septiembre de 2008.
^ ab "Premio Bot: 2008". Archivado desde el original el 25 de febrero de 2013 . Consultado el 3 de febrero de 2013 .
^ "Simposio IEEE 2008 sobre juegos e inteligencia computacional (CIG'08)".
^ Mer, Kold. "Nuevo resumen 6 SB".
^ "Premio Bot: 2008". Archivado desde el original el 26 de febrero de 2013 . Consultado el 3 de febrero de 2013 .
^ "Premio Bot: 2010". Archivado desde el original el 30 de diciembre de 2012 . Consultado el 3 de febrero de 2013 .
^ "Premio Bot: 2011". Archivado desde el original el 29 de diciembre de 2012 . Consultado el 3 de febrero de 2013 .
^ "Software NNRG - UT^2: Entrada ganadora al Botprize 2012".
^ Archivado en Ghostarchive y Wayback Machine: el robot UT mata a un juez humano. YouTube .
^ "Botprize 2012: resultado". Archivado desde el original el 25 de febrero de 2013 . Consultado el 4 de febrero de 2013 .
^ Dvorsky, George (1 de octubre de 2012). "¿Cómo es que este robot de juego obtuvo una puntuación más alta que los humanos en una prueba de Turing?".
^ Rápido, Darren (26 de septiembre de 2012). "Más humanos que humanos: los robots de juegos de IA pasan la prueba de Turing".
^ "Los robots de juegos artificialmente inteligentes pasan la prueba de Turing en el centenario de Turing". 26 de septiembre de 2012.