Las tácticas anticomputadoras son métodos utilizados por los humanos para intentar vencer a los oponentes de la computadora en varios juegos, más típicamente juegos de mesa como ajedrez y Arimaa . Están más asociadas con competiciones contra IA de computadora que están jugando al máximo para ganar, en lugar de IA simplemente programadas para ser un desafío interesante al que el programador puede dar debilidades y peculiaridades intencionales (como en muchas IA de videojuegos ). Tales tácticas están más asociadas con la era en la que las IA buscaban un árbol de juego con una función de evaluación en busca de movimientos prometedores, a menudo con poda alfa-beta u otros algoritmos minimax utilizados para limitar la búsqueda. Contra tales algoritmos, una táctica común es jugar de manera conservadora apuntando a una ventaja a largo plazo. La teoría es que esta ventaja se manifestará lo suficientemente lentamente como para que la computadora no pueda notarla en su búsqueda, y la computadora no jugará correctamente con la amenaza. Esto puede resultar, por ejemplo, en una ventaja sutil que eventualmente se convierte en un final de ajedrez ganador con un peón pasado . (Por el contrario, intentar atraer a una IA a una " trampa " de corto plazo, invitándola a realizar un movimiento que parece razonable para los humanos pero que en realidad es desastroso, esencialmente nunca funcionará contra una computadora en juegos de información perfecta).
El campo se asocia principalmente con la década de 1990 y principios de la década de 2000, cuando las computadoras eran muy fuertes en juegos como el ajedrez, pero se las podía ganar. Incluso entonces, la eficacia de tales tácticas era cuestionable, y varias tácticas, como realizar movimientos inusuales o subóptimos para sacar rápidamente a la computadora de su libro de aperturas , resultaron ineficaces en torneos entre humanos y computadoras. El auge del aprendizaje automático también ha mermado la aplicabilidad de las tácticas anticomputadoras, ya que los algoritmos de aprendizaje automático tienden a jugar el juego largo igual de bien o mejor que los jugadores humanos.
Un aspecto del diseño de una IA clásica para juegos de información perfecta es el efecto horizonte . Las IA de computadora examinan un árbol de juego de posibles movimientos y contramovimientos, pero a menos que haya una victoria forzada en el árbol, necesita dejar de explorar nuevas posibilidades en algún momento. Cuando lo hace, se llama a una función de evaluación en el estado del tablero, que a menudo usa heurísticas aproximadas para determinar qué lado favorece el tablero. En ajedrez, esto podría ser cosas como ventaja material (piezas adicionales), control del centro, seguridad del rey y estructura de peones. Los jugadores humanos pueden explotar el efecto horizonte utilizando una estrategia cuyos frutos solo sean aparentes más allá de los plies examinados por la IA. Por ejemplo, si la IA está examinando 10 plies por delante, y una estrategia "dará frutos" en 12-20 plies (6-10 turnos), la IA no jugará con la amenaza inminente que no puede "ver", de manera similar a una persona que no puede ver "más allá del horizonte" donde un barco podría estar oculto por la curvatura natural de la Tierra. De manera similar, para mantener el horizonte corto, los jugadores humanos pueden querer mantener un estado del tablero lo más complicado posible. Simplificar el tablero intercambiando piezas permite a la IA mirar "más lejos" en el futuro, ya que hay menos opciones para considerar y, por lo tanto, se evita cuando se intenta explotar el efecto del horizonte.
Una táctica que funciona mejor con IAs que son muy "deterministas" y que se sabe que juegan de una manera específica en respuesta a una amenaza es forzar una situación en la que el humano sabe exactamente cómo responderá la IA. Si el humano elige una situación que cree que la IA maneja mal, esto puede llevar a atraer de manera confiable a la IA a tales situaciones. Incluso si la IA puede manejar bien ese estilo de juego en particular, si el humano confía en que la IA siempre lo elegirá, simplifica la preparación para el jugador humano: puede aprender esta situación muy de cerca, sabiendo que la IA siempre aceptará una invitación a jugar en ese tipo de tablero.
Los juegos de IA basados en la búsqueda de árboles de Montecarlo tienen fortalezas y debilidades opuestas a las de las IA alfa-beta. Si bien tienden a ser mejores en la estrategia a largo plazo, tienen problemas para lidiar con las trampas. [1] Una vez que las IA de Montecarlo caen en una trampa, pueden seguir jugando mal durante un período considerable después y es posible que no se recuperen. [2]
Si bien acumular una ventaja de manera paciente puede ser una táctica beneficiosa contra las IA alfa-beta que juegan tácticamente, las IA basadas en MCTS como AlphaGo pueden jugar de esta manera estratégica paciente. [2] Por lo tanto, el juego deliberadamente táctico, que es un mal enfoque contra las alfa-beta, se convierte en una táctica anticomputadora viable contra MCTS.
Las IA de juegos basadas en redes neuronales pueden ser susceptibles a perturbaciones adversarias, donde realizar un movimiento sin sentido altera la evaluación de la posición por parte de la IA y la hace perder. Lan et al. desarrollaron un algoritmo para encontrar modificaciones de los estados del tablero que llevarían a KataGo a realizar movimientos inferiores. [3] Sin embargo, al igual que los ejemplos adversarios en el reconocimiento de imágenes, estos ataques son difíciles de idear sin la asistencia de una computadora.
En el partido Deep Blue versus Garry Kasparov de 1997, Kasparov jugó un movimiento táctico anti-computadora al comienzo del juego para sacar a Deep Blue de su libro de aperturas . [4] Kasparov eligió la inusual Apertura Mieses y pensó que la computadora jugaría mal la apertura si tuviera que jugar ella misma (es decir, confiar en sus propias habilidades en lugar de usar su libro de aperturas). [5] Kasparov jugó aperturas anti-computadora similares en las otras partidas del partido, pero la táctica fracasó. [6] Sobre los dos partidos, Kasparov escribió después del segundo juego, donde eligió la Ruy López , "Decidimos que usar la misma estrategia anti-computadora pasiva con negras sería demasiado peligroso. Con blancas podía controlar mucho mejor el ritmo del juego y esperar mis oportunidades. Con negras sería más seguro jugar una apertura conocida incluso si estaba en el libro de Deep Blue, especialmente si era una apertura cerrada donde tendría dificultades para encontrar un plan. El inconveniente de esta estrategia, como en todas las partidas, es que tampoco era mi estilo. Mientras jugaba ajedrez anticomputadoras, también jugaba ajedrez antiKasparov”.
El Brains in Bahrain fue un partido de ajedrez de ocho partidas entre el gran maestro de ajedrez humano , y entonces campeón del mundo , Vladimir Kramnik y el programa informático Deep Fritz 7 , celebrado en octubre de 2002. El partido terminó en un empate 4-4, con dos victorias para cada participante y cuatro empates , con un valor de medio punto cada uno. [7]
Arimaa es un derivado del ajedrez diseñado específicamente para dificultar la poda alfa-beta de las IA, inspirado en la derrota de Kasparov ante Deep Blue en 1997. Permite 4 acciones por "movimiento" para un jugador, lo que aumenta enormemente el tamaño del espacio de búsqueda, y puede terminar razonablemente con un tablero casi lleno y pocas piezas capturadas, evitando posiciones "resueltas" al estilo de las tablas de finales debido a la escasez de unidades. Si bien los jugadores humanos de Arimaa resistieron más que los de ajedrez, ellos también cayeron ante las IA de computadora superiores en 2015. [8]
juegos tácticos como el ajedrez, existe una gran cantidad de trampas en el espacio de búsqueda. Estas requieren un juego preciso para evitar una pérdida inmediata, y el muestreo selectivo de MCTS basado en resultados de simulación promedio puede pasar por alto o subestimar fácilmente un movimiento importante.