El balanceo dinámico de la dificultad del juego ( DGDB ), también conocido como ajuste dinámico de la dificultad ( DDA ), dificultad adaptativa o balanceo dinámico del juego ( DGB ), es el proceso de cambiar automáticamente parámetros, escenarios y comportamientos en un videojuego en tiempo real, en función de la habilidad del jugador, con el fin de evitar que el jugador se aburra (si el juego es demasiado fácil) o se frustre (si es demasiado difícil). El objetivo del balanceo dinámico de la dificultad es mantener al usuario interesado desde el principio hasta el final, proporcionando un buen nivel de desafío.
Algunos elementos de un juego que podrían modificarse mediante el equilibrio dinámico de dificultad incluyen:
[A] medida que los jugadores trabajan con un juego, sus puntuaciones deberían reflejar una mejora constante. Los principiantes deberían poder hacer algún progreso, las personas de nivel intermedio deberían obtener puntuaciones intermedias y los jugadores experimentados deberían obtener puntuaciones altas... Lo ideal es que la progresión sea automática; los jugadores comienzan en el nivel de principiante y las funciones avanzadas se incorporan a medida que la computadora reconoce el juego competente.
—Chris Crawford , 1982 [1]
En la literatura se encuentran diferentes enfoques para abordar el equilibrio dinámico de la dificultad de los juegos. En todos los casos, es necesario medir, implícita o explícitamente, la dificultad a la que se enfrenta el usuario en un momento determinado. Esta medida se puede realizar mediante una función heurística , que algunos autores denominan "función de desafío". Esta función convierte un estado dado del juego en un valor que especifica lo fácil o difícil que le resulta el juego al usuario en un momento específico. Algunos ejemplos de heurísticas utilizadas son:
... o cualquier métrica utilizada para calcular la puntuación de un juego . Chris Crawford dijo: "Si tuviera que hacer un gráfico de la puntuación de un jugador típico en función del tiempo que pasa en el juego, ese gráfico debería mostrar una curva con una pendiente ascendente suave y constante. Describo un juego de este tipo como si tuviera una curva monótona positiva". Los juegos sin esa curva parecen "demasiado difíciles o demasiado fáciles", dijo. [1]
El enfoque de Hunicke y Chapman [2] controla los parámetros del entorno del juego para hacer que los desafíos sean más fáciles o más difíciles. Por ejemplo, si el juego es demasiado difícil, el jugador obtiene más armas, recupera puntos de vida más rápido o se enfrenta a menos oponentes. Aunque este enfoque puede ser efectivo, su aplicación puede dar lugar a situaciones inverosímiles. Un enfoque sencillo es combinar dicha "manipulación de parámetros" con algunos mecanismos para modificar el comportamiento de los personajes no jugadores (personajes controlados por la computadora y generalmente modelados como agentes inteligentes ). Este ajuste, sin embargo, debe hacerse con moderación, para evitar el efecto de "banda elástica". Un ejemplo de este efecto en un juego de carreras implicaría que los vehículos del conductor de la IA se volvieran significativamente más rápidos cuando están detrás del vehículo del jugador, y significativamente más lentos cuando están delante, como si los dos vehículos estuvieran conectados por una gran banda elástica .
Una implementación tradicional de la inteligencia de un agente de este tipo es utilizar reglas de comportamiento, definidas durante el desarrollo del juego . Una regla típica en un juego de lucha diría "golpea al oponente si es alcanzable, persíguelo en caso contrario". Se puede ampliar este enfoque para incluir el modelado del oponente mediante el scripting dinámico de Spronck et al. [3] [4], que asigna a cada regla una probabilidad de ser elegida. Los pesos de las reglas se pueden actualizar dinámicamente a lo largo del juego, de acuerdo con las habilidades del oponente, lo que lleva a la adaptación al usuario específico. Con un mecanismo simple, se pueden elegir reglas que generen tácticas que no sean ni demasiado fuertes ni demasiado débiles para el jugador actual.
Andrade et al. [5] dividen el problema DGB en dos dimensiones: competencia (aprender lo mejor posible) y rendimiento (actuar tan bien como sea necesario). Esta dicotomía entre competencia y rendimiento es bien conocida y estudiada en lingüística , tal como lo propuso Noam Chomsky . [6] Su enfoque enfrenta ambas dimensiones con aprendizaje por refuerzo (RL). El entrenamiento fuera de línea se utiliza para iniciar el proceso de aprendizaje. Esto se puede hacer dejando que el agente juegue contra sí mismo (autoaprendizaje), otros agentes preprogramados o jugadores humanos. Luego, el aprendizaje en línea se utiliza para adaptar continuamente esta inteligencia inicialmente incorporada a cada oponente humano específico, con el fin de descubrir la estrategia más adecuada para jugar contra él o ella. En cuanto al rendimiento, su idea es encontrar una política adecuada para elegir acciones que proporcionen un buen equilibrio de juego, es decir, acciones que mantengan tanto al agente como al jugador humano aproximadamente en el mismo nivel de rendimiento. Según la dificultad a la que se enfrenta el jugador, el agente elige acciones con un rendimiento esperado alto o bajo. En una situación dada, si el nivel del juego es demasiado difícil, el agente no elige la acción óptima (proporcionada por el marco de RL), sino que elige progresivamente acciones cada vez menos subóptimas hasta que su desempeño es tan bueno como el del jugador. De manera similar, si el nivel del juego se vuelve demasiado fácil, elegirá acciones cuyos valores sean más altos, posiblemente hasta que alcance el desempeño óptimo.
Demasi y Cruz [7] construyeron agentes inteligentes empleando técnicas de algoritmos genéticos para mantener con vida a los agentes que mejor se adaptan al nivel del usuario. La coevolución en línea se utiliza para acelerar el proceso de aprendizaje. La coevolución en línea utiliza modelos predefinidos (agentes con buenas características genéticas) como padres en las operaciones genéticas, de modo que la evolución esté sesgada por ellos. Estos modelos se construyen mediante entrenamiento fuera de línea o a mano, cuando la codificación genética del agente es lo suficientemente simple.
Otros trabajos en el campo de DGB se basan en la hipótesis de que la interacción jugador-oponente, más que las características audiovisuales, el contexto o el género del juego, es la propiedad que aporta la mayoría de las características de calidad del entretenimiento en un juego de computadora. [8] Con base en este supuesto fundamental, se introdujo una métrica para medir el valor de entretenimiento en tiempo real de los juegos de depredador/presa, y se estableció como eficiente y confiable mediante validación contra el juicio humano.
Estudios posteriores de Yannakakis y Hallam [9] han demostrado que las redes neuronales artificiales (ANN) y las redes neuronales difusas pueden extraer un mejor estimador de la satisfacción del jugador que uno diseñado por humanos, dados los estimadores apropiados del desafío y la curiosidad (factores cualitativos intrínsecos para un juego atractivo según Malone) [10] del juego y datos sobre las preferencias de los jugadores humanos. El enfoque de construir modelos de usuario del jugador de un juego que puedan predecir las respuestas a qué variantes del juego son más o menos divertidas se define como Modelado de entretenimiento . El modelo generalmente se construye utilizando técnicas de aprendizaje automático aplicadas a parámetros del juego derivados de la interacción jugador-juego [11] y/o características estadísticas de las señales fisiológicas del jugador registradas durante el juego. [12] Este enfoque básico es aplicable a una variedad de juegos, tanto de computadora [9] como físicos.
Diseñar un juego que sea justo sin ser predecible es difícil. [13] Andrew Rollings y Ernest Adams citan un ejemplo de un juego que cambiaba la dificultad de cada nivel en función del rendimiento del jugador en varios niveles anteriores. Los jugadores se dieron cuenta de esto y desarrollaron una estrategia para superar los niveles desafiantes jugando mal deliberadamente en los niveles anteriores al difícil. Los autores destacan la importancia de ocultar la existencia de la adaptación a la dificultad para que los jugadores no sean conscientes de ello. [14]
Un ejemplo temprano de equilibrio de dificultad se puede encontrar en Zanac , desarrollado en 1986 por Compile . El juego presentaba una inteligencia artificial adaptativa única , en la que el juego ajustaba automáticamente el nivel de dificultad según el nivel de habilidad del jugador, la velocidad de disparo y el estado/capacidad defensiva actual de la nave. Antes de esto, se puede encontrar en el juego de monedas Gun Fight de Midway de 1975. Este juego de disparos cara a cara ayudaba al jugador que acababa de recibir un disparo, colocando un objeto adicional nuevo, como una planta de cactus, en su mitad del campo de juego, lo que le hacía más fácil esconderse.
El oponente de la computadora de Archon se adapta lentamente con el tiempo para ayudar a los jugadores a derrotarlo. [15] Danielle Bunten diseñó tanto MULE como Global Conquest para equilibrar dinámicamente la jugabilidad entre los jugadores. Los eventos aleatorios se ajustan de modo que el jugador en primer lugar nunca tenga suerte y el jugador en último lugar nunca tenga mala suerte. [16]
El primer juego Crash Bandicoot y sus secuelas utilizan un sistema de "ajuste dinámico de dificultad", que ralentiza los obstáculos, otorga puntos de vida adicionales y suma puntos de continuidad según la cantidad de muertes del jugador. Según el diseñador principal del juego, Jason Rubin , el objetivo era "ayudar a los jugadores más débiles sin cambiar el juego para los mejores jugadores". [17]
El videojuego Flow destacó por popularizar la aplicación de la inmersión mental (también llamada flow ) a los videojuegos con su versión Flash de 2006. El diseño del videojuego se basó en la tesis de maestría de uno de sus autores, y posteriormente fue adaptado a PlayStation 3.
Los episodios de SiN lanzados en 2006 presentaban un "Sistema de desafío personal" en el que la cantidad y la dureza de los enemigos a los que se enfrentaban variaban según el rendimiento del jugador para garantizar el nivel de desafío y el ritmo de progresión en el juego. El desarrollador, Ritual Entertainment , afirmó que los jugadores con niveles de habilidad muy diferentes podían terminar el juego en un pequeño intervalo de tiempo entre ellos. [18]
En 2005, Resident Evil 4 empleó un sistema llamado "Escala de dificultad", desconocido para la mayoría de los jugadores, ya que la única mención de él se encontraba en la Guía de estrategia oficial. Este sistema califica el desempeño del jugador en una escala numérica del 1 al 10, y ajusta tanto el comportamiento/ataques enemigos utilizados como el daño/resistencia del enemigo en función del desempeño del jugador (como muertes, ataques críticos, etc.). Los niveles de dificultad seleccionados bloquean a los jugadores en un cierto número; por ejemplo, en dificultad normal, uno comienza en el Grado 4, puede bajar al Grado 2 si lo hace mal, o hasta el Grado 7 si lo hace bien. Los grados entre las dificultades pueden superponerse. [19]
God Hand , un videojuego de 2006 desarrollado por Clover Studio , dirigido porel director de Resident Evil 4 Shinji Mikami y publicado por Capcom para PlayStation 2 , presenta un medidor durante el juego que regula la inteligencia y la fuerza del enemigo. Este medidor aumenta cuando el jugador esquiva y ataca con éxito a los oponentes, y disminuye cuando el jugador es golpeado. El medidor está dividido en cuatro niveles, siendo el nivel más difícil llamado "Nivel DIE". El juego también tiene tres dificultades, siendo la dificultad fácil solo la que permite que el medidor ascienda al nivel 2, mientras que la dificultad más difícil bloquea el medidor en el nivel DIE. Este sistema también ofrece mayores recompensas al derrotar a enemigos en niveles superiores.
El videojuego de 2008 Left 4 Dead utiliza una tecnología de inteligencia artificial denominada "The AI Director". [20] El AI Director se utiliza para generar procedimentalmente una experiencia diferente para los jugadores cada vez que se juega el juego. Monitorea el desempeño de los jugadores individuales y qué tan bien trabajan juntos como grupo para marcar el ritmo del juego, determinando la cantidad de zombis que atacan al jugador y la ubicación de los encuentros con jefes infectados según la información recopilada. El Director también determina la rapidez con la que los jugadores se mueven a través del nivel hacia cada objetivo; si detecta que los jugadores han permanecido en un lugar durante demasiado tiempo o no están progresando lo suficiente, convocará una horda de infectados comunes para obligar a los jugadores y personajes de IA presentes a moverse de su ubicación actual y combatir la nueva amenaza. Además del ritmo, el Director también controla algunos elementos de video y audio del juego para establecer un ambiente para un encuentro con un jefe o para atraer la atención de los jugadores a un área determinada. [21] Valve llama al modo en que trabaja el Director " narrativa procedimental " porque en lugar de tener un nivel de dificultad que aumenta gradualmente hasta un nivel constante, la IA analiza cómo les fue a los jugadores en el juego hasta el momento, e intenta agregar eventos posteriores que les den una sensación de narrativa. [22]
Madden NFL 09 presenta "Madden IQ", que comienza con una prueba opcional sobre el conocimiento del deporte y las habilidades de los jugadores en diversas situaciones. La puntuación se utiliza luego para controlar la dificultad del juego. [23] [24]
En el juego de combinar 3 Fishdom , el límite de tiempo se ajusta en función del rendimiento del jugador. El límite de tiempo aumenta si el jugador no supera un nivel, lo que permite que cualquier jugador supere un nivel después de varios intentos.
En el videojuego Homeworld de 1999 , la cantidad de naves con las que la IA comienza cada misión se establece en función de lo poderosa que el juego considere que es la flota del jugador. Los jugadores exitosos tienen flotas más grandes porque sufren menos pérdidas. De esta manera, un jugador que tenga éxito en una serie de misiones comenzará a enfrentar desafíos cada vez mayores a medida que avanza el juego.
En Fallout: New Vegas y Fallout 3 , a medida que el jugador aumenta de nivel, variantes más duras de enemigos, enemigos con estadísticas más altas y mejores armas, o nuevos enemigos reemplazarán a los más antiguos para mantener una dificultad constante, que se puede aumentar, usando un control deslizante, con bonificaciones de experiencia y viceversa en Fallout 3. Esto también se puede hacer en New Vegas , pero no hay bonificación por aumentar o disminuir la dificultad.
La serie Mario Kart incluye elementos durante las carreras que ayudan a un piloto individual a adelantarse a sus oponentes. Estos elementos se distribuyen en función de la posición del piloto de una manera que es un ejemplo de equilibrio dinámico de la dificultad del juego. Por ejemplo, es probable que un piloto que esté cerca del final de la pista obtenga un elemento que aumentará drásticamente su velocidad o reducirá drásticamente la velocidad de sus oponentes, mientras que un piloto en primer o segundo lugar puede esperar obtener este tipo de elementos en raras ocasiones (y probablemente recibirá los elementos más débiles del juego). Los corredores controlados por computadora del juego también se adaptan a la velocidad del jugador: disminuyen la velocidad cuando el corredor líder está demasiado detrás del mejor corredor controlado por computadora, y viceversa, cuando los corredores controlados por computadora rivales alcanzan al jugador que va primero.
En 2020, una demanda colectiva en el Tribunal de Distrito de los Estados Unidos para el Distrito Norte de California acusó al desarrollador de juegos Electronic Arts de usar su tecnología patentada de ajuste dinámico de dificultad en tres de sus franquicias de EA Sports ( Madden NFL , FIFA y NHL ) en todos los juegos desde las versiones de 2017. Los demandantes dicen que EA usa esta tecnología para empujar a los jugadores a comprar más cajas de botín en forma de paquetes de jugadores, diciendo que efectivamente hace que incluso los jugadores con estadísticas altas no jueguen tan bien como deberían.
La demanda también señala que EA utiliza esta tecnología sin revelarla a los jugadores, y señala que EA ha negado su uso en el pasado en varios juegos mencionados en la demanda. Cuando se le pidió que comentara sobre las acusaciones, EA calificó las afirmaciones de "infundadas" y que "tergiversan nuestros juegos". [25] [26] [27] Los demandantes desestimaron voluntariamente la demanda en 2021. [28]
{{cite book}}
: Mantenimiento de CS1: falta la ubicación del editor ( enlace ){{cite book}}
: Mantenimiento de CS1: falta la ubicación del editor ( enlace ){{cite book}}
: Mantenimiento de CS1: falta la ubicación del editor ( enlace )