Live2D es una técnica de animación utilizada para animar imágenes estáticas (normalmente personajes de estilo anime ) que implica separar una imagen en partes y animar cada parte en consecuencia, sin necesidad de una animación cuadro por cuadro o un modelo 3D . [1] [2] [3] [4] [5] [6] Esto permite que los personajes se muevan utilizando un movimiento 2.5D mientras mantienen la ilustración original.
Existe la idea errónea de que Live2D se refiere al software utilizado para crear animaciones Live2D. [7] [8] Debido a la popularidad del cubismo Live2D, la gente suele equiparar Live2D (la técnica de animación) con el cubismo Live2D (el software). Sin embargo, Live2D es una técnica de animación, no el software utilizado para crear animaciones Live2D. Existen otras opciones de software que se utilizan para crear animaciones Live2D, como Inochi2D o E-mote (que se utiliza en Tokyo School Life). [9]
Los modelos Live2D constan de partes en capas guardadas como un archivo de Photoshop (formato .psd). Las capas se mueven por separado para mostrar toda la animación y la expresión del personaje, como la inclinación de la cabeza. Las partes pueden ser tan simples como la cara, el cabello y el cuerpo, o pueden incluir detalles como cejas, pestañas e incluso efectos como metal brillante.
La cantidad de capas depende de cómo desea que se mueva el personaje Live2D y de qué tan tridimensional desea que parezca el resultado; un modelo simplificado tiene 50 capas y los proyectos complejos grandes alcanzan las 750 capas. No hay límite en cuanto a qué tan detallado puede ser, y algunos incluso modelan los lados de los dientes para lograr un efecto completo. [10] A diferencia de un modelo 3D, no hay un esqueleto tradicional , sino que las capas planas están deformadas y rotadas.
Live2D se puede utilizar con captura de movimiento en tiempo real para rastrear movimientos como movimientos de la cabeza, movimientos de los ojos y realizar sincronización de labios para aplicaciones en tiempo real como vtubing . La desventaja de la tecnología es que hay poca capacidad para la rotación de 360° de objetos complejos y el seguimiento del cuerpo.
Live2D se ha utilizado en una amplia variedad de videojuegos , novelas visuales , canales de YouTubers virtuales y otros medios. Ejemplos conocidos de medios y software Live2D incluyen FaceRig , [11] [12] VTube Studio, VTuber Legend , [13] Nekopara , [14] Azur Lane , [15] y YouTubers virtuales (como los popularizados por Hololive , Nijisanji , [16] y VShojo ).
Live2D se introdujo por primera vez en 2008 para resolver la necesidad de medios interactivos. [17] Desde entonces, la tecnología también ha cambiado la forma en que los juegos mejoran la experiencia del usuario a través de personajes y expresiones animadas. [18]
En 2009, Cybernoids Co. Ltd. (ahora Live2D Ltd.) lanzó su primera aplicación Live2D, Live2D Vector. [19] La aplicación transforma gráficos vectoriales para hacer que las imágenes de personajes planos logren efectos de movimiento y giro de cabeza tridimensionales. Aunque estos personajes solo pueden realizar actividades limitadas, funcionan mucho mejor que las imágenes estáticas o las presentaciones de diapositivas. Los usuarios también pueden personalizar su personaje en movimiento ajustando parámetros a través del software o recopilando materiales como imágenes de diferentes ángulos de un personaje. Por supuesto, los gráficos vectoriales aún tienen muchas limitaciones. Aunque los recursos de capacidad ocupados se reducen, la representación de imágenes complejas consume mucha CPU y RAM . Además, si bien puede ser difícil trabajar con estilos de arte más tradicionales, como la pintura al óleo o los estilos gouache , los creadores de VTuber han estado experimentando con estos estilos con éxito. [20]
La primera aplicación de la técnica Live2D es HibikiDokei lanzada por sandwichproject (株式会社レジストプランニング), una aplicación de alarma lanzada en 2010. La aplicación de alarma tiene un personaje femenino llamado "Hibiki" que habla y se mueve. [21]
En 2011, Live2D adoptó el juego de PSP Ore no Imōto ga Konna ni Kawaii Wake ga Nai Portable lanzado por NAMCO BANDAI Games Inc., que se convirtió en el primer juego en el que el sistema OIU derivado de la tecnología Live2D se aplicó en un juego, donde el personaje se mueve y cambia de posición y expresión mientras habla con el jugador. [22] Los personajes se movían de manera expresiva en la pantalla y sin problemas como un anime, lo que sorprendió a los jugadores y desencadenó la popularidad de Live2D. [23]
El desarrollador de software Tetsuya Nakashiro había estado desarrollando software Live2D de forma independiente y fundó la empresa Cyber Noise (o Cybernoids, en japonés : サイバーノイズ) en 2006 con el apoyo del Proyecto Exploratorio de Recursos Humanos de TI de la Agencia Japonesa de Promoción de Tecnologías de la Información (IPA). Debido a su novedad y a la falta de aceptación, Cyber Noise no tuvo éxito.
En 2011, el software Live2D recibió atención después de su uso en el juego de PSP Ore no Imōto ga Konna ni Kawaii Wake ga Nai Portable . Posteriormente recibió interés como biblioteca para Android e iOS . Tras este éxito, en 2014 Cyber Noise cambió su nombre a Live2D Ltd., [24] unificándose con su nombre de producto. Las ventas de Live2D han tenido un crecimiento significativo desde entonces. En 2021, el 70% de los usuarios de Live2D Cubism Pro son o crean Vtubers , seguidos por los desarrolladores de juegos/aplicaciones y los creadores de animaciones/videos. [25]
Live2D Ltd. ofrece su software y SDK bajo licencias comerciales y como software gratuito .
El software de animación puede combinarse con el sistema Live2D para crear avatares animados en tiempo real a través de captura de movimiento , animación de personajes e imágenes generadas por computadora , incluyendo:
{{cite web}}
: Enlace externo en |title=
( ayuda ){{cite web}}
: Enlace externo en |title=
( ayuda )ールを変えSpineを採用しています.