stringtranslate.com

Animación facial por computadora

La animación facial por computadora es principalmente un área de los gráficos por computadora que encapsula métodos y técnicas para generar y animar imágenes o modelos del rostro de un personaje. El personaje puede ser un humano , un humanoide, un animal , una criatura o personaje legendario , etc. Debido a su tema y tipo de resultado, también está relacionada con muchos otros campos científicos y artísticos, desde la psicología hasta la animación tradicional . La importancia de los rostros humanos en la comunicación verbal y no verbal y los avances en el hardware y software de gráficos por computadora han provocado un considerable interés científico, tecnológico y artístico en la animación facial por computadora.

Aunque el desarrollo de métodos de gráficos por computadora para la animación facial comenzó a principios de la década de 1970, los principales logros en este campo son más recientes y ocurrieron desde fines de la década de 1980.

El trabajo en torno a la animación facial por computadora se puede dividir en dos áreas principales: técnicas para generar datos de animación y métodos para aplicar dichos datos a un personaje. Las técnicas como la captura de movimiento y los fotogramas clave pertenecen al primer grupo, mientras que la animación de objetivos de transformación (más comúnmente conocida como animación de formas combinadas) y la animación esquelética pertenecen al segundo. La animación facial se ha vuelto conocida y popular a través de largometrajes animados y juegos de computadora , pero sus aplicaciones incluyen muchas más áreas, como la comunicación , la educación , la simulación científica y los sistemas basados ​​en agentes (por ejemplo, representantes de servicio al cliente en línea). Con los recientes avances en potencia computacional en dispositivos personales y móviles , la animación facial ha pasado de aparecer en contenido pre-renderizado a ser creada en tiempo de ejecución.

Historia

La expresión facial humana ha sido objeto de investigación científica durante más de cien años. El estudio de los movimientos y expresiones faciales comenzó desde un punto de vista biológico. Después de algunas investigaciones más antiguas, por ejemplo, la de John Bulwer a finales de la década de 1640, el libro de Charles Darwin La expresión de las emociones en los hombres y los animales puede considerarse un gran avance para la investigación moderna en biología del comportamiento .

El modelado y la animación de expresiones faciales por ordenador no es una actividad nueva. Los primeros trabajos con representaciones faciales por ordenador se realizaron a principios de los años 70. La primera animación facial tridimensional fue creada por Parke en 1972. En 1973, Gillenson desarrolló un sistema interactivo para ensamblar y editar imágenes faciales dibujadas con líneas. En 1974, Parke desarrolló un modelo facial tridimensional parametrizado.

Uno de los intentos más importantes de describir los movimientos faciales fue el Sistema de Codificación de Acciones Faciales (FACS, por sus siglas en inglés). Originalmente desarrollado por Carl-Herman Hjortsjö [1] en la década de 1960 y actualizado por Ekman y Friesen en 1978, el FACS define 46 Unidades de Acción (UA) faciales básicas. Un grupo importante de estas Unidades de Acción representa movimientos primitivos de los músculos faciales en acciones como levantar las cejas, guiñar el ojo y hablar. Ocho UA son para movimientos rígidos tridimensionales de la cabeza (es decir, girar e inclinar hacia la izquierda y la derecha y subir, bajar, avanzar y retroceder). El FACS se ha utilizado con éxito para describir movimientos deseados de rostros sintéticos y también para rastrear actividades faciales.

A principios de los años 80, Platt desarrolló el primer modelo facial controlado por músculos y Brennan desarrolló técnicas para caricaturas faciales. En 1985, el cortometraje animado Tony de Peltrie marcó un hito en la animación facial. Fue la primera vez que la expresión facial por computadora y la animación del habla fueron una parte fundamental para contar una historia.

A finales de los años 1980 se produjo el desarrollo de un nuevo modelo basado en los músculos por parte de Waters , el desarrollo de un modelo abstracto de acción muscular por parte de Magnenat-Thalmann y sus colegas, y los enfoques de sincronización automática del habla por parte de Lewis y Hill. En los años 1990 se ha producido una actividad creciente en el desarrollo de técnicas de animación facial y el uso de la animación facial por ordenador como un componente clave de la narración, como se ilustra en películas animadas como Toy Story (1995), Antz (1998), Shrek y Monsters, Inc. (ambas de 2001), y juegos de ordenador como Sims . Casper (1995), un hito en esta década, fue la primera película en la que se produjo un actor principal exclusivamente utilizando animación facial digital.

La sofisticación de las películas aumentó después de 2000. En Matrix Reloaded y Matrix Revolutions , se utilizó un flujo óptico denso de varias cámaras de alta definición para capturar el movimiento facial realista en cada punto de la cara. Polar Express (película) utilizó un gran sistema Vicon para capturar más de 150 puntos. Aunque estos sistemas están automatizados, aún se necesita una gran cantidad de esfuerzo de limpieza manual para que los datos sean utilizables. Otro hito en la animación facial se alcanzó con El Señor de los Anillos , donde se desarrolló un sistema de base de forma específica del personaje. Mark Sagar fue pionero en el uso de FACS en la animación facial de entretenimiento, y los sistemas basados ​​en FACS desarrollados por Sagar se utilizaron en Monster House , King Kong y otras películas.

Técnicas

Generación de datos de animación facial

La generación de datos de animación facial se puede abordar de diferentes maneras: 1.) captura de movimiento basada en marcadores en puntos o marcas en la cara de un artista, 2.) técnicas de captura de movimiento sin marcadores utilizando diferentes tipos de cámaras, 3.) técnicas impulsadas por audio, y 4.) animación de fotogramas clave .

Cómo aplicar animación facial a un personaje

Las principales técnicas utilizadas para aplicar animación facial a un personaje son: 1.) animación de objetivos de transformación , 2.) animación basada en huesos , 3.) animación basada en texturas (2D o 3D) y 4.) modelos fisiológicos .

Captura de pantalla del cortometraje animado "Kara" de Quantic Dream

Lenguajes de animación facial

Se utilizan muchos lenguajes de animación facial para describir el contenido de la animación facial. Se pueden introducir en un software de "reproducción" compatible que luego crea las acciones solicitadas. Los lenguajes de animación facial están estrechamente relacionados con otros lenguajes de presentación multimedia como SMIL y VRML . Debido a la popularidad y eficacia de XML como mecanismo de representación de datos, la mayoría de los lenguajes de animación facial se basan en XML. Por ejemplo, este es un ejemplo de Virtual Human Markup Language (VHML):

 <vhml> <person disposition= "angry" > Primero hablo con voz enojada y parezco muy enojado , <surprised intensity = "50" > pero de repente cambio a parecer más sorprendido . </surprised> </person> </vhml>                          

Los lenguajes más avanzados permiten la toma de decisiones, el manejo de eventos y las acciones paralelas y secuenciales. El lenguaje de modelado facial (FML) es un lenguaje basado en XML para describir la animación de rostros . [5] FML admite parámetros de animación facial MPEG-4 (FAPS), toma de decisiones y manejo dinámico de eventos , y construcciones de programación típicas como bucles . Es parte del sistema iFACE. [5] El siguiente es un ejemplo de FML:

 <fml> <act> <par> <hdmv tipo= "guiñada" valor= "15" inicio= "0" fin= "2000" /> <expr tipo= "alegría" valor= "-60" inicio= "0" fin= "2000" /> </par> <excl nombre_evento= "kbd" valor_evento= "" repetición= "kbd;F3_arriba" > <hdmv tipo= "guiñada" valor= "40" inicio= "0" fin= "2000" valor_evento= "F1_arriba" /> <hdmv tipo= "guiñada" valor= "-40" inicio= "0" fin= "2000" valor_evento= "F2_arriba" /> </excl> </act> </fml>                                     

Véase también

Referencias

  1. ^ Hjortsjö, CH (1969). Rostro de hombre y lenguaje mímico Archivado el 6 de agosto de 2022 en Wayback Machine .
  2. ^ Aprendizaje de dinámicas de visemas basadas en audio para animación de rostros en 3D
  3. ^ Ding, H.; Hong, Y. (2003). "Modelado controlado por curvas NURBS para animación facial". Computers and Graphics . 27 (3): 373–385. doi :10.1016/S0097-8493(03)00033-5.
  4. ^ Lucero, JC; Munhall, KG (1999). "Un modelo de biomecánica facial para la producción del habla". Revista de la Sociedad Acústica de América . 106 (5): 2834–2842. Bibcode :1999ASAJ..106.2834L. doi :10.1121/1.428108. PMID  10573899.
  5. ^ ab "iFACE". Carleton University. 6 de junio de 2007. Archivado desde el original el 6 de junio de 2007 . Consultado el 16 de junio de 2019 .

Lectura adicional

Enlaces externos