stringtranslate.com

Lista de bases de datos de expresiones faciales

Una base de datos de expresiones faciales es una colección de imágenes o videoclips con expresiones faciales de una variedad de emociones . El contenido multimedia del comportamiento facial bien anotado ( etiquetado con emociones ) es esencial para el entrenamiento, prueba y validación de algoritmos para el desarrollo de sistemas de reconocimiento de expresiones . La anotación de emociones se puede realizar en etiquetas de emociones discretas o en una escala continua. La mayoría de las bases de datos suelen basarse en la teoría de las emociones básicas (de  Paul Ekman ), que supone la existencia de seis emociones básicas discretas (ira, miedo, disgusto, sorpresa, alegría, tristeza). Sin embargo, algunas bases de datos incluyen el etiquetado de emociones en una escala continua de excitación-valencia.

En las bases de datos de expresiones posadas, se pide a los participantes que muestren diferentes expresiones emocionales básicas, mientras que en las bases de datos de expresiones espontáneas, las expresiones son naturales. Las expresiones espontáneas difieren notablemente de las planteadas en términos de intensidad, configuración y duración. Aparte de esto, la síntesis de algunas AU apenas se puede lograr sin sufrir el estado emocional asociado. Por eso, en la mayoría de los casos, las expresiones posadas son exageradas, mientras que las espontáneas son sutiles y difieren en apariencia.

Muchas bases de datos disponibles públicamente se clasifican aquí. [1] [2] A continuación se muestran algunos detalles de las bases de datos de expresiones faciales .

Referencias

  1. ^ "colección de bases de datos emocionales". Archivado desde el original el 25 de marzo de 2018.
  2. ^ "bases de datos de expresiones faciales".
  3. ^ Aneja, Deepali y otros. "Aprender a generar expresiones de personajes humanos estilizados en 3D". Conferencia de invierno del IEEE 2018 sobre aplicaciones de visión por computadora (WACV). IEEE, 2018.
  4. ^ Livingstone y Russo (2018). The Ryerson Audio-Visual Database of Emotional Speech and Song (RAVDESS): un conjunto dinámico y multimodal de expresiones faciales y vocales en inglés norteamericano. doi :10.1371/journal.pone.0196391
  5. ^ P. Lucey, JF Cohn, T. Kanade, J. Saragih, Z. Ambadar e I. Matthews, "El conjunto de datos extendido de Cohn-Kanade (CK+): un conjunto de datos completo de expresiones faciales para unidades de acción y expresiones especificadas por emociones". en el tercer taller del IEEE sobre CVPR para el análisis del comportamiento comunicativo humano , 2010
  6. ^ Lyon, Michael; Kamachi, Miyuki; Gyoba, Jiro (1998). La base de datos de expresiones faciales femeninas japonesas (JAFFE) . doi :10.5281/zenodo.3451524.
  7. ^ M. Valstar y M. Pantic, "Disgusto, felicidad y sorpresa inducidos: una adición a la base de datos de expresiones faciales de MMI", en Proc. En t. Conf. Recursos y evaluación del lenguaje , 2010
  8. ^ I. Sneddon, M. McRorie, G. McKeown y J. Hanratty, "La base de datos de emociones naturales inducidas por Belfast", IEEE Trans. Computación afectiva, vol. 3, núm. 1, págs. 32-41, 2012
  9. ^ Singh, Shivendra; Benedicto, Shajulin (2020). "Conjunto de datos indios de expresión facial semi-actuada (ISAFE) para el reconocimiento de emociones humanas". En Thampi, Sabu M.; Hegde, Rajesh M.; Krishnan, Sri; Mukhopadhyay, Jayanta; Chaudhary, Vipin; Marqués, Oge; Piramuthu, Selwyn; Corchado, Juan M. (eds.). Avances en Procesamiento de Señales y Sistemas de Reconocimiento Inteligente . Comunicaciones en Informática y Ciencias de la Información. vol. 1209. Singapur: Springer. págs. 150-162. doi :10.1007/978-981-15-4828-4_13. ISBN 978-981-15-4828-4.
  10. ^ SM Mavadati, MH Mahoor, K. Bartlett, P. Trinh y J. Cohn., "DISFA: una base de datos de intensidad de acción facial espontánea", IEEE Trans. Computación afectiva, vol. 4, núm. 2, págs. 151-160, 2013
  11. ^ N. Aifanti, C. Papachristou y A. Delopoulos, La base de datos de expresiones faciales de MUG, en Proc. 11° Int. Taller sobre análisis de imágenes para servicios interactivos multimedia (WIAMIS), Desenzano, Italia, 12 al 14 de abril de 2010.
  12. ^ SL Happy, P. Patnaik, A. Routray y R. Guha, "The Indian Spontaneous Expression Database for Emotion Recognition", en IEEE Transactions on Affective Computing, 2016, doi :10.1109/TAFFC.2015.2498174.
  13. ^ Langner, O., Dotsch, R., Bijlstra, G., Wigboldus, DHJ, Hawk, ST y van Knippenberg, A. (2010). Presentación y validación de la Base de Datos Radboud Faces. Cognición y emoción, 24(8), 1377—1388. doi :10.1080/02699930903485076
  14. ^ "Base de datos del grupo de investigación de expresiones faciales (FERG-DB)". grail.cs.washington.edu . Consultado el 6 de diciembre de 2016 .
  15. ^ Mollahosseini, A.; Hasani, B.; Mahoor, MH (2017). "AffectNet: una base de datos para la computación de la expresión facial, la valencia y la excitación en la naturaleza". Transacciones IEEE sobre informática afectiva . PP (99): 18–31. arXiv : 1708.03985 . doi :10.1109/TAFFC.2017.2740923. ISSN  1949-3045. S2CID  37515850.
  16. ^ "Informes técnicos IMPA-FACE3D". visgraf.impa.br . Consultado el 8 de marzo de 2018 .
  17. ^ Zafeiriou, S.; Kollias, D.; Nicolaou, MA; Papaioannou, A.; Zhao, G.; Kotsia, I. (2017). "Aff-Wild: Desafío 'en la naturaleza' de valencia y excitación" (PDF) . Conferencia IEEE 2017 sobre talleres de reconocimiento de patrones y visión por computadora (CVPRW) . págs. 1980–1987. doi :10.1109/CVPRW.2017.248. ISBN 978-1-5386-0733-6. S2CID  3107614.
  18. ^ Kollias, D.; Tzirakis, P.; Nicolaou, MA; Papaioannou, A.; Zhao, G.; Schuller, B.; Kotsia, I.; Zafeiriou, S. (2019). "Predicción de efectos profundos en la naturaleza: base de datos y desafíos Aff-Wild, arquitecturas profundas y más". Revista Internacional de Visión por Computadora . 127 (6–7): 907–929. arXiv : 1804.10938 . doi : 10.1007/s11263-019-01158-4 . S2CID  13679040.
  19. ^ Kollias, D.; Zafeiriou, S. (2019). "Expresión, afecto, reconocimiento de unidades de acción: Aff-wild2, aprendizaje multitarea y arcface" (PDF) . Conferencia británica de visión artificial (BMVC), 2019 . arXiv : 1910.04855 .
  20. ^ Kollias, D.; Schulc, A.; Hajiyev, E.; Zafeiriou, S. (2020). "Análisis del comportamiento afectivo en el primer concurso ABAW 2020". 2020 15a Conferencia Internacional IEEE sobre Reconocimiento Automático de Caras y Gestos (FG 2020) . págs. 637–643. arXiv : 2001.11409 . doi :10.1109/FG47880.2020.00126. ISBN 978-1-7281-3079-8. S2CID  210966051.
  21. ^ Li., S. "RAF-DB". Base de datos de rostros afectivos del mundo real .
  22. ^ Li, S.; Deng, W.; Du, J. (2017). "Crowdsourcing confiable y aprendizaje profundo que preserva la localidad para el reconocimiento de expresiones en la naturaleza". Conferencia IEEE 2017 sobre visión por computadora y reconocimiento de patrones (CVPR) . págs. 2584–2593. doi :10.1109/CVPR.2017.277. ISBN 978-1-5386-0457-1. S2CID  11413183.