stringtranslate.com

Reconocimiento de emociones

El reconocimiento de emociones es el proceso de identificar las emociones humanas . Las personas varían ampliamente en su precisión para reconocer las emociones de los demás. El uso de la tecnología para ayudar a las personas a reconocer emociones es un área de investigación relativamente incipiente. Generalmente, la tecnología funciona mejor si utiliza múltiples modalidades en contexto. Hasta la fecha, la mayor parte del trabajo se ha realizado para automatizar el reconocimiento de expresiones faciales a partir de vídeos, expresiones habladas a partir de audio, expresiones escritas a partir de texto y fisiología medida por dispositivos portátiles.

Humano

Los seres humanos muestran una gran variabilidad en sus capacidades para reconocer emociones. Un punto clave a tener en cuenta al aprender sobre el reconocimiento automatizado de emociones es que existen varias fuentes de "verdad fundamental", o verdad sobre cuál es la emoción real. Supongamos que estamos tratando de reconocer las emociones de Alex. Una fuente es "¿qué diría la mayoría de la gente que siente Alex?" En este caso, la "verdad" puede no corresponder a lo que Alex siente, pero puede corresponder a lo que la mayoría de la gente diría que parece sentir Alex. Por ejemplo, Alex puede realmente sentirse triste, pero muestra una gran sonrisa y luego la mayoría de la gente dice que se ve feliz. Si un método automatizado logra los mismos resultados que un grupo de observadores, puede considerarse preciso, incluso si en realidad no mide lo que Alex realmente siente. Otra fuente de "verdad" es preguntarle a Alex qué siente realmente. Esto funciona si Alex tiene un buen sentido de su estado interno, quiere decirle qué es y es capaz de expresarlo con precisión en palabras o en un número. Sin embargo, algunas personas son alexitímicas y no tienen un buen sentido de sus sentimientos internos, o no son capaces de comunicarlos con precisión con palabras y números. En general, llegar a la verdad sobre qué emoción está realmente presente puede requerir algo de trabajo, puede variar según los criterios que se seleccionen y, por lo general, implicará mantener cierto nivel de incertidumbre.

Automático

Se han llevado a cabo décadas de investigación científica desarrollando y evaluando métodos para el reconocimiento automatizado de emociones. En la actualidad existe una extensa literatura que propone y evalúa cientos de tipos diferentes de métodos, aprovechando técnicas de múltiples áreas, como el procesamiento de señales , el aprendizaje automático , la visión por computadora y el procesamiento del habla . Se pueden emplear diferentes metodologías y técnicas para interpretar la emoción, como las redes bayesianas . [1] , modelos de mezcla gaussiana [2] y modelos ocultos de Markov [3] y redes neuronales profundas . [4]

Enfoques

La precisión del reconocimiento de emociones suele mejorar cuando combina el análisis de expresiones humanas a partir de formas multimodales como textos, fisiología, audio o vídeo. [5] Se detectan diferentes tipos de emociones mediante la integración de información de expresiones faciales , movimientos y gestos corporales y habla. [6] Se dice que la tecnología contribuye al surgimiento de la llamada Internet emocional o emotiva . [7]

Los enfoques existentes en el reconocimiento de emociones para clasificar ciertos tipos de emociones generalmente se pueden clasificar en tres categorías principales: técnicas basadas en el conocimiento, métodos estadísticos y enfoques híbridos. [8]

Técnicas basadas en el conocimiento

Las técnicas basadas en el conocimiento (a veces denominadas técnicas basadas en el léxico ) utilizan el conocimiento del dominio y las características semánticas y sintácticas del texto y potencialmente del lenguaje hablado para detectar ciertos tipos de emociones . [9] En este enfoque, es común utilizar recursos basados ​​en el conocimiento durante el proceso de clasificación de emociones , como WordNet , SenticNet, [10] ConceptNet y EmotiNet, [11] por nombrar algunos. [12] Una de las ventajas de este enfoque es la accesibilidad y la economía que genera la gran disponibilidad de dichos recursos basados ​​en el conocimiento. [8] Por otro lado, una limitación de esta técnica es su incapacidad para manejar matices conceptuales y reglas lingüísticas complejas. [8]

Las técnicas basadas en el conocimiento se pueden clasificar principalmente en dos categorías: enfoques basados ​​en diccionarios y basados ​​en corpus. [ cita necesaria ] Los enfoques basados ​​en diccionarios encuentran palabras iniciales de opiniones o emociones en un diccionario y buscan sus sinónimos y antónimos para ampliar la lista inicial de opiniones o emociones . [13] Por otro lado, los enfoques basados ​​en corpus comienzan con una lista inicial de palabras de opinión o emoción y amplían la base de datos encontrando otras palabras con características específicas del contexto en un corpus grande . [13] Si bien los enfoques basados ​​en corpus tienen en cuenta el contexto, su rendimiento aún varía en diferentes dominios, ya que una palabra en un dominio puede tener una orientación diferente en otro dominio. [14]

métodos de estadística

Los métodos estadísticos comúnmente implican el uso de diferentes algoritmos de aprendizaje automático supervisados ​​en los que se introduce un gran conjunto de datos anotados en los algoritmos para que el sistema aprenda y prediga los tipos de emociones apropiados . [8] Los algoritmos de aprendizaje automático generalmente proporcionan una precisión de clasificación más razonable en comparación con otros enfoques, pero uno de los desafíos para lograr buenos resultados en el proceso de clasificación es la necesidad de tener un conjunto de entrenamiento suficientemente grande. [8]

Algunos de los algoritmos de aprendizaje automático más utilizados incluyen Support Vector Machines (SVM) , Naive Bayes y Maximum Entropy . [15] El aprendizaje profundo , que pertenece a la familia no supervisada del aprendizaje automático , también se emplea ampliamente en el reconocimiento de emociones. [16] [17] [18] Los algoritmos de aprendizaje profundo conocidos incluyen diferentes arquitecturas de redes neuronales artificiales (ANN), como la red neuronal convolucional (CNN) , la memoria a corto plazo (LSTM) y la máquina de aprendizaje extrema (ELM). . [15] La popularidad de los enfoques de aprendizaje profundo en el ámbito del reconocimiento de emociones puede atribuirse principalmente a su éxito en aplicaciones relacionadas, como la visión por computadora , el reconocimiento de voz y el procesamiento del lenguaje natural (PNL) . [15]

Enfoques híbridos

Los enfoques híbridos en el reconocimiento de emociones son esencialmente una combinación de técnicas basadas en el conocimiento y métodos estadísticos, que explotan características complementarias de ambas técnicas. [8] Algunos de los trabajos que han aplicado un conjunto de elementos lingüísticos y métodos estadísticos basados ​​en el conocimiento incluyen la computación sentic y iFeel, los cuales han adoptado el recurso basado en el conocimiento a nivel conceptual SenticNet. [19] [20] El papel de dichos recursos basados ​​en el conocimiento en la implementación de enfoques híbridos es muy importante en el proceso de clasificación de emociones . [12] Dado que las técnicas híbridas se benefician de los beneficios que ofrecen los enfoques estadísticos y basados ​​en el conocimiento, tienden a tener un mejor rendimiento de clasificación en lugar de emplear métodos estadísticos o basados ​​en el conocimiento de forma independiente. [ cita necesaria ] Sin embargo, una desventaja del uso de técnicas híbridas es la complejidad computacional durante el proceso de clasificación. [12]

Conjuntos de datos

Los datos son una parte integral de los enfoques existentes en el reconocimiento de emociones y, en la mayoría de los casos, es un desafío obtener los datos anotados que son necesarios para entrenar algoritmos de aprendizaje automático . [13] Para la tarea de clasificar diferentes tipos de emociones a partir de fuentes multimodales en forma de textos, audio, vídeos o señales fisiológicas, están disponibles los siguientes conjuntos de datos:

  1. HUMAINE: proporciona clips naturales con palabras emocionales y etiquetas de contexto en múltiples modalidades [21]
  2. Base de datos de Belfast: proporciona clips con una amplia gama de emociones de programas de televisión y grabaciones de entrevistas [22]
  3. SEMAINE: proporciona grabaciones audiovisuales entre una persona y un agente virtual y contiene anotaciones de emociones como enojo, felicidad, miedo, disgusto, tristeza, desprecio y diversión [23]
  4. IEMOCAP: proporciona grabaciones de sesiones diádicas entre actores y contiene anotaciones de emociones como felicidad, ira, tristeza, frustración y estado neutral [24]
  5. eNTERFACE: proporciona grabaciones audiovisuales de sujetos de siete nacionalidades y contiene anotaciones de emociones como felicidad, ira, tristeza, sorpresa, disgusto y miedo [25]
  6. DEAP: proporciona electroencefalografía (EEG), electrocardiografía (ECG) y grabaciones de vídeo faciales, así como anotaciones de emociones en términos de valencia , excitación y dominancia de personas que ven clips de películas [26]
  7. DREAMER: proporciona grabaciones de electroencefalografía (EEG) y electrocardiografía (ECG), así como anotaciones de emociones en términos de valencia y predominio de personas que miran clips de películas [27]
  8. MELD: es un conjunto de datos conversacionales de varias partes donde cada expresión está etiquetada con emoción y sentimiento. MELD [28] proporciona conversaciones en formato de vídeo y, por lo tanto, es adecuado para el reconocimiento de emociones multimodal y el análisis de sentimientos . MELD es útil para el análisis de sentimientos multimodal y el reconocimiento de emociones, sistemas de diálogo y reconocimiento de emociones en conversaciones . [29]
  9. MuSe: proporciona grabaciones audiovisuales de interacciones naturales entre una persona y un objeto. [30] Tiene anotaciones de emociones discretas y continuas en términos de valencia, excitación y confiabilidad, así como temas de habla útiles para el análisis de sentimientos multimodal y el reconocimiento de emociones.
  10. UIT-VSMEC: es un corpus de emociones de redes sociales vietnamita estándar (UIT-VSMEC) con alrededor de 6927 oraciones anotadas por humanos con seis etiquetas de emociones, lo que contribuye a la investigación del reconocimiento de emociones en vietnamita, que es un idioma de bajos recursos en el procesamiento del lenguaje natural (PNL). . [31]
  11. CAMA: proporciona valencia y excitación a las personas que miran imágenes. También incluye registros de electroencefalografía (EEG) de personas expuestas a diversos estímulos ( SSVEP , reposo con los ojos cerrados, reposo con los ojos abiertos, tareas cognitivas) para la tarea de biometría basada en EEG . [32]

Aplicaciones

El reconocimiento de emociones se utiliza en la sociedad por diversas razones. Affectiva , que surgió del MIT , proporciona software de inteligencia artificial que hace que sea más eficiente realizar tareas que antes las personas realizaban manualmente, principalmente para recopilar información sobre expresiones faciales y vocales relacionadas con contextos específicos donde los espectadores han dado su consentimiento para compartir esta información. Por ejemplo, en lugar de completar una encuesta extensa sobre cómo se siente en cada momento al ver un video educativo o un anuncio, puede dar su consentimiento para que una cámara observe su rostro y escuche lo que dice, y observe durante qué partes de la experiencia usted mostrar expresiones como aburrimiento, interés, confusión o sonrisa. (Tenga en cuenta que esto no implica que esté leyendo sus sentimientos más internos; solo lee lo que usted expresa externamente). Otros usos de Affectiva incluyen ayudar a niños con autismo, ayudar a personas ciegas a leer expresiones faciales, ayudar a los robots a interactuar de manera más inteligente con las personas. y monitorear las señales de atención mientras se conduce en un esfuerzo por mejorar la seguridad del conductor. [33]

La investigación académica utiliza cada vez más el reconocimiento de emociones como método para estudiar cuestiones de ciencias sociales relacionadas con elecciones, protestas y democracia. Varios estudios se centran en las expresiones faciales de los candidatos políticos en las redes sociales y encuentran que los políticos tienden a expresar felicidad. [34] [35] [36] Sin embargo, esta investigación encuentra que las herramientas de visión por computadora como Amazon Rekognition solo son precisas para la felicidad y son en su mayoría confiables como "detectores de felicidad". [37] Los investigadores que examinan las protestas, donde se espera un afecto negativo como la ira, han desarrollado sus propios modelos para estudiar con mayor precisión las expresiones de negatividad y violencia en los procesos democráticos. [38]

Una patente archivada el 7 de octubre de 2019 en Wayback Machine presentada por Snapchat en 2015 describe un método para extraer datos sobre multitudes en eventos públicos mediante el reconocimiento algorítmico de emociones en los selfies geoetiquetados de los usuarios . [39]

Emotient era una nueva empresa que aplicaba el reconocimiento de emociones para leer ceños fruncidos, sonrisas y otras expresiones en los rostros, concretamente inteligencia artificial para predecir "actitudes y acciones basadas en expresiones faciales". [40] Apple compró Emotient en 2016 y utiliza tecnología de reconocimiento de emociones para mejorar la inteligencia emocional de sus productos. [40]

nViso proporciona reconocimiento de emociones en tiempo real para aplicaciones web y móviles a través de una API en tiempo real . [41] Visage Technologies AB ofrece estimación de emociones como parte de su Visage SDK para investigación científica y de marketing y fines similares. [42]

Eyeris es una empresa de reconocimiento de emociones que trabaja con fabricantes de sistemas integrados, incluidos fabricantes de automóviles y empresas de robótica social, para integrar su software de reconocimiento de emociones y análisis facial; así como con creadores de contenido de video para ayudarlos a medir la efectividad percibida de su creatividad de video de formato corto y largo. [43] [44]

También existen muchos productos para agregar información de las emociones comunicadas en línea, incluso mediante la pulsación del botón "Me gusta" y el recuento de frases positivas y negativas en el texto, y el reconocimiento de afectos se utiliza cada vez más en algunos tipos de juegos y en la realidad virtual, tanto con fines educativos como para Brinda a los jugadores un control más natural sobre sus avatares sociales. [ cita necesaria ]

Subcampos

Es probable que el reconocimiento de emociones obtenga el mejor resultado si se aplican múltiples modalidades combinando diferentes objetos, incluido texto (conversación), audio, video y fisiología para detectar emociones.

Reconocimiento de emociones en texto.

Los datos de texto son un objeto de investigación favorable para el reconocimiento de emociones cuando son gratuitos y están disponibles en todas partes de la vida humana. En comparación con otros tipos de datos, el almacenamiento de datos de texto es más liviano y fácil de comprimir para obtener el mejor rendimiento debido a la frecuente repetición de palabras y caracteres en los idiomas. Las emociones se pueden extraer de dos formas textuales esenciales: los textos escritos y las conversaciones (diálogos). [45] Para textos escritos, muchos académicos se centran en trabajar con el nivel de oración para extraer "palabras/frases" que representan emociones. [46] [47]

Reconocimiento de emociones en audio.

A diferencia del reconocimiento de emociones en el texto, las señales vocales se utilizan para el reconocimiento para extraer emociones del audio . [48]

Reconocimiento de emociones en vídeo

Los datos de vídeo son una combinación de datos de audio, datos de imagen y, a veces, textos (en el caso de subtítulos [49] ).

Reconocimiento de emociones en la conversación.

El reconocimiento de emociones en la conversación (ERC) extrae opiniones entre los participantes a partir de datos conversacionales masivos en plataformas sociales , como Facebook , Twitter , YouTube y otras. [29] ERC puede tomar datos de entrada como texto, audio, video o una forma combinada para detectar varias emociones como miedo, lujuria, dolor y placer.

Ver también

Referencias

  1. ^ Miyakoshi, Yoshihiro y Shohei Kato. "Detección de emociones faciales considerando la oclusión parcial del rostro mediante la red baysiana". Computadoras e informática (2011): 96–101.
  2. ^ Hari Krishna Vydana, P. Phani Kumar, K. Sri Rama Krishna y Anil Kumar Vuppala. "Reconocimiento de emociones mejorado utilizando GMM-UBM". Conferencia internacional 2015 sobre sistemas de ingeniería de comunicaciones y procesamiento de señales
  3. ^ B. Schuller, G. Rigoll M. Lang. "Reconocimiento de emociones del habla basado en modelos ocultos de Markov". ICME '03. Actas. 2003 Conferencia Internacional sobre Multimedia y Expo, 2003.
  4. ^ Singh, Premjeet; Saha, Goutam; Sahidullah, Maryland (2021). "Deformación de frecuencia no lineal mediante transformación de Q constante para el reconocimiento de emociones del habla". 2021 Conferencia Internacional sobre Informática y Comunicación Informática (ICCCI) . págs. 1–4. arXiv : 2102.04029 . doi :10.1109/ICCCI50826.2021.9402569. ISBN 978-1-7281-5875-4. S2CID  231846518.
  5. ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (septiembre de 2017). "Una revisión de la computación afectiva: del análisis unimodal a la fusión multimodal". Fusión de información . 37 : 98-125. doi :10.1016/j.inffus.2017.02.003. hdl : 1893/25490 . S2CID  205433041.
  6. ^ Caridakis, George; Castellano, Ginevra; Kessous, Loic; Raouzaiou, Amarilis; Malatesta, Lori; Asteriadis, Stelios; Karpouzis, Kostas (19 de septiembre de 2007). "Reconocimiento de emociones multimodal a partir de rostros expresivos, gestos corporales y habla". Inteligencia artificial e innovaciones 2007: de la teoría a las aplicaciones . IFIP la Federación Internacional para el Procesamiento de la Información. vol. 247, págs. 375–388. doi :10.1007/978-0-387-74161-1_41. ISBN 978-0-387-74160-4.
  7. ^ Precio (23 de agosto de 2015). "Aprovechando la Internet emocional". TechCrunch . Consultado el 12 de diciembre de 2018 .
  8. ^ abcdef Cambria, Erik (marzo de 2016). "Computación afectiva y análisis de sentimientos". Sistemas inteligentes IEEE . 31 (2): 102-107. doi :10.1109/MIS.2016.31. S2CID  18580557.
  9. ^ Taboada, Maite; Brooke, Julián; Tofiloski, Milán; Voll, Kimberly; Stede, Manfred (junio de 2011). "Métodos basados ​​en léxico para el análisis de sentimientos". Ligüística computacional . 37 (2): 267–307. doi : 10.1162/coli_a_00049 . ISSN  0891-2017.
  10. ^ Cambria, Erik; Liu, Qian; Decherchi, Sergio; Xing, Frank; Kwok, Kenneth (2022). "SenticNet 7: un marco de IA neurosimbólica basado en el sentido común para un análisis de sentimientos explicable" (PDF) . Actas de LREC . págs. 3829–3839.
  11. ^ Balahur, Alexandra; Hermida, Jesús M; Montoyo, Andrés (1 de noviembre de 2012). "Detección de expresiones implícitas de emoción en el texto: un análisis comparativo". Sistemas de Soporte a la Decisión . 53 (4): 742–753. doi :10.1016/j.dss.2012.05.024. ISSN  0167-9236.
  12. ^ abc Medhat, Walaa; Hassan, Ahmed; Korashy, Hoda (diciembre de 2014). "Algoritmos y aplicaciones de análisis de sentimientos: una encuesta". Revista de ingeniería de Ain Shams . 5 (4): 1093-1113. doi : 10.1016/j.asej.2014.04.011 .
  13. ^ abc Madhoushi, Zohreh; Hamdan, Abdul Razak; Zainudin, Suhaila (2015). "Técnicas de análisis de sentimientos en trabajos recientes". Conferencia de Ciencia e Información (SAI) 2015 . págs. 288–291. doi :10.1109/SAI.2015.7237157. ISBN 978-1-4799-8547-0. S2CID  14821209.
  14. ^ Hematiano, Fatemeh; Sohrabi, Mohammad Karim (18 de diciembre de 2017). "Una encuesta sobre técnicas de clasificación para la minería de opiniones y el análisis de sentimientos". Revisión de inteligencia artificial . 52 (3): 1495-1545. doi :10.1007/s10462-017-9599-6. S2CID  11741285.
  15. ^ abc sol, Shiliang; Luo, Chen; Chen, Junyu (julio de 2017). "Una revisión de técnicas de procesamiento del lenguaje natural para sistemas de minería de opiniones". Fusión de información . 36 : 10–25. doi :10.1016/j.inffus.2016.10.004.
  16. ^ Majumder, Navonil; Poria, Soujanya; Gelbukh, Alejandro; Cambria, Erik (marzo de 2017). "Modelado de documentos basado en aprendizaje profundo para la detección de personalidad a partir de texto". Sistemas inteligentes IEEE . 32 (2): 74–79. doi :10.1109/MIS.2017.23. S2CID  206468984.
  17. ^ Mahendhiran, PD; Kannimuthu, S. (mayo de 2018). "Técnicas de aprendizaje profundo para la clasificación de polaridad en análisis de sentimiento multimodal". Revista internacional de tecnología de la información y toma de decisiones . 17 (3): 883–910. doi :10.1142/S0219622018500128.
  18. ^ Yu, Hongliang; Gui, Liangke; Madaio, Michael; Ogan, Amy; Cassell, Justine; Morency, Louis-Philippe (23 de octubre de 2017). "Modelo de atención temporalmente selectiva para el reconocimiento del estado social y afectivo en contenidos multimedia". Actas de la 25ª conferencia internacional ACM sobre multimedia . MM '17. ACM. págs. 1743-1751. doi :10.1145/3123266.3123413. ISBN 9781450349062. S2CID  3148578.
  19. ^ Cambria, Erik; Hussain, Amir (2015). Computación sentic: un marco basado en el sentido común para el análisis de sentimientos a nivel de concepto. Compañía editorial Springer, incorporada. ISBN 978-3319236537.
  20. ^ Araújo, Matheus; Gonçalves, Pollyanna; Cha, Meeyoung ; Benevenuto, Fabricio (7 de abril de 2014). "IFeel: un sistema que compara y combina métodos de análisis de sentimiento". Actas de la 23ª Conferencia Internacional sobre la World Wide Web . Compañero de WWW '14. ACM. págs. 75–78. doi :10.1145/2567948.2577013. ISBN 9781450327459. S2CID  11018367.
  21. ^ Paolo Petta; Catalina Pelachaud ; Roddy Cowie, eds. (2011). Sistemas orientados a las emociones el manual humano . Berlín: Springer. ISBN 978-3-642-15184-2.
  22. ^ Douglas-Cowie, Ellen; Campbell, Nick; Cowie, Roddy; Roach, Peter (1 de abril de 2003). "Discurso emocional: hacia una nueva generación de bases de datos". Comunicación del habla . 40 (1–2): 33–60. CiteSeerX 10.1.1.128.3991 . doi :10.1016/S0167-6393(02)00070-5. ISSN  0167-6393. S2CID  6421586. 
  23. ^ McKeown, G.; Valstar, M.; Cowie, R.; Pántic, M.; Schroder, M. (enero de 2012). "La base de datos SEMAINE: registros multimodales anotados de conversaciones coloreadas emocionalmente entre una persona y un agente limitado". Transacciones IEEE sobre informática afectiva . 3 (1): 5–17. doi :10.1109/T-AFFC.2011.20. S2CID  2995377.
  24. ^ Busso, Carlos; Bulut, Murtaza; Lee, Chi-Chun; Kazemzadeh, Abe; Cortacésped, Emily ; Kim, Samuel; Chang, Jeannette N.; Lee, Sungbok; Narayanan, Shrikanth S. (5 de noviembre de 2008). "IEMOCAP: base de datos interactiva de captura de movimiento diádico emocional". Evaluación y recursos lingüísticos . 42 (4): 335–359. doi :10.1007/s10579-008-9076-6. ISSN  1574-020X. S2CID  11820063.
  25. ^ Martín, O.; Kotsia, I.; Macq, B.; Pitas, I. (3 de abril de 2006). "La base de datos de emociones audiovisuales eNTERFACE'05". 22ª Conferencia Internacional sobre Talleres de Ingeniería de Datos (ICDEW'06). Icedew '06. Sociedad de Computación IEEE. págs.8–. doi :10.1109/ICDEW.2006.145. ISBN 9780769525716. S2CID  16185196.
  26. ^ Koelstra, Sander; Mühl, cristiano; Soleymani, Mohammad; Lee, Jong-Seok; Yazdani, Ashkan; Ebrahimi, Touradj; Juego de palabras, Thierry; Nijholt, Antón; Patras, Ioannis (enero de 2012). "DEAP: una base de datos para el análisis de emociones mediante señales fisiológicas". Transacciones IEEE sobre informática afectiva . 3 (1): 18–31. CiteSeerX 10.1.1.593.8470 . doi :10.1109/T-AFFC.2011.15. ISSN  1949-3045. S2CID  206597685. 
  27. ^ Katsigiannis, Stamos; Ramzan, Naeem (enero de 2018). "DREAMER: una base de datos para el reconocimiento de emociones a través de señales de EEG y ECG desde dispositivos inalámbricos disponibles en el mercado de bajo costo" (PDF) . Revista IEEE de Informática Biomédica y de Salud . 22 (1): 98-107. doi :10.1109/JBHI.2017.2688239. ISSN  2168-2194. PMID  28368836. S2CID  23477696. Archivado desde el original (PDF) el 1 de noviembre de 2022 . Consultado el 1 de octubre de 2019 .
  28. ^ Poria, Soujanya; Hazarika, Devamanyu; Majumder, Navonil; Naik, Gautam; Cambria, Erik; Mihalcea, Rada (2019). "MELD: un conjunto de datos multimodal de múltiples partes para el reconocimiento de emociones en las conversaciones". Actas de la 57.ª reunión anual de la Asociación de Lingüística Computacional . Stroudsburg, PA, EE.UU.: Asociación de Lingüística Computacional: 527–536. arXiv : 1810.02508 . doi :10.18653/v1/p19-1050. S2CID  52932143.
  29. ^ ab Poria, S., Majumder, N., Mihalcea, R. y Hovy, E. (2019). Reconocimiento de emociones en la conversación: desafíos de investigación, conjuntos de datos y avances recientes. Acceso IEEE, 7, 100943-100953.
  30. ^ Stappen, Lucas; Schuller, Björn; Izquierdo, Iulia; Cambria, Erik; Kompatsiaris, Ioannis (2020). "Resumen de MuSe 2020: análisis de sentimiento multimodal, compromiso con el objetivo emocional y detección de confiabilidad en medios de la vida real". Actas de la 28ª Conferencia Internacional ACM sobre Multimedia . Seattle, PA, EE.UU.: Asociación de Maquinaria de Computación. págs. 4769–4770. arXiv : 2004.14858 . doi :10.1145/3394171.3421901. ISBN 9781450379885. S2CID  222278714.
  31. ^ Ho, Vong (2020). "Reconocimiento de emociones para texto de redes sociales vietnamitas". Ligüística computacional . Comunicaciones en Informática y Ciencias de la Información. vol. 1215, págs. 319–333. arXiv : 1911.09339 . doi :10.1007/978-981-15-6168-9_27. ISBN 978-981-15-6167-2. S2CID  208202333.
  32. ^ Arnau-González, Pablo; Katsigiannis, Stamos; Arevalillo-Herráez, Miguel; Ramzan, Naeem (febrero de 2021). "BED: un nuevo conjunto de datos para biometría basada en EEG". Revista IEEE de Internet de las cosas . (Acceso anticipado) (15): 1. doi :10.1109/JIOT.2021.3061727. ISSN  2327-4662. S2CID  233916681.
  33. ^ "Afectiva".
  34. ^ Bossetta, Michael; Schmøkel, Rasmus (2 de enero de 2023). "Emociones multiplataforma y participación de la audiencia en las campañas políticas en las redes sociales: comparación de las imágenes de Facebook e Instagram de los candidatos en las elecciones estadounidenses de 2020". Comunicación Política . 40 (1): 48–68. doi : 10.1080/10584609.2022.2128949 . ISSN  1058-4609.
  35. ^ Peng, Yilang (enero de 2021). "¿Qué hace que las publicaciones de Instagram de los políticos sean populares? Análisis de las estrategias de redes sociales de candidatos y titulares de cargos con visión por computadora". La Revista Internacional de Prensa/Política . 26 (1): 143–166. doi :10.1177/1940161220964769. ISSN  1940-1612. S2CID  225108765.
  36. ^ Haim, Mario; Jungblut, Marc (15 de marzo de 2021). "La autorrepresentación de los políticos y su representación en las noticias: evidencia de 28 países que utilizan análisis computacional visual". Comunicación Política . 38 (1–2): 55–74. doi : 10.1080/10584609.2020.1753869. ISSN  1058-4609. S2CID  219481457.
  37. ^ Bossetta, Michael; Schmøkel, Rasmus (2 de enero de 2023). "Emociones multiplataforma y participación de la audiencia en las campañas políticas en las redes sociales: comparación de las imágenes de Facebook e Instagram de los candidatos en las elecciones estadounidenses de 2020". Comunicación Política . 40 (1): 48–68. doi : 10.1080/10584609.2022.2128949 . ISSN  1058-4609.
  38. ^ Ganó, Donghyeon; Steinert-Threlkeld, Zachary C.; Joo, Jungseock (19 de octubre de 2017). "Detección de actividades de protesta y estimación de la violencia percibida a partir de imágenes de redes sociales". Actas de la 25ª conferencia internacional ACM sobre multimedia . MM '17. Nueva York, NY, EE.UU.: Asociación de Maquinaria de Computación. págs. 786–794. arXiv : 1709.06204 . doi :10.1145/3123266.3123282. ISBN 978-1-4503-4906-2.
  39. ^ Bushwick, Sofía. "Este vídeo te recuerda". Científico americano . Consultado el 27 de enero de 2020 .
  40. ^ ab DeMuth Jr., Chris (8 de enero de 2016). "Apple lee tu mente". Fusiones y adquisiciones diarias . Buscando Alfa . Consultado el 9 de enero de 2016 .
  41. ^ "nViso". nViso.ch .
  42. ^ "Tecnologías de rostro".
  43. ^ "¿Te sientes triste, enojado? Tu futuro auto lo sabrá".
  44. ^ Varagur, Krithika (22 de marzo de 2016). "Los coches pronto advertirán a los conductores antes de que se queden dormidos". Correo Huffington .
  45. ^ Shivhare, SN y Khethawat, S. (2012). Detección de emociones a partir de texto. arXiv preimpresión arXiv :1205.4944
  46. ^ Ezhilarasi, R. y Minu, RI (2012). Reconocimiento y clasificación automática de emociones. Ingeniería Procedia, 38, 21-26.
  47. ^ Krcadinac, U., Pasquier, P., Jovanovic, J. y Devedzic, V. (2013). Synesketch: una biblioteca de código abierto para el reconocimiento de emociones basado en oraciones. Transacciones IEEE sobre informática afectiva, 4(3), 312-325.
  48. ^ Schmitt, M., Ringeval, F. y Schuller, BW (septiembre de 2016). En la frontera de la acústica y la lingüística: una bolsa de palabras en audio para el reconocimiento de las emociones en el habla. En Interspeech (págs. 495-499).
  49. ^ Dhall, A., Goecke, R., Lucey, S. y Gedeon, T. (2012). Recopilación de bases de datos de expresiones faciales de películas grandes y ricamente comentadas. Multimedia IEEE, (3), 34-41.