stringtranslate.com

Reconocimiento de emociones

El reconocimiento de emociones es el proceso de identificación de las emociones humanas . La precisión con la que las personas reconocen las emociones de los demás varía considerablemente. El uso de la tecnología para ayudar a las personas con el reconocimiento de emociones es un área de investigación relativamente incipiente. En general, la tecnología funciona mejor si utiliza múltiples modalidades en contexto. Hasta la fecha, la mayor parte del trabajo se ha realizado en la automatización del reconocimiento de expresiones faciales a partir de videos, expresiones habladas a partir de audio, expresiones escritas a partir de texto y fisiología medida mediante dispositivos portátiles.

Humano

Los seres humanos muestran una gran variabilidad en sus capacidades para reconocer emociones. Un punto clave a tener en cuenta al aprender sobre el reconocimiento automático de emociones es que existen varias fuentes de "verdad fundamental", o verdad sobre cuál es la emoción real. Supongamos que estamos tratando de reconocer las emociones de Alex. Una fuente es "¿qué diría la mayoría de la gente que siente Alex?" En este caso, la "verdad" puede no corresponder a lo que siente Alex, pero puede corresponder a lo que la mayoría de la gente diría que parece sentir Alex. Por ejemplo, Alex puede sentirse triste en realidad, pero pone una gran sonrisa y luego la mayoría de la gente dice que parece feliz. Si un método automatizado logra los mismos resultados que un grupo de observadores, puede considerarse preciso, incluso si en realidad no mide lo que Alex siente realmente. Otra fuente de "verdad" es preguntarle a Alex qué siente realmente. Esto funciona si Alex tiene una buena idea de su estado interno y quiere decirte cuál es, y es capaz de ponerlo con precisión en palabras o en un número. Sin embargo, algunas personas son alexitímicas y no tienen un buen sentido de sus sentimientos internos, o no son capaces de comunicarlos con precisión mediante palabras y números. En general, llegar a la verdad sobre qué emoción está realmente presente puede requerir algo de trabajo, puede variar según los criterios que se seleccionen y, por lo general, implicará mantener cierto nivel de incertidumbre.

Automático

Se han llevado a cabo décadas de investigación científica para desarrollar y evaluar métodos de reconocimiento automático de emociones. Actualmente existe una extensa literatura que propone y evalúa cientos de tipos diferentes de métodos, aprovechando técnicas de múltiples áreas, como el procesamiento de señales , el aprendizaje automático , la visión artificial y el procesamiento del habla . Se pueden emplear diferentes metodologías y técnicas para interpretar las emociones , como las redes bayesianas [1] , los modelos de mezcla gaussiana [2] y los modelos ocultos de Markov [3] y las redes neuronales profundas [4] .

Aproches

La precisión del reconocimiento de emociones generalmente mejora cuando se combina el análisis de expresiones humanas a partir de formas multimodales como textos, fisiología, audio o video. [5] Se detectan diferentes tipos de emociones a través de la integración de información de expresiones faciales , movimientos corporales y gestos , y habla. [6] Se dice que la tecnología contribuye al surgimiento de la llamada Internet emocional o emotiva . [7]

Los enfoques existentes en el reconocimiento de emociones para clasificar ciertos tipos de emociones se pueden clasificar generalmente en tres categorías principales: técnicas basadas en el conocimiento, métodos estadísticos y enfoques híbridos. [8]

Técnicas basadas en el conocimiento

Las técnicas basadas en el conocimiento (a veces denominadas técnicas basadas en el léxico ) utilizan el conocimiento del dominio y las características semánticas y sintácticas del texto y potencialmente del lenguaje hablado para detectar ciertos tipos de emociones . [9] En este enfoque, es común utilizar recursos basados ​​en el conocimiento durante el proceso de clasificación de emociones , como WordNet , SenticNet, [10] ConceptNet y EmotiNet, [11] por nombrar algunos. [12] Una de las ventajas de este enfoque es la accesibilidad y la economía que genera la gran disponibilidad de dichos recursos basados ​​en el conocimiento. [8] Por otro lado, una limitación de esta técnica es su incapacidad para manejar matices conceptuales y reglas lingüísticas complejas. [8]

Las técnicas basadas en el conocimiento se pueden clasificar principalmente en dos categorías: enfoques basados ​​en diccionarios y enfoques basados ​​en corpus. [ cita requerida ] Los enfoques basados ​​en diccionarios encuentran palabras semilla de opinión o emoción en un diccionario y buscan sus sinónimos y antónimos para expandir la lista inicial de opiniones o emociones . [13] Los enfoques basados ​​en corpus, por otro lado, comienzan con una lista semilla de palabras de opinión o emoción y expanden la base de datos al encontrar otras palabras con características específicas del contexto en un corpus grande . [13] Si bien los enfoques basados ​​en corpus tienen en cuenta el contexto, su desempeño aún varía en diferentes dominios, ya que una palabra en un dominio puede tener una orientación diferente en otro dominio. [14]

Métodos estadísticos

Los métodos estadísticos comúnmente implican el uso de diferentes algoritmos de aprendizaje automático supervisado en los que se introduce un gran conjunto de datos anotados en los algoritmos para que el sistema aprenda y prediga los tipos de emociones apropiados . [8] Los algoritmos de aprendizaje automático generalmente brindan una precisión de clasificación más razonable en comparación con otros enfoques, pero uno de los desafíos para lograr buenos resultados en el proceso de clasificación es la necesidad de tener un conjunto de entrenamiento suficientemente grande. [8]

Algunos de los algoritmos de aprendizaje automático más utilizados incluyen máquinas de vectores de soporte (SVM) , Naive Bayes y máxima entropía . [15] El aprendizaje profundo , que se encuentra dentro de la familia no supervisada del aprendizaje automático , también se emplea ampliamente en el reconocimiento de emociones. [16] [17] [18] Los algoritmos de aprendizaje profundo conocidos incluyen diferentes arquitecturas de redes neuronales artificiales (ANN), como la red neuronal convolucional (CNN) , la memoria a corto y largo plazo (LSTM) y la máquina de aprendizaje extremo (ELM) . [15] La popularidad de los enfoques de aprendizaje profundo en el dominio del reconocimiento de emociones puede atribuirse principalmente a su éxito en aplicaciones relacionadas, como la visión por computadora , el reconocimiento de voz y el procesamiento del lenguaje natural (NLP) . [15]

Enfoques híbridos

Los enfoques híbridos en el reconocimiento de emociones son esencialmente una combinación de técnicas basadas en el conocimiento y métodos estadísticos, que explotan las características complementarias de ambas técnicas. [8] Algunos de los trabajos que han aplicado un conjunto de elementos lingüísticos basados ​​en el conocimiento y métodos estadísticos incluyen sentic computing e iFeel, ambos han adoptado el recurso basado en el conocimiento a nivel de concepto SenticNet. [19] [20] El papel de estos recursos basados ​​en el conocimiento en la implementación de enfoques híbridos es muy importante en el proceso de clasificación de emociones . [12] Dado que las técnicas híbridas se benefician de los beneficios ofrecidos tanto por los enfoques basados ​​en el conocimiento como por los estadísticos, tienden a tener un mejor rendimiento de clasificación en comparación con el empleo de métodos basados ​​en el conocimiento o estadísticos de forma independiente. [ cita requerida ] Sin embargo, una desventaja del uso de técnicas híbridas es la complejidad computacional durante el proceso de clasificación. [12]

Conjuntos de datos

Los datos son una parte integral de los enfoques existentes en el reconocimiento de emociones y en la mayoría de los casos es un desafío obtener datos anotados que son necesarios para entrenar algoritmos de aprendizaje automático . [13] Para la tarea de clasificar diferentes tipos de emociones a partir de fuentes multimodales en forma de textos, audio, videos o señales fisiológicas, están disponibles los siguientes conjuntos de datos:

  1. HUMAINE: proporciona clips naturales con palabras de emoción y etiquetas de contexto en múltiples modalidades [21]
  2. Base de datos de Belfast: ofrece clips con una amplia gama de emociones de programas de televisión y grabaciones de entrevistas [22]
  3. SEMAINE: proporciona grabaciones audiovisuales entre una persona y un agente virtual y contiene anotaciones de emociones como enojo, felicidad, miedo, disgusto, tristeza, desprecio y diversión [23]
  4. IEMOCAP: proporciona grabaciones de sesiones diádicas entre actores y contiene anotaciones de emociones como felicidad, enojo, tristeza, frustración y estado neutral [24]
  5. eNTERFACE: proporciona grabaciones audiovisuales de sujetos de siete nacionalidades y contiene anotaciones de emociones como felicidad, enojo, tristeza, sorpresa, disgusto y miedo [25]
  6. DEAP: proporciona electroencefalografía (EEG), electrocardiografía (ECG) y grabaciones de video de rostros, así como anotaciones de emociones en términos de valencia , excitación y predominio de personas que miran clips de películas [26]
  7. DREAMER: proporciona registros de electroencefalografía (EEG) y electrocardiografía (ECG), así como anotaciones de emociones en términos de valencia y predominio de personas que ven clips de películas [27]
  8. MELD: es un conjunto de datos conversacionales multipartidistas en el que cada enunciado está etiquetado con emoción y sentimiento. MELD [28] proporciona conversaciones en formato de video y, por lo tanto, es adecuado para el reconocimiento de emociones multimodales y el análisis de sentimientos . MELD es útil para el análisis de sentimientos multimodales y el reconocimiento de emociones, sistemas de diálogo y reconocimiento de emociones en conversaciones . [29]
  9. MuSe: proporciona grabaciones audiovisuales de interacciones naturales entre una persona y un objeto. [30] Tiene anotaciones de emociones discretas y continuas en términos de valencia, excitación y confiabilidad, así como temas de habla útiles para el análisis de sentimientos multimodales y el reconocimiento de emociones.
  10. UIT-VSMEC: es un corpus estándar de emociones de redes sociales vietnamitas (UIT-VSMEC) con aproximadamente 6927 oraciones anotadas por humanos con seis etiquetas de emociones, que contribuyen a la investigación de reconocimiento de emociones en vietnamita, que es un idioma de bajos recursos en el procesamiento del lenguaje natural (PLN). [31]
  11. BED: proporciona la valencia y la excitación de las personas que ven imágenes. También incluye registros de electroencefalografía (EEG) de personas expuestas a diversos estímulos ( SSVEP , en reposo con los ojos cerrados, en reposo con los ojos abiertos, tareas cognitivas) para la tarea de biometría basada en EEG . [32]

Aplicaciones

El reconocimiento de emociones se utiliza en la sociedad por diversas razones. Affectiva , que surgió del MIT , proporciona un software de inteligencia artificial que hace que sea más eficiente realizar tareas que antes hacían manualmente las personas, principalmente para recopilar información sobre expresiones faciales y vocales relacionadas con contextos específicos en los que los espectadores han dado su consentimiento para compartir esta información. Por ejemplo, en lugar de completar una larga encuesta sobre cómo se siente en cada punto mientras ve un video educativo o un anuncio, puede dar su consentimiento para que una cámara observe su rostro y escuche lo que dice, y observe durante qué partes de la experiencia muestra expresiones como aburrimiento, interés, confusión o sonrisa. (Tenga en cuenta que esto no implica que esté leyendo sus sentimientos más íntimos, solo lee lo que expresa externamente). Otros usos de Affectiva incluyen ayudar a los niños con autismo, ayudar a las personas ciegas a leer expresiones faciales, ayudar a los robots a interactuar de manera más inteligente con las personas y monitorear las señales de atención mientras conduce en un esfuerzo por mejorar la seguridad del conductor. [33]

La investigación académica utiliza cada vez más el reconocimiento de emociones como método para estudiar cuestiones de ciencias sociales relacionadas con las elecciones, las protestas y la democracia. Varios estudios se centran en las expresiones faciales de los candidatos políticos en las redes sociales y descubren que los políticos tienden a expresar felicidad. [34] [35] [36] Sin embargo, esta investigación descubre que las herramientas de visión artificial como Amazon Rekognition solo son precisas para la felicidad y son en su mayoría fiables como "detectores de felicidad". [37] Por ello, los investigadores que examinan las protestas, en las que se espera que haya afectos negativos como la ira, han desarrollado sus propios modelos para estudiar con mayor precisión las expresiones de negatividad y violencia en los procesos democráticos. [38]

Una patente archivada el 7 de octubre de 2019 en Wayback Machine presentada por Snapchat en 2015 describe un método para extraer datos sobre multitudes en eventos públicos mediante el reconocimiento algorítmico de emociones en los selfies geoetiquetados de los usuarios . [39]

Emotient era una empresa emergente que aplicaba el reconocimiento de emociones para leer ceños fruncidos, sonrisas y otras expresiones en los rostros, es decir, inteligencia artificial para predecir "actitudes y acciones basadas en expresiones faciales". [40] Apple compró Emotient en 2016 y utiliza tecnología de reconocimiento de emociones para mejorar la inteligencia emocional de sus productos. [40]

nViso ofrece reconocimiento de emociones en tiempo real para aplicaciones web y móviles a través de una API en tiempo real . [41] Visage Technologies AB ofrece estimación de emociones como parte de su SDK Visage para marketing , investigación científica y propósitos similares. [42]

Eyeris es una empresa de reconocimiento de emociones que trabaja con fabricantes de sistemas integrados, incluidos fabricantes de automóviles y empresas de robótica social, para integrar su software de análisis facial y reconocimiento de emociones, así como con creadores de contenido de video para ayudarlos a medir la efectividad percibida de sus creaciones de video de formato corto y largo. [43] [44]

También existen muchos productos para agregar información de las emociones comunicadas en línea, incluso a través de pulsaciones del botón "Me gusta" y mediante recuentos de frases positivas y negativas en el texto, y el reconocimiento de afectos se utiliza cada vez más en algunos tipos de juegos y realidad virtual, tanto con fines educativos como para dar a los jugadores un control más natural sobre sus avatares sociales. [ cita requerida ]

Subcampos

El reconocimiento de emociones probablemente obtenga el mejor resultado si se aplican múltiples modalidades combinando diferentes objetos, incluido texto (conversación), audio, video y fisiología para detectar emociones.

Reconocimiento de emociones en el texto

Los datos de texto son un objeto de investigación favorable para el reconocimiento de emociones cuando son gratuitos y están disponibles en todas partes de la vida humana. En comparación con otros tipos de datos, el almacenamiento de datos de texto es más ligero y fácil de comprimir para obtener el mejor rendimiento debido a la repetición frecuente de palabras y caracteres en los idiomas. Las emociones se pueden extraer de dos formas de texto esenciales: textos escritos y conversaciones (diálogos). [45] En el caso de los textos escritos, muchos académicos se centran en trabajar con el nivel de oración para extraer "palabras/frases" que representan emociones. [46] [47]

Reconocimiento de emociones en audio

A diferencia del reconocimiento de emociones en el texto, las señales vocales se utilizan para el reconocimiento y la extracción de emociones del audio . [48]

Reconocimiento de emociones en vídeo

Los datos de vídeo son una combinación de datos de audio, datos de imagen y, a veces, textos (en el caso de los subtítulos [49] ).

Reconocimiento de emociones en la conversación

El reconocimiento de emociones en una conversación (ERC) extrae opiniones entre los participantes a partir de datos conversacionales masivos en plataformas sociales , como Facebook , Twitter , YouTube y otras. [29] ERC puede tomar datos de entrada como texto, audio, video o una forma combinada para detectar varias emociones como el miedo, la lujuria, el dolor y el placer.

Véase también

Referencias

  1. ^ Miyakoshi, Yoshihiro y Shohei Kato. "Detección de emociones faciales considerando la oclusión parcial del rostro mediante una red bayesiana". Computers and Informatics (2011): 96–101.
  2. ^ Hari Krishna Vydana, P. Phani Kumar, K. Sri Rama Krishna y Anil Kumar Vuppala. "Mejora del reconocimiento de emociones mediante GMM-UBM". Conferencia internacional de 2015 sobre sistemas de ingeniería de comunicaciones y procesamiento de señales
  3. ^ B. Schuller, G. Rigoll, M. Lang. "Reconocimiento de emociones del habla basado en modelos ocultos de Markov". ICME '03. Actas. Conferencia internacional sobre multimedia y exposiciones de 2003, 2003.
  4. ^ Singh, Premjeet; Saha, Goutam; Sahidullah, Md (2021). "Deformación de frecuencia no lineal mediante transformación de Q constante para el reconocimiento de emociones del habla". 2021 Conferencia internacional sobre comunicación informática e informática (ICCCI) . págs. 1–4. arXiv : 2102.04029 . doi :10.1109/ICCCI50826.2021.9402569. ISBN 978-1-7281-5875-4. Número de identificación del sujeto  231846518.
  5. ^ Poria, Soujanya; Cambria, Erik; Bajpai, Rajiv; Hussain, Amir (septiembre de 2017). "Una revisión de la computación afectiva: del análisis unimodal a la fusión multimodal". Fusión de información . 37 : 98–125. doi :10.1016/j.inffus.2017.02.003. hdl : 1893/25490 . S2CID  205433041.
  6. ^ Caridakis, George; Castellano, Ginevra; Kessous, Loic; Raouzaiou, Amaryllis; Malatesta, Lori; Asteriadis, Stelios; Karpouzis, Kostas (19 de septiembre de 2007). "Reconocimiento multimodal de emociones a partir de rostros expresivos, gestos corporales y habla". Inteligencia artificial e innovaciones 2007: de la teoría a las aplicaciones . IFIP, Federación Internacional para el Procesamiento de la Información. Vol. 247. págs. 375–388. doi :10.1007/978-0-387-74161-1_41. ISBN. 978-0-387-74160-4.
  7. ^ Price (23 de agosto de 2015). «Tapping Into The Emotional Internet». TechCrunch . Consultado el 12 de diciembre de 2018 .
  8. ^ abcdef Cambria, Erik (marzo de 2016). "Computación afectiva y análisis de sentimientos". IEEE Intelligent Systems . 31 (2): 102–107. doi :10.1109/MIS.2016.31. S2CID  18580557.
  9. ^ Taboada, Maite; Brooke, Julian; Tofiloski, Milan; Voll, Kimberly; Stede, Manfred (junio de 2011). "Métodos basados ​​en léxico para el análisis de sentimientos". Computational Linguistics . 37 (2): 267–307. doi : 10.1162/coli_a_00049 . ISSN  0891-2017.
  10. ^ Cambria, Erik; Liu, Qian; Decherchi, Sergio; Xing, Frank; Kwok, Kenneth (2022). "SenticNet 7: Un marco de IA neurosimbólico basado en el sentido común para el análisis explicable de sentimientos" (PDF) . Actas de LREC . págs. 3829–3839.
  11. ^ Balahur, Alexandra; Hermida, JesúS M; Montoyo, AndréS (1 de noviembre de 2012). "Detección de expresiones implícitas de emoción en texto: un análisis comparativo". Decision Support Systems . 53 (4): 742–753. doi :10.1016/j.dss.2012.05.024. ISSN  0167-9236.
  12. ^ abc Medhat, Walaa; Hassan, Ahmed; Korashy, Hoda (diciembre de 2014). "Algoritmos y aplicaciones de análisis de sentimientos: una encuesta". Ain Shams Engineering Journal . 5 (4): 1093–1113. doi : 10.1016/j.asej.2014.04.011 .
  13. ^ abc Madhoushi, Zohreh; Hamdan, Abdul Razak; Zainudin, Suhaila (2015). "Técnicas de análisis de sentimientos en trabajos recientes". Conferencia de Ciencia e Información (SAI) de 2015. págs. 288–291. doi :10.1109/SAI.2015.7237157. ISBN 978-1-4799-8547-0. Número de identificación del sujeto  14821209.
  14. ^ Hemmatian, Fatemeh; Sohrabi, Mohammad Karim (18 de diciembre de 2017). "Una encuesta sobre técnicas de clasificación para la minería de opiniones y el análisis de sentimientos". Revisión de Inteligencia Artificial . 52 (3): 1495–1545. doi :10.1007/s10462-017-9599-6. S2CID  11741285.
  15. ^ abc Sun, Shiliang; Luo, Chen; Chen, Junyu (julio de 2017). "Una revisión de las técnicas de procesamiento del lenguaje natural para sistemas de minería de opiniones". Information Fusion . 36 : 10–25. doi :10.1016/j.inffus.2016.10.004.
  16. ^ Majumder, Navonil; Poria, Soujanya; Gelbukh, Alexander; Cambria, Erik (marzo de 2017). "Modelado de documentos basado en aprendizaje profundo para la detección de personalidad a partir de texto". IEEE Intelligent Systems . 32 (2): 74–79. doi :10.1109/MIS.2017.23. S2CID  206468984.
  17. ^ Mahendhiran, PD; Kannimuthu, S. (mayo de 2018). "Técnicas de aprendizaje profundo para la clasificación de polaridad en el análisis de sentimientos multimodales". Revista internacional de tecnología de la información y toma de decisiones . 17 (3): 883–910. doi :10.1142/S0219622018500128.
  18. ^ Yu, Hongliang; Gui, Liangke; Madaio, Michael; Ogan, Amy; Cassell, Justine; Morency, Louis-Philippe (23 de octubre de 2017). "Modelo de atención selectiva temporal para el reconocimiento de estados sociales y afectivos en contenido multimedia". Actas de la 25.ª conferencia internacional de la ACM sobre multimedia . MM '17. ACM. págs. 1743–1751. doi :10.1145/3123266.3123413. ISBN . 9781450349062. Número de identificación del sujeto  3148578.
  19. ^ Cambria, Erik; Hussain, Amir (2015). Computación sensorial: un marco basado en el sentido común para el análisis de sentimientos a nivel de concepto. Springer Publishing Company, Incorporated. ISBN 978-3319236537.
  20. ^ Araújo, Matheus; Gonçalves, Pollyanna; Cha, Meeyoung ; Benevenuto, Fabrício (7 de abril de 2014). "IFeel: Un sistema que compara y combina métodos de análisis de sentimientos". Actas de la 23.ª Conferencia Internacional sobre la World Wide Web . WWW '14 Companion. ACM. págs. 75–78. doi :10.1145/2567948.2577013. ISBN. 9781450327459.S2CID11018367  .​
  21. ^ Paolo Petta; Catherine Pelachaud ; Roddy Cowie, eds. (2011). Sistemas orientados a las emociones: el manual humano . Berlín: Springer. ISBN 978-3-642-15184-2.
  22. ^ Douglas-Cowie, Ellen; Campbell, Nick; Cowie, Roddy; Roach, Peter (1 de abril de 2003). "Discurso emocional: hacia una nueva generación de bases de datos". Speech Communication . 40 (1–2): 33–60. CiteSeerX 10.1.1.128.3991 . doi :10.1016/S0167-6393(02)00070-5. ISSN  0167-6393. S2CID  6421586. 
  23. ^ McKeown, G.; Valstar, M.; Cowie, R.; Pantic, M.; Schroder, M. (enero de 2012). "La base de datos SEMAINE: registros multimodales anotados de conversaciones emocionalmente coloreadas entre una persona y un agente limitado". IEEE Transactions on Affective Computing . 3 (1): 5–17. doi :10.1109/T-AFFC.2011.20. S2CID  2995377.
  24. ^ Busso, Carlos; Bulut, Murtaza; Lee, Chi-Chun; Kazemzadeh, Abe; Mower, Emily ; Kim, Samuel; Chang, Jeannette N.; Lee, Sungbok; Narayanan, Shrikanth S. (5 de noviembre de 2008). "IEMOCAP: base de datos interactiva de captura de movimiento diádico emocional". Recursos lingüísticos y evaluación . 42 (4): 335–359. doi :10.1007/s10579-008-9076-6. ISSN  1574-020X. S2CID  11820063.
  25. ^ Martin, O.; Kotsia, I.; Macq, B.; Pitas, I. (3 de abril de 2006). "Base de datos de emociones audiovisuales eNTERFACE'05". 22.ª Conferencia internacional sobre talleres de ingeniería de datos (ICDEW'06). Icdew '06. IEEE Computer Society. págs. 8–. doi :10.1109/ICDEW.2006.145. ISBN 9780769525716.S2CID16185196  .​
  26. ^ Koelstra, Sander; Muhl, Christian; Soleymani, Mohammad; Lee, Jong-Seok; Yazdani, Ashkan; Ebrahimi, Touradj; Pun, Thierry; Nijholt, Anton; Patras, Ioannis (enero de 2012). "DEAP: una base de datos para el análisis de emociones utilizando señales fisiológicas". IEEE Transactions on Affective Computing . 3 (1): 18–31. CiteSeerX 10.1.1.593.8470 . doi :10.1109/T-AFFC.2011.15. ISSN  1949-3045. S2CID  206597685. 
  27. ^ Katsigiannis, Stamos; Ramzan, Naeem (enero de 2018). "DREAMER: una base de datos para el reconocimiento de emociones a través de señales de EEG y ECG desde dispositivos inalámbricos de bajo costo listos para usar" (PDF) . IEEE Journal of Biomedical and Health Informatics . 22 (1): 98–107. doi :10.1109/JBHI.2017.2688239. ISSN  2168-2194. PMID  28368836. S2CID  23477696. Archivado desde el original (PDF) el 1 de noviembre de 2022 . Consultado el 1 de octubre de 2019 .
  28. ^ Poria, Soujanya; Hazarika, Devamanyu; Majumder, Navonil; Naik, Gautam; Cambria, Erik; Mihalcea, Rada (2019). "MELD: un conjunto de datos multimodal y multipartidista para el reconocimiento de emociones en conversaciones". Actas de la 57.ª reunión anual de la Asociación de Lingüística Computacional . Stroudsburg, PA, EE. UU.: Asociación de Lingüística Computacional: 527–536. arXiv : 1810.02508 . doi :10.18653/v1/p19-1050. S2CID  52932143.
  29. ^ ab Poria, S., Majumder, N., Mihalcea, R. y Hovy, E. (2019). Reconocimiento de emociones en la conversación: desafíos de investigación, conjuntos de datos y avances recientes. IEEE Access, 7, 100943-100953.
  30. ^ Stappen, Lukas; Schuller, Björn; Lefter, Iulia; Cambria, Erik; Kompatsiaris, Ioannis (2020). "Resumen de MuSe 2020: Análisis de sentimientos multimodales, compromiso entre emociones y objetivos y detección de confiabilidad en los medios de la vida real". Actas de la 28.ª Conferencia internacional sobre multimedia de la ACM . Seattle, PA, EE. UU.: Association for Computing Machinery. págs. 4769–4770. arXiv : 2004.14858 . doi :10.1145/3394171.3421901. ISBN. 9781450379885. Número de identificación del sujeto  222278714.
  31. ^ Ho, Vong (2020). "Reconocimiento de emociones en textos de redes sociales vietnamitas". Computational Linguistics . Communications in Computer and Information Science. Vol. 1215. págs. 319–333. arXiv : 1911.09339 . doi :10.1007/978-981-15-6168-9_27. ISBN 978-981-15-6167-2.S2CID208202333  .​
  32. ^ Arnau-González, Pablo; Katsigiannis, Stamos; Arevalillo-Herráez, Miguel; Ramzan, Naeem (febrero de 2021). "BED: un nuevo conjunto de datos para biometría basada en EEG". IEEE Internet of Things Journal . (Acceso anticipado) (15): 1. doi :10.1109/JIOT.2021.3061727. ISSN  2327-4662. S2CID  233916681.
  33. ^ "Afectiva".
  34. ^ Bossetta, Michael; Schmøkel, Rasmus (2 de enero de 2023). «Emociones multiplataforma y participación de la audiencia en las campañas políticas en las redes sociales: comparación de las imágenes de los candidatos en Facebook e Instagram en las elecciones estadounidenses de 2020». Comunicación política . 40 (1): 48–68. doi : 10.1080/10584609.2022.2128949 . ISSN  1058-4609.
  35. ^ Peng, Yilang (enero de 2021). "¿Qué hace que las publicaciones de Instagram de los políticos sean populares? Análisis de las estrategias de redes sociales de candidatos y funcionarios públicos con visión artificial". Revista Internacional de Prensa/Política . 26 (1): 143–166. doi :10.1177/1940161220964769. ISSN  1940-1612. S2CID  225108765.
  36. ^ Haim, Mario; Jungblut, Marc (15 de marzo de 2021). "Autorrepresentación de los políticos y su representación de las noticias: evidencia de 28 países utilizando análisis computacional visual". Comunicación política . 38 (1–2): 55–74. doi :10.1080/10584609.2020.1753869. ISSN  1058-4609. S2CID  219481457.
  37. ^ Bossetta, Michael; Schmøkel, Rasmus (2 de enero de 2023). «Emociones multiplataforma y participación de la audiencia en las campañas políticas en las redes sociales: comparación de las imágenes de los candidatos en Facebook e Instagram en las elecciones estadounidenses de 2020». Comunicación política . 40 (1): 48–68. doi : 10.1080/10584609.2022.2128949 . ISSN  1058-4609.
  38. ^ Won, Donghyeon; Steinert-Threlkeld, Zachary C.; Joo, Jungseock (19 de octubre de 2017). "Detección de actividad de protesta y estimación de la violencia percibida a partir de imágenes de redes sociales". Actas de la 25.ª conferencia internacional de la ACM sobre multimedia . MM '17. Nueva York, NY, EE. UU.: Association for Computing Machinery. págs. 786–794. arXiv : 1709.06204 . doi :10.1145/3123266.3123282. ISBN 978-1-4503-4906-2.
  39. ^ Bushwick, Sophie. "Este vídeo te mira desde atrás". Scientific American . Consultado el 27 de enero de 2020 .
  40. ^ ab DeMuth Jr., Chris (8 de enero de 2016). "Apple lee tu mente". M&A Daily . Seeking Alpha . Consultado el 9 de enero de 2016 .
  41. ^ "nViso". nViso.ch .
  42. ^ "Tecnologías Visage".
  43. ^ "¿Te sientes triste, enojado? Tu futuro auto lo sabrá".
  44. ^ Varagur, Krithika (22 de marzo de 2016). "Los coches podrían avisar pronto a los conductores antes de que se queden dormidos". Huffington Post .
  45. ^ Shivhare, SN y Khethawat, S. (2012). Detección de emociones a partir de texto. arXiv preprint arXiv :1205.4944
  46. ^ Ezhilarasi, R., y Minu, RI (2012). Reconocimiento y clasificación automática de emociones. Procedia Engineering, 38, 21-26.
  47. ^ Krcadinac, U., Pasquier, P., Jovanovic, J. y Devedzic, V. (2013). Synesketch: una biblioteca de código abierto para el reconocimiento de emociones basado en oraciones. IEEE Transactions on Affective Computing, 4(3), 312-325.
  48. ^ Schmitt, M., Ringeval, F. y Schuller, BW (septiembre de 2016). En la frontera entre la acústica y la lingüística: palabras en formato de bolsa de audio para el reconocimiento de emociones en el habla. En Interspeech (pp. 495-499).
  49. ^ Dhall, A., Goecke, R., Lucey, S. y Gedeon, T. (2012). Recopilación de bases de datos extensas y ricas en anotaciones sobre expresiones faciales de películas. IEEE multimedia, (3), 34-41.