La computación afectiva es el estudio y desarrollo de sistemas y dispositivos que pueden reconocer, interpretar, procesar y simular los afectos humanos . Es un campo interdisciplinario que abarca la informática , la psicología y la ciencia cognitiva . [1] Si bien algunas ideas centrales en este campo se remontan a las primeras investigaciones filosóficas sobre las emociones , [2] la rama más moderna de la informática se originó con el artículo de 1995 de Rosalind Picard [3] sobre la computación afectiva y su libro Computación afectiva [4] publicado por MIT Press . [5] [6] Una de las motivaciones de la investigación es la capacidad de dotar a las máquinas de inteligencia emocional , incluida la simulación de empatía . La máquina debe interpretar el estado emocional de los humanos y adaptar su comportamiento a ellos, dando una respuesta adecuada a esas emociones.
La detección de información emocional generalmente comienza con sensores pasivos que capturan datos sobre el estado físico o el comportamiento del usuario sin interpretar la información. Los datos recopilados son análogos a las señales que los humanos utilizan para percibir las emociones de los demás. Por ejemplo, una cámara de vídeo puede capturar expresiones faciales, posturas corporales y gestos, mientras que un micrófono puede capturar el habla. Otros sensores detectan señales emocionales midiendo directamente datos fisiológicos , como la temperatura de la piel y la resistencia galvánica . [7]
Reconocer información emocional requiere la extracción de patrones significativos de los datos recopilados. Esto se hace mediante técnicas de aprendizaje automático que procesan diferentes modalidades , como el reconocimiento de voz , el procesamiento del lenguaje natural o la detección de expresiones faciales . El objetivo de la mayoría de estas técnicas es producir etiquetas que coincidan con las etiquetas que un perceptor humano daría en la misma situación: por ejemplo, si una persona hace una expresión facial frunciendo el ceño, entonces se podría enseñar al sistema de visión por computadora a etiquetar su cara parecía "confundida" o "concentrada" o "ligeramente negativa" (a diferencia de positiva, lo que podría decir si estuvieran sonriendo de una manera que pareciera feliz). Estas etiquetas pueden corresponder o no a lo que la persona realmente siente.
Otra área dentro de la computación afectiva es el diseño de dispositivos computacionales propuestos para exhibir capacidades emocionales innatas o que sean capaces de simular emociones de manera convincente. Un enfoque más práctico, basado en las capacidades tecnológicas actuales, es la simulación de emociones en agentes conversacionales para enriquecer y facilitar la interactividad entre humano y máquina. [8]
Marvin Minsky , uno de los científicos informáticos pioneros en inteligencia artificial , relaciona las emociones con cuestiones más amplias de la inteligencia artificial afirmando en The Emotion Machine que la emoción "no es especialmente diferente de los procesos que llamamos 'pensamiento'". [9] Lo innovador El enfoque de los "humanos digitales" o humanos virtuales incluye un intento de dotar a estos programas, que simulan a los humanos, también de la dimensión emocional, incluyendo reacciones de acuerdo con la reacción que reaccionaría una persona real en una determinada situación emocionalmente estimulante, así como expresiones faciales. y gestos. [10]
La emoción en las máquinas a menudo se refiere a la emoción en los sistemas computacionales, a menudo basados en IA. Como resultado, se utilizan los términos "IA emocional" e "IA emocional". [11]
En psicología, ciencia cognitiva y neurociencia, ha habido dos enfoques principales para describir cómo los humanos perciben y clasifican las emociones: continua o categórica. El enfoque continuo tiende a utilizar dimensiones como negativa versus positiva, calma versus excitación.
El enfoque categórico tiende a utilizar clases discretas como feliz, triste, enojado, temeroso, sorpresa, disgusto. Se pueden utilizar diferentes tipos de modelos de clasificación y regresión de aprendizaje automático para que las máquinas produzcan etiquetas continuas o discretas. A veces también se construyen modelos que permiten combinaciones entre categorías, por ejemplo, una cara feliz-sorprendida o una cara temerosa-sorprendida. [12]
Las siguientes secciones consideran muchos de los tipos de datos de entrada utilizados para la tarea de reconocimiento de emociones .
Varios cambios en el sistema nervioso autónomo pueden alterar indirectamente el habla de una persona, y las tecnologías afectivas pueden aprovechar esta información para reconocer las emociones. Por ejemplo, el habla producida en un estado de miedo, ira o alegría se vuelve rápida, fuerte y se enuncia con precisión, con un rango de tono más alto y más amplio, mientras que emociones como el cansancio, el aburrimiento o la tristeza tienden a generar un tono lento y bajo. discurso agudo y arrastrado. [13] Se ha descubierto que algunas emociones se identifican más fácilmente computacionalmente, como la ira [14] o la aprobación. [15]
Las tecnologías de procesamiento del habla emocional reconocen el estado emocional del usuario mediante el análisis computacional de las características del habla. Los parámetros vocales y las características prosódicas , como las variables de tono y la velocidad del habla, se pueden analizar mediante técnicas de reconocimiento de patrones. [14] [16]
El análisis del habla es un método eficaz para identificar el estado afectivo, y tiene una precisión promedio reportada del 70 al 80% en investigaciones de 2003 y 2006. [17] [18] Estos sistemas tienden a superar la precisión humana promedio (aproximadamente 60% [14] ) pero son menos precisos que los sistemas que emplean otras modalidades para la detección de emociones, como estados fisiológicos o expresiones faciales. [19] Sin embargo, dado que muchas características del habla son independientes de la semántica o la cultura, esta técnica se considera una ruta prometedora para futuras investigaciones. [20]
El proceso de detección del efecto del habla/texto requiere la creación de una base de datos confiable , una base de conocimientos o un modelo de espacio vectorial , [21] lo suficientemente amplio como para satisfacer cada necesidad de su aplicación, así como la selección de un clasificador exitoso que permita Identificación de emociones rápida y precisa.
A partir de 2010 [actualizar], los clasificadores utilizados con mayor frecuencia fueron clasificadores discriminantes lineales (LDC), k-vecino más cercano (k-NN), modelo de mezcla gaussiana (GMM), máquinas de vectores de soporte (SVM), redes neuronales artificiales (ANN), árbol de decisión. algoritmos y modelos ocultos de Markov (HMM). [22] Varios estudios demostraron que elegir el clasificador adecuado puede mejorar significativamente el rendimiento general del sistema. [19] La siguiente lista ofrece una breve descripción de cada algoritmo:
Está demostrado que teniendo suficiente evidencia acústica disponible, el estado emocional de una persona puede clasificarse mediante un conjunto de clasificadores de votación mayoritaria. El conjunto de clasificadores propuesto se basa en tres clasificadores principales: kNN, C4.5 y SVM-RBF Kernel. Este conjunto logra un mejor rendimiento que cada clasificador básico tomado por separado. Se compara con otros dos conjuntos de clasificadores: SVM multiclase uno contra todos (OAA) con núcleos híbridos y el conjunto de clasificadores que consta de los dos clasificadores básicos siguientes: C5.0 y red neuronal. La variante propuesta logra un mejor rendimiento que los otros dos conjuntos de clasificadores. [24]
La gran mayoría de los sistemas actuales dependen de datos. Esto crea uno de los mayores desafíos en la detección de emociones basadas en el habla, ya que implica elegir una base de datos adecuada para entrenar al clasificador. La mayoría de los datos que se poseen actualmente se obtuvieron de actores y, por lo tanto, son una representación de emociones arquetípicas. Las denominadas bases de datos actuadas suelen basarse en la teoría de las emociones básicas (de Paul Ekman ), que supone la existencia de seis emociones básicas (ira, miedo, disgusto, sorpresa, alegría, tristeza), siendo las otras simplemente una mezcla de las los anteriores. [25] Sin embargo, estos todavía ofrecen alta calidad de audio y clases equilibradas (aunque a menudo muy pocas), lo que contribuye a altas tasas de éxito en el reconocimiento de emociones.
Sin embargo, para aplicaciones en la vida real, se prefieren los datos naturalistas. Se puede producir una base de datos naturalista mediante la observación y el análisis de sujetos en su contexto natural. En última instancia, dicha base de datos debería permitir al sistema reconocer las emociones en función de su contexto, así como determinar los objetivos y resultados de la interacción. La naturaleza de este tipo de datos permite una implementación auténtica en la vida real, debido a que describe estados que ocurren naturalmente durante la interacción persona-computadora (HCI).
A pesar de las numerosas ventajas que tienen los datos naturalistas sobre los datos actuados, son difíciles de obtener y suelen tener baja intensidad emocional. Además, los datos obtenidos en un contexto natural tienen una calidad de señal inferior, debido al ruido del entorno y a la distancia de los sujetos al micrófono. El primer intento de producir dicha base de datos fue el FAU Aibo Emotion Corpus para CEICES (Combinando esfuerzos para mejorar la clasificación automática de estados emocionales de los usuarios), que se desarrolló en base a un contexto realista de niños (de 10 a 13 años) jugando con la mascota robot Aibo de Sony. . [26] [27] Asimismo, producir una base de datos estándar para todas las investigaciones emocionales proporcionaría un método para evaluar y comparar diferentes sistemas de reconocimiento de afectos.
La complejidad del proceso de reconocimiento de afectos aumenta con el número de clases (afectos) y descriptores de habla utilizados dentro del clasificador. Por lo tanto, es crucial seleccionar solo las características más relevantes para asegurar la capacidad del modelo para identificar emociones con éxito, así como aumentar el rendimiento, lo cual es particularmente importante para la detección en tiempo real. La gama de opciones posibles es amplia y algunos estudios mencionan el uso de más de 200 funciones distintas. [22] Es crucial identificar aquellos que son redundantes e indeseables para optimizar el sistema y aumentar la tasa de éxito en la detección correcta de emociones. Las características del habla más comunes se clasifican en los siguientes grupos. [26] [27]
La detección y procesamiento de la expresión facial se consigue mediante diversos métodos como el flujo óptico , los modelos ocultos de Markov , el procesamiento de redes neuronales o los modelos de apariencia activos. Se pueden combinar o fusionar más de una modalidad (reconocimiento multimodal, por ejemplo, expresiones faciales y prosodia del habla, [29] expresiones faciales y gestos con las manos, [30] o expresiones faciales con voz y texto para análisis de datos y metadatos multimodales) para proporcionar una visión más amplia. estimación robusta del estado emocional del sujeto.
La creación de una base de datos de emociones es una tarea difícil y que requiere mucho tiempo. Sin embargo, la creación de bases de datos es un paso esencial en la creación de un sistema que reconozca las emociones humanas. La mayoría de las bases de datos de emociones disponibles públicamente incluyen únicamente expresiones faciales posadas. En las bases de datos de expresiones posadas, se pide a los participantes que muestren diferentes expresiones emocionales básicas, mientras que en las bases de datos de expresiones espontáneas, las expresiones son naturales. La provocación espontánea de emociones requiere un esfuerzo significativo en la selección de estímulos adecuados que pueden conducir a una rica manifestación de las emociones deseadas. En segundo lugar, el proceso implica el etiquetado manual de las emociones por parte de personas capacitadas, lo que hace que las bases de datos sean altamente confiables. Dado que la percepción de las expresiones y su intensidad es de naturaleza subjetiva, la anotación por parte de expertos es fundamental a efectos de validación.
Los investigadores trabajan con tres tipos de bases de datos, como una base de datos de imágenes de máxima expresión únicamente, una base de datos de secuencias de imágenes que retratan una emoción desde neutral hasta su máxima expresión y videoclips con anotaciones emocionales. Se han creado y hecho públicas muchas bases de datos de expresiones faciales con fines de reconocimiento de expresiones. Dos de las bases de datos más utilizadas son CK+ y JAFFE.
Al realizar una investigación transcultural en Papúa, Nueva Guinea, sobre los miembros de las tribus anteriores, a finales de la década de 1960, Paul Ekman propuso la idea de que las expresiones faciales de emoción no están determinadas culturalmente, sino que son universales. Por lo tanto, sugirió que son de origen biológico y, por lo tanto, pueden clasificarse de manera segura y correcta. [25] Por lo tanto, presentó oficialmente seis emociones básicas, en 1972: [31]
Sin embargo, en la década de 1990, Ekman amplió su lista de emociones básicas, incluyendo una variedad de emociones positivas y negativas , no todas ellas codificadas en los músculos faciales. [32] Las emociones recientemente incluidas son:
Los psicólogos han concebido un sistema para categorizar formalmente la expresión física de las emociones en los rostros. El concepto central del Sistema de Codificación de Acción Facial , o FACS, creado por Paul Ekman y Wallace V. Friesen en 1978 basándose en trabajos anteriores de Carl-Herman Hjortsjö [33], son las unidades de acción (AU). Son, básicamente, una contracción o una relajación de uno o más músculos. Los psicólogos han propuesto la siguiente clasificación de seis emociones básicas, según sus unidades de acción ("+" aquí significa "y"):
Como ocurre con toda práctica computacional, en la detección de afectos mediante procesamiento facial, es necesario superar algunos obstáculos para desbloquear completamente el potencial oculto del algoritmo o método general empleado. En los inicios de casi todos los tipos de detección basada en IA (reconocimiento de voz, reconocimiento facial, reconocimiento de afectos), la precisión del modelado y el seguimiento ha sido un problema. A medida que el hardware evoluciona, se recopilan más datos y se hacen nuevos descubrimientos y se introducen nuevas prácticas, esta falta de precisión se desvanece, dejando atrás los problemas de ruido. Sin embargo, existen métodos para eliminar el ruido que incluyen el promedio de vecindad, el suavizado gaussiano lineal , el filtrado de mediana [34] o métodos más nuevos, como el algoritmo de optimización de búsqueda de alimento bacteriano. [35] [36]
Otros desafíos incluyen
Los gestos podrían usarse de manera eficiente como un medio para detectar un estado emocional particular del usuario, especialmente cuando se usan junto con el reconocimiento de voz y facial. Dependiendo de la acción específica, los gestos pueden ser respuestas reflexivas simples, como levantar los hombros cuando no sabes la respuesta a una pregunta, o pueden ser complejos y significativos como cuando te comunicas con lenguaje de señas. Sin hacer uso de ningún objeto o entorno circundante, podemos agitar las manos, aplaudir o hacer señas. Por otro lado, al utilizar objetos podemos señalarlos, moverlos, tocarlos o manipularlos. Una computadora debe poder reconocerlos, analizar el contexto y responder de manera significativa para poder usarse de manera eficiente para la interacción persona-computadora.
Existen muchos métodos propuestos [38] para detectar el gesto corporal. Alguna literatura diferencia 2 enfoques diferentes en el reconocimiento de gestos: uno basado en modelos 3D y otro basado en apariencia. [39] El método principal utiliza información 3D de elementos clave de las partes del cuerpo para obtener varios parámetros importantes, como la posición de la palma o los ángulos de las articulaciones. Por otro lado, los sistemas basados en la apariencia utilizan imágenes o vídeos para la interpretación directa. Los gestos con las manos han sido un foco común de los métodos de detección de gestos corporales. [39]
Esto podría usarse para detectar el estado afectivo de un usuario mediante el seguimiento y análisis de sus signos fisiológicos. Estos signos van desde cambios en la frecuencia cardíaca y la conductancia de la piel hasta contracciones diminutas de los músculos faciales y cambios en el flujo sanguíneo facial. Esta área está ganando impulso y ahora estamos viendo productos reales que implementan las técnicas. Los cuatro principales signos fisiológicos que suelen analizarse son el pulso del volumen sanguíneo , la respuesta galvánica de la piel , la electromiografía facial y los patrones de color facial.
El pulso del volumen sanguíneo (BVP) de un sujeto se puede medir mediante un proceso llamado fotopletismografía , que produce un gráfico que indica el flujo sanguíneo a través de las extremidades. [40] Los picos de las ondas indican un ciclo cardíaco en el que el corazón ha bombeado sangre a las extremidades. Si el sujeto siente miedo o se sobresalta, su corazón suele "salta" y late rápidamente durante un tiempo, lo que hace que aumente la amplitud del ciclo cardíaco. Esto se puede ver claramente en un fotopletismógrafo cuando la distancia entre el valle y el pico de la onda ha disminuido. A medida que el sujeto se calma y el núcleo interno del cuerpo se expande, permitiendo que más sangre fluya de regreso a las extremidades, el ciclo volverá a la normalidad.
Se proyecta luz infrarroja sobre la piel mediante un sensor especial y se mide la cantidad de luz reflejada. La cantidad de luz reflejada y transmitida se correlaciona con el BVP, ya que la hemoglobina, que se encuentra en abundancia en el torrente sanguíneo, absorbe la luz.
Puede resultar engorroso garantizar que el sensor que emite una luz infrarroja y monitorea la luz reflejada apunte siempre al mismo extremo, especialmente teniendo en cuenta que los sujetos a menudo se estiran y reajustan su posición mientras usan una computadora. Hay otros factores que pueden afectar el pulso del volumen sanguíneo. Como es una medida del flujo sanguíneo a través de las extremidades, si el sujeto siente calor, o particularmente frío, entonces su cuerpo puede permitir que fluya más o menos sangre hacia las extremidades, todo esto independientemente del estado emocional del sujeto.
La electromiografía facial es una técnica que se utiliza para medir la actividad eléctrica de los músculos faciales amplificando los pequeños impulsos eléctricos que generan las fibras musculares cuando se contraen. [41] La cara expresa una gran cantidad de emociones; sin embargo, hay dos grupos principales de músculos faciales que generalmente se estudian para detectar emociones: El músculo corrugador supercilii, también conocido como músculo del "ceño fruncido", frunce el ceño. y, por lo tanto, es la mejor prueba para detectar una respuesta emocional negativa y desagradable. ↵ El músculo cigomático mayor es responsable de tirar de las comisuras de la boca hacia atrás cuando sonríes y, por lo tanto, es el músculo que se utiliza para evaluar una respuesta emocional positiva.
La respuesta galvánica de la piel (GSR) es un término obsoleto para un fenómeno más general conocido como [Actividad electrodérmica] o EDA. EDA es un fenómeno general por el cual cambian las propiedades eléctricas de la piel. La piel está inervada por el [sistema nervioso simpático], por lo que medir su resistencia o conductancia proporciona una manera de cuantificar pequeños cambios en la rama simpática del sistema nervioso autónomo. A medida que se activan las glándulas sudoríparas, incluso antes de que la piel se sienta sudorosa, se puede capturar el nivel de EDA (normalmente mediante conductancia) y utilizarlo para discernir pequeños cambios en la excitación autónoma. Cuanto más excitado está un sujeto, mayor tiende a ser la conductancia de la piel. [40]
La conductancia de la piel a menudo se mide utilizando dos pequeños electrodos de plata y cloruro de plata colocados en algún lugar de la piel y aplicando un pequeño voltaje entre ellos. Para maximizar la comodidad y reducir la irritación, los electrodos se pueden colocar en la muñeca, las piernas o los pies, lo que deja las manos totalmente libres para la actividad diaria.
La superficie del rostro humano está inervada por una gran red de vasos sanguíneos. Las variaciones del flujo sanguíneo en estos vasos producen cambios de color visibles en la cara. Ya sea que las emociones faciales activen o no los músculos faciales, se producen variaciones en el flujo sanguíneo, la presión arterial, los niveles de glucosa y otros cambios. Además, la señal del color facial es independiente de la proporcionada por los movimientos de los músculos faciales. [42]
Los enfoques se basan en cambios de color facial. La triangulación de Delaunay se utiliza para crear áreas locales triangulares. Se eliminan algunos de estos triángulos que definen el interior de la boca y los ojos (esclerótica e iris). Utilice los píxeles de las áreas triangulares izquierdas para crear vectores de características. [42] Muestra que la conversión del color de píxel del espacio de color RGB estándar a un espacio de color como el espacio de color oRGB [43] o canales LMS funciona mejor cuando se trata de caras. [44] Entonces, asigne el vector anterior al mejor espacio de color y descompóngalo en canales rojo-verde y amarillo-azul. Luego utilice métodos de aprendizaje profundo para encontrar emociones equivalentes.
La estética, en el mundo del arte y la fotografía, se refiere a los principios de la naturaleza y la apreciación de la belleza. Juzgar la belleza y otras cualidades estéticas es una tarea muy subjetiva. Los científicos informáticos de Penn State tratan el desafío de inferir automáticamente la calidad estética de las imágenes utilizando su contenido visual como un problema de aprendizaje automático, con un sitio web para compartir fotografías en línea calificado por pares como fuente de datos. [45] Extraen ciertas características visuales basándose en la intuición de que pueden discriminar entre imágenes estéticamente agradables y desagradables.
El afecto influye en el estado de aprendizaje de los alumnos. Utilizando tecnología informática afectiva, las computadoras pueden juzgar el afecto y el estado de aprendizaje de los alumnos reconociendo sus expresiones faciales. En educación, el maestro puede utilizar el resultado del análisis para comprender la capacidad de aprendizaje y aceptación del estudiante y luego formular planes de enseñanza razonables. Al mismo tiempo, pueden prestar atención a los sentimientos internos de los estudiantes, lo que resulta útil para la salud psicológica de los estudiantes. Especialmente en la educación a distancia, debido a la separación de tiempo y espacio, no existe un incentivo emocional entre profesores y estudiantes para la comunicación bidireccional. Sin la atmósfera que genera el aprendizaje tradicional en el aula, los estudiantes se aburren fácilmente y afectan el efecto del aprendizaje. La aplicación de la computación afectiva en el sistema de educación a distancia puede mejorar efectivamente esta situación. [46]
Las aplicaciones de la informática sensorial pueden contribuir a mejorar la seguridad vial. Por ejemplo, un automóvil puede monitorear las emociones de todos los ocupantes y tomar medidas de seguridad adicionales, como alertar a otros vehículos si detecta que el conductor está enojado. [47] Además, los sistemas informáticos afectivos para monitorear el estrés del conductor pueden permitir diversas intervenciones, como sistemas de asistencia al conductor ajustados según el nivel de estrés [48] e intervenciones mínimas y directas para cambiar el estado emocional del conductor. [49]
Los robots sociales , así como un número creciente de robots utilizados en el cuidado de la salud, se benefician de la conciencia emocional porque pueden juzgar mejor los estados emocionales de los usuarios y pacientes y alterar sus acciones/programación de manera apropiada. Esto es especialmente importante en aquellos países con poblaciones cada vez más envejecidas y/o con una falta de trabajadores más jóvenes para abordar sus necesidades. [50]
La informática afectiva también se está aplicando al desarrollo de tecnologías comunicativas para uso de personas con autismo. [51] El componente afectivo de un texto también está ganando cada vez más atención, en particular su papel en la llamada Internet emocional o emotiva . [52]
Los videojuegos afectivos pueden acceder a los estados emocionales de sus jugadores a través de dispositivos de biorretroalimentación . [53] Una forma particularmente simple de biorretroalimentación está disponible a través de gamepads que miden la presión con la que se presiona un botón: se ha demostrado que esto se correlaciona fuertemente con el nivel de excitación de los jugadores ; [54] en el otro extremo de la escala están las interfaces cerebro-computadora . [55] [56] Los juegos afectivos se han utilizado en la investigación médica para apoyar el desarrollo emocional de los niños autistas . [57]
Los métodos de entrenamiento de operaciones psicomotoras , como la dirección y las maniobras, se utilizan en diversos campos, como la aviación, el transporte y la medicina. Se ha descubierto que la integración de capacidades de computación afectiva en este tipo de sistemas de formación, de acuerdo con el enfoque de automatización adaptativa, es eficaz para mejorar la calidad de la formación y acortar la duración requerida de la misma. [58]
La computación afectiva tiene aplicaciones potenciales en la interacción persona-computadora , como espejos afectivos que permiten al usuario ver cómo se desempeña; agentes de monitoreo de emociones que envían una advertencia antes de enviar un correo electrónico enojado; o incluso reproductores de música que seleccionan pistas según el estado de ánimo. [59]
Una idea expuesta por el investigador rumano Dr. Nicu Sebe en una entrevista es el análisis del rostro de una persona mientras utiliza un determinado producto (mencionó el helado como ejemplo). [60] Las empresas podrían entonces utilizar dicho análisis para inferir si su producto será o no bien recibido en el mercado respectivo.
También se podría utilizar el reconocimiento del estado afectivo para juzgar el impacto de un anuncio de televisión a través de una grabación de vídeo en tiempo real de esa persona y mediante el estudio posterior de su expresión facial. Promediando los resultados obtenidos sobre un gran grupo de temas, se puede saber si ese anuncio (o película) tiene el efecto deseado y cuáles son los elementos que más interesan al espectador.
Dentro del campo de la interacción humano-computadora , el concepto de emoción cognitivista o "modelo de información" de Rosalind Picard ha sido criticado y contrastado con el enfoque pragmático "poscognitivista" o "interaccional" adoptado por Kirsten Boehner y otros que consideran la emoción. como inherentemente social. [61]
El enfoque de Picard es la interacción entre humanos y computadoras, y su objetivo para la computación afectiva es "dar a las computadoras la capacidad de reconocer, expresar y, en algunos casos, 'tener' emociones". [4] Por el contrario, el enfoque interaccional busca ayudar a "las personas a comprender y experimentar sus propias emociones" [62] y mejorar la comunicación interpersonal mediada por computadora. No busca necesariamente mapear las emociones en un modelo matemático objetivo para la interpretación automática, sino más bien permitir que los humanos den sentido a las expresiones emocionales de los demás de maneras abiertas que pueden ser ambiguas, subjetivas y sensibles al contexto. [62] : 284 [ ejemplo necesario ]
Los críticos de Picard describen su concepto de emoción como "objetivo, interno, privado y mecanicista". Dicen que reduce la emoción a una señal psicológica discreta que ocurre dentro del cuerpo y que puede medirse y que es un insumo para la cognición, socavando la complejidad de la experiencia emocional. [62] : 280 [62] : 278
El enfoque interaccional afirma que, aunque la emoción tiene aspectos biofísicos, está "basada culturalmente, experimentada dinámicamente y, hasta cierto punto, construida en la acción y la interacción". [62] : 276 Dicho de otra manera, considera "la emoción como un producto social y cultural experimentado a través de nuestras interacciones". [63] [62] [64]
La introducción de las emociones a la informática la realizó Pickard (sic), quien creó el campo de la informática afectiva.
Rosalind Picard, una genial profesora del MIT, es la madrina del campo; Su libro de 1997,
Affective Computing
, desencadenó una explosión de interés en el lado emocional de las computadoras y sus usuarios.