Ayudar a los equipos perciben las emociones humanas


Los investigadores del MIT Media Lab han desarrollado un modelo de aprendizaje automático que lleva computadoras un paso más para interpretar las emociones humanas tan naturalmente como la gente.
En el campo de la “computación afectiva”, robots y computadoras se están desarrollando para analizar expresiones faciales, interpretar las emociones de una persona y responder en consecuencia. Aplicaciones incluyen, por ejemplo, vigilancia de la salud y el bienestar de un individuo, medir el interés de los estudiantes en las aulas, ayudar a diagnosticar signos de ciertas enfermedades y el desarrollo a compañeros robot servicial.
Es un reto, sin embargo, expresar emociones de personas absolutamente diferentemente, dependiendo de muchos factores. Se observan diferencias generales entre culturas, géneros y grupos de edad. Pero otros las diferencias son aún más fina: la hora del día, la cantidad de sueño o el nivel de familiaridad con un compañero de conversación conduce a variaciones sutiles en la forma que expresa una persona, digamos, felicidad o tristeza en un momento dado.
Cerebros humanos instintivamente coger estas desviaciones, pero la lucha de las máquinas. Técnicas de aprendizaje profundo fueron desarrolladas en los últimos años para ayudar a detectar las sutilezas, pero son todavía no tan preciso o como adaptable a través de diferentes poblaciones como podrían serlo.
Los investigadores del Media Lab han desarrollado un modelo de aprendizaje de máquina que supera a los sistemas tradicionales en la captura de estas variaciones de la expresión facial pequeña, para medir mejor el estado de ánimo durante el entrenamiento de miles de imágenes de caras. Por otra parte, utilizando los datos un poco de formación adicional, el modelo puede adaptarse a un nuevo grupo de personas, con la misma eficacia. El objetivo es mejorar las tecnologías existentes de computación afectiva.
“Esta es una manera discreta para controlar nuestros Estados de ánimo,” dice Oggi Rudovic, un investigador del Media Lab y autor de “una mezcla de personalizada expertos para humanos afectan estimación,” que describe el modelo y se presentó en 2018 MLDM, el 14 Conferencia Internacional sobre aprendizaje automático y minería de datos. “Si quieres robots con inteligencia social, tienes que hacerlas de forma inteligente y natural responder a nuestros Estados de ánimo y emociones, más como seres humanos”.
Autores sobre el papel son: primer autor Michael Feffer, un estudiante de pregrado en ingeniería eléctrica y Ciencias de la computación; y Rosalind Picard, profesor de Ciencias y artes de los medios de comunicación y director fundador del grupo de investigación de computación afectiva.
Combinación expresiva
Modelos tradicionales de computación afectiva utilizan un concepto de “talla único”. Que entrenar en un conjunto de imágenes que muestran diferentes expresiones faciales, optimización de funciones, tales como cómo un labio rizos cuando sonriendo — y las optimizaciones de característica general a través de un conjunto de nuevas imágenes.
Los investigadores, en cambio, combinación una técnica, llamada “mezcla de expertos” (MoE), con técnicas de personalización del modelo, que ayudó a mi expresión facial datos más fino de las personas. Esta es la primera vez que se han combinado estas dos técnicas para computación afectiva, dice Rudovic.
En MoEs, un número de modelos de redes neuronales, llamados a “expertos”, es cada uno entrenado se especializa en una tarea de procesamiento separadas y producir una salida. Los investigadores también incorporado un “bloquea red”, que calcula las probabilidades de que experto mejor detecta Estados de ánimo de los sujetos invisibles. “Básicamente la red puede discernir entre las personas y decir, ‘este es el experto en derecho para la imagen’”, dice Feffer.
Para su modelo, los investigadores personalizado el Ministerio haciendo coincidir a cada experto a uno de 18 grabaciones de vídeo individuales en la base de datos de RECOLA, una base de datos pública de personas conversando en una plataforma de video-chat diseñada para la informática afectiva aplicaciones. Había formado el modelo con nueve temas y evaluados en los otros nueve, con todos los videos en fotogramas individuales.
Cada uno de ellos y la red bloquea, orugas expresiones faciales de cada persona, con la ayuda de una red residual (“ResNet”), una red neuronal utilizada para la clasificación de objetos. De esta manera, el modelo anotó cada fotograma basado en el nivel de Valencia (agradable o desagradable) y excitación (emoción): métricas de uso general para codificar diferentes estados emocionales. Por separado, seis expertos humanos etiquetados cada fotograma para Valencia y arousal, basado en una escala de -1 (bajos niveles) a 1 (niveles altos), que el modelo también se usa para entrenar.
Los investigadores realizaron a continuación más personalización del modelo, donde alimenta los datos del modelo de formación de algunos fotogramas de los videos restantes de temas y entonces había probado el modelo en todos los fotogramas invisibles de los vídeos. Los resultados mostraron que, con sólo 5 a 10 por ciento de los datos de la nueva población, el modelo superaron a los modelos tradicionales por un amplio margen, lo que significa que anotó Valencia y excitación en imágenes invisibles mucho más cercano a las interpretaciones de los expertos humanos.
Esto muestra el potencial de los modelos de adaptación de la población a la población o individuo a individuo, con muy pocos datos, dice Rudovic. “Es clave”, dice. “Cuando tienes una población nueva, tienes que tener una manera para tener en cuenta para cambiar de puesto de distribución de los datos [sutiles variaciones faciales]. Imaginar un modelo para analizar expresiones faciales en una cultura que debe ser adaptado para una cultura diferente. Sin tener en cuenta este cambio de datos, los modelos se hacerlas. Pero si usted sólo muestra un poco de una nueva cultura para adaptar nuestro modelo, estos modelos pueden hacer mucho mejor, especialmente en el nivel individual. Este es donde mejor se aprecia la importancia de la personalización del modelo”.
Actualmente los datos disponibles de investigación computación afectiva no muy diversos en los colores de piel, por lo que datos de entrenamiento de los investigadores se limitaron. Pero cuando estos datos estén disponibles, el modelo puede ser entrenado para el uso en poblaciones más diversas. El siguiente paso, Feffer, dice, es para entrenar el modelo de “un mucho más grande conjunto de datos con las más diversas culturas.”
Mejores interacciones
Otro objetivo es el modelo para ayudar a los equipos del tren y robots aprenden automáticamente de pequeñas cantidades de datos para detectar más naturalmente cómo nos sentimos y servir mejor a las necesidades humanas que cambian, dicen los investigadores.
Por ejemplo, podría ejecutar en el fondo de una computadora o dispositivo móvil para seguir conversaciones de vídeo de un usuario y obtener cambios de expresión facial sutil bajo diferentes contextos. “Puedes tener cosas como aplicaciones para smartphone o ser capaz de decir cómo las personas son sensación y recomiendan formas de lidiar con el estrés o dolor y otras cosas que afectan negativamente sus vidas,” dice Feffer.
Esto también podría ser útil en el seguimiento de, digamos, la depresión o la demencia, como expresiones faciales de las personas tienden a cambiar sutilmente debido a esas condiciones. “Ser capaz de controlar pasivamente nuestras expresiones faciales”, dice Rudovic, “podríamos con el tiempo ser capaces de personalizar estos modelos para los usuarios y controlar cuánto desviaciones tienen diario — desviación del promedio nivel de expresividad facial y utilizarlo para indicadores de bienestar y salud.”
Una aplicación prometedora, Rudovic dice, es las interacciones humanos robóticos, como robótica personal o robots utilizados para fines educativos, donde los robots necesitan adaptarse para evaluar los estados emocionales de muchas personas. Una versión, por ejemplo, se ha utilizado para ayudar a los robots a interpretar mejor los Estados de ánimo de los niños con autismo.
Roddy Cowie, profesor emérito de psicología en Universidad Belfast de la reina y un erudito computación afectivo, dice el trabajo MIT “ilustra donde realmente estamos” en el campo. “Estamos ribete hacia sistemas que pueden más o menos, de fotos de rostros de la gente, donde mienten en escalas de muy positivo a muy negativo y muy activo a pasivo muy,” él dice. “Parece intuitivo que las señales emocionales que da a una persona no son los mismos que los signos de otro da y así que tiene mucho sentido ese reconocimiento de la emoción funciona mejor cuando es personalizado. El método de personalización refleja otro punto interesante, que es más eficaz entrenar a varios ‘expertos’ y agregan sus juicios, que to formar a un único súper experto. Los dos juntos hacen un paquete satisfactorio”.
Contact Information:
MIT News
Tags:
, Wire, Artificial Intelligence Newswire, United States, Spanish
Keywords: afds, afdsafds