Actualizado 24/11/2008 14:22

Investigadores españoles crean caras virtuales que generan emociones, estados de ánimo y personalidad

MADRID, 24 Nov. (EUROPA PRESS) -

Un equipo de investigadores de la Universidad de las Islas Baleares (UIB) ha desarrollado un modelo por ordenador que permite generar caras en las que, por primera vez, se visualizan emociones y estados de ánimo acordes a los rasgos de personalidad, según un estudio que se publica en el último número de la revista 'Computer Animation and Virtual Worlds'.

El objetivo de este trabajo ha sido diseñar un modelo que "evidencie los estados emocionales de un personaje y su visualización en una cara virtual", señaló Diana Arellano, una de las autoras del estudio y miembro de la Unidad de Gráficos y Visión por Ordenador e Inteligencia Artificial de la UIB. "En un mismo espacio 3D hemos integrado a la vez la personalidad, las emociones y los estados emocionales o de ánimo, que hasta ahora se venían tratando de forma separada", añadió.

Las emociones --como el miedo, la alegría o la sorpresa-- son alteraciones del ánimo casi instantáneas, a diferencia de los estados emocionales --como el aburrimiento o la ansiedad-- que son más duraderos, o la personalidad, que "suele durar toda la vida", según recoge la investigación. De este modo, "cada personalidad se puede considerar como un estado emocional por defecto", indicó Arellano, añadiendo que una personalidad introvertida y neurótica se corresponde con un estado emocional ansioso.

Los puntos de la cara que definen estas emociones se pueden determinar matemáticamente, y con los algoritmos desarrollados por los informáticos se han podido obtener de forma "fácil y rápida" las distintas expresiones faciales, informó en un comunicado el Servicio de Información y Noticias Científicas (SINC). El sistema, que emplea el estándar de codificación de vídeo MPEG-4 para generar las imágenes, permite visualizar las emociones básicas (enfado, asco, miedo, alegría, tristeza, sorpresa) y las situaciones intermedias.

Los resultados del método se han evaluado tanto de modo objetivo (mediante un reconocedor automático que identificó el 82 por ciento de las expresiones generadas) como subjetivo, a través de una encuesta a un grupo de 75 alumnos universitarios. Los estudiantes reconocieron con éxito el 86 por ciento de las emociones y el 73 por ciento de los estados emocionales representados en el ordenador.

ALGUNAS EMOCIONES SON MÁS DIFÍCILES DE DIFERENCIAR

Aun así, los investigadores han detectado que algunas emociones son difíciles de diferenciar, como el miedo y la sorpresa, y que es el contexto el que ayuda a diferenciarlas. El equipo ya trabaja en esta línea y prepara un cuentacuentos virtual que enriquezca la narración expresando con su rostro las emociones que genera la historia contada.

Arellano señaló, además, que la manifestación de emociones no depende sólo de la expresión facial, si no que existen también otros factores como los gestos, la voz o los movimientos de la cabeza que también ayudan a la interpretación correcta de una emoción, ya que en ellos influye la personalidad notoriamente.

Los investigadores consideran que este modelo se podría aplicar desde entornoseducativos --tutores virtuales y presentadores con rasgos de personalidad-- hasta personajes de videojuegos o historias interactivas que tengan su propio motor emocional. "Nuestro siguiente paso es dejar de lado el estándar MPEG-4 y concentrarnos en una malla genérica de alta calidad que permitirá incluir tanto arrugas, como movimientos de ojos, párpados y cabeza, y sintetizar la voz", concluyó la investigadora.