Actualizado 30/03/2015 15:21

Diseñan un sistema para controlar un robot con la voz

Investigador de la UMA Alberto Poncela, proyecto para dirigir robot con la voz
Foto: EUROPA PRESS/FUNDACIÓN DESCUBRE

MÁLAGA, 30 Mar. (EUROPA PRESS) -

   Investigadores del grupo ISIS de la Universidad de Málaga (UMA) han diseñado un sistema para dirigir de forma remota un robot con la voz. El método logra una alta tasa de reconocimiento de palabras en español, así como el control de la plataforma robótica en tareas de navegación, ventajas que abren la puerta a su futura aplicación a otros dispositivos, como sillas de ruedas.

   Según los responsables del proyecto, ha indicado en un comunicado la Fundación Descubre, en la actualidad existen diversos sistemas de reconocimiento de voz para el control robótico. Sin embargo, el suyo muestra diferencias en dos aspectos: el idioma, ya que es de los pocos para hispanohablantes, y la tasa de éxito en el reconocimiento.

   Los expertos han desarrollado su modelo acústico en el sistema operativo Linux, ya que la arquitectura para controlar el robot trabaja con varios procesos simultáneos. Asimismo, en lo referente al idioma, han utilizado un software denominado Julius/Julian, un sistema de reconocimiento de voz de código abierto.

   "Actualmente, sólo hay modelos acústicos para japonés e inglés; al no existir ninguno específico para español, el desarrollo de este elemento ha supuesto la parte central del trabajo", ha afirmado el responsable del proyecto, el investigador de la UMA Alberto Poncela.

   Otra ventaja es el resultado que obtiene este modelo acústico en las pruebas a las que se somete, según Poncela: "conseguimos una tasa de reconocimiento de palabras cercana al 99 por ciento y una tasa de reconocimiento de comandos, es decir, de órdenes, del 95 por ciento o superior". Así, ha agregado que "a esto se suma que el robot logra ir al sitio que se le envía bajo el control de la voz de un usuario no experto".

   Los investigadores han apuntado que estos resultados del estudio, titulado 'Command-based voice teleoperation of a mobile robot via a human/robot interface' y publicado en la revista 'Robótica', abren la puerta a la posibilidad de adaptar el sistema a otras plataformas robóticas, como sillas de ruedas, lo que supondría su aplicación en entornos asistenciales.

   Para que el robot reconozca una orden emitida por una persona son necesarios varios elementos. Por un lado, el léxico, a lo que se sumaría la gramática, las reglas y las restricciones de ese vocabulario.

   "Además hay que construir un modelo acústico, es decir, la representación estadística de los sonidos que forman cada una de las palabras habladas usadas en la gramática", ha señalado otra de las investigadoras participantes en el estudio, Leticia Gallardo Estrella.

MÁS DE 800 PALABRAS

   Tal y como ha relatado esta investigadora, "el modelo acústico se obtiene tras una fase de entrenamiento". En este punto, ha informado de que se han considerado 802 palabras, agrupadas en 72 frases.

   El sistema tiene que ser entrenado para cada usuario, ya que las características de la voz de cada persona son distintas, con lo que hay que afinar hasta hacerlo preciso y personalizado.

   "Para ello, se graban las frases de entrenamiento con un micrófono y se parametrizan con unos coeficientes numéricos con las características propias de la voz; a partir de estos coeficientes se construye el modelo acústico", ha detallado la investigadora.

   A continuación, el vocabulario, la gramática y el modelo acústico se introducen en el motor de voz, que tiene como salida la frase reconocida. "Definimos un juego de comandos técnicos de movimiento cortos, por ejemplo parar, y otros largos, girar 20 grados, que se emiten de forma remota con un micrófono, se reconoce el comando y, mediante wifi, la orden llega al robot, que tiene un punto de acceso", ha especificado.

   Los responsables del proyecto han acometido dos tipos de pruebas para testear el sistema. Las primeras, para comprobar si reconoce la voz y las órdenes emitidas. Un comando sólo es correcto si se reconocen todas las palabras; por ejemplo, la acción 'girar' va asociada a un valor numérico (20) y una unidad (grados) en la frase 'girar 20 grados'.

   El segundo tipo de pruebas guardan relación con la navegación. Para ello, simularon entornos complejos para que un robot modelo Pioneer P2AT los recorriera y llegara a un punto.

   Un usuario no experto en robótica emitió las órdenes con un micrófono y, según Poncela, "el resultado fue que esta persona hizo llegar el robot a su destino".

   Este trabajo se enmarca en el proyecto Sistema Inteligente de Asistencia Domiciliaria (SIAD), destinado a crear una arquitectura genérica capaz de adaptarse por sí misma a distintos tipos de usuarios mediante aprendizaje y financiado por la Consejería de Economía, Innovación, Ciencia y Empleo de la Junta de Andalucía.