Conseguir que un robot pueda ver y escuchar como lo hace un ser humano. Es el objetivo de un grupo de jóvenes investigadores del grupo Multimedia & Multimodal Processing (M2P) de la Escuela Politécnica Superior de Linares que junto con otros grupos de tres universidades españolas (Málaga, Universidad de Extremadura y Carlos III de Madrid) y la Unidad de Apoyo a la Innovación del Hospital Universitario Virgen del Rocío de Sevilla están trabajando en el desarrollo de un robot social interactivo que sirva como guía en las terapias de neuro-rehabilitación con niños.

La investigación se viene desarrollando dentro del marco del proyecto de investigación financiado por el Ministerio de Economía y Competitividad del Gobierno de España títulado “Comportamiento y Percepción dependientes de la tarea para Terapias de Neuro-Rehabilitación Guiadas por un Robot Social Interactivo” (TIN2012-38079). El proyecto de marcado carácter multidisciplinar es coordinado por el profesor Pablo Bustos del Grupo Robolab de la Universidad de Extremadura, pero en él participan investigadores de la Universidad de Málaga, Carlos III de Madrid y de la Universidad de Jaén así como algunos miembros del grupo de Innovación Tecnológica y de la Unidad de Gestión Clínica de Rehabilitación del Hospital Universitario Virgen del Rocío de Sevilla.

El proyecto se centra fundamentalmente en el ámbito de asistencia en una terapia de rehabilitación. La idea del proyecto no es sustituir al médico o asistente, sino la de proporcionar una herramienta que por un lado sea atractiva para el paciente infantil, capturando su atención y haciendo mayor su implicación en los ejercicios de la terapia, y que por otro lado, permita al especialista, llevar un registro detallado de la evaluación de los ejercicios que permita analizar con rigor los resultados de la terapia, facilitándose así su mejora.

Las tareas del grupo M2P de la Universidad de Jaén están relacionadas con el diseño e implementación de un mecanismo atencional artificial bioinspirado, similar a los mecanismos que gobiernan parte de los procesos perceptivos en seres humanos, que trate de enriquecer el flujo de información intercambiado durante la interacción entre el robot y la persona. En concreto, los miembros del grupo M2P de la UJA, están trabajando en la incorporación de información auditiva asociada a la localización espacial de un hablante, centrándose, principalmente, a la evaluación del funcionamiento de mecanismos de localización espacial de una fuente sonora en base a la información obtenida por sólo dos micrófonos. Otra línea de investigación, relacionada con ésta, en la que viene desarrollando su labor este grupo de investigadores de la Politécnica de Linares es la integración y fusión de la información visual y auditiva con la intención de mejorar el rendimiento que por separado tienen los sistemas de localización visual (desarrollado por el grupo ISIS de Málaga) y auditivo (en el que se viene trabajando en el grupo de la UJA). En la actualidad se está también trabajando en la implementación de este mecanismo atencional en Muecas, una cabeza robótica diseñada e implementada en el grupo Robolab.