Modelo de cabeza de avatars interactivos en 3D.
El vertiginoso avance de la informática permite que las computadoras cada vez resuelvan más problemas que, hasta hace poco tiempo, eran impensados. Los equipos con la capacidad de contestar a un saludo o interpretar una orden son cada vez más frecuentes. ¿Quién no soñó alguna vez con que la PC se active al escuchar nuestra voz?
> Leer también: Diseñan software para aprender la Lengua de Señas.
Un grupo de científicos trabaja desde hace años en el procesamiento de señales multimedia. “La idea es copiar la forma en que los humanos se comunican entre sí para comunicarse con la máquina”, contó a InfoUniversidades Juan Carlos Gómez, el director del proyecto.
“El sistema propuesto permite la animación comandado por la señal de voz de una persona, de modelos de cabezas 3D, de manera que el movimiento de los labios y las expresiones faciales estén sincronizados con la señal de habla”, explicó el investigador, y agregó que “el trabajo propone un método sencillo y con equipamiento barato: una cámara web que se emplea para animar un modelo complejo del rostro de una persona, a través de la animación de un modelo más simple que se ajusta, en forma sencilla, al modelo complejo. Las expresiones faciales del modelo simple se mapean sobre el modelo complejo, lo que permite su animación con una carga computacional reducida, de esta manera, se posibilita la implementación en tiempo real”.
Múltiples aplicaciones
Un objetivo en el área de investigación en comunicación humano-computadora es que ésta se asemeje a la comunicación entre humanos, que es de naturaleza multimodal, donde “es importante no sólo la señal acústica del habla sino las expresiones del rostro para la comprensión del mensaje”, señaló el director.
Son muchos y variados los usos de este trabajo, ya que van desde técnicas para la industria del cine y los videojuegos hasta la asistencia en tratamientos clínicos como, por ejemplo, la estimulación de niños con problemas de autismo y aquellos que presentan problemas motrices.
En este sentido, Gómez explicó: “Las personas con dificultades auditivas utilizan la lectura de labios para comunicarse con otras personas; por ello, podría emplearse la información acústica transmitida por teléfono para animar, de manera realista, los labios de un modelo virtual, lo que posibilitaría la comprensión del mensaje mediante lectura de labios”.
Además, resaltó el investigador, “es posible utilizar la computadora a través de comandos audiovisuales, ya sea mediante la voz, como por medio de expresiones faciales de una persona real. De esta forma, las personas discapacitadas que no puedan utilizar un teclado o un mouse, podrían controlar cualquier aplicación a través de un conjunto de comandos audiovisuales”.
Por otra parte, y mediante el uso de “avatars interactivos”, se puede intervenir en el tratamiento y rehabilitación de personas con desórdenes de dicción, utilizando los avatars del paciente hablando correctamente. También, en el trabajo de niños con problemas de autismo (Autism Spectrum Disorder). “Si los chicos se ven a sí mismos hablando, pueden estimularse”, resaltó.
Los investigadores pertenecen al laboratorio de Sistemas Dinámicos y Procesamiento de la Información, de la Facultad de Ciencias. Exactas, Ingeniería y Agrimensura, así como también al CIFASIS (Centro Franco Argentino de Ciencias de la Información y de Sistemas, dependiente del Conicet).
> Leer también: Un software que reconoce señas.
Este trabajo fue presentado en la International Conference on Multimedia & Expo 2011, que se llevó a cabo en Barcelona, España, y ganó el primer premio en el “Technicolor Best Student Paper Award”.