lunes, 13 de julio de 2009

Robot que expresa emociones




Crean el primer robot capaz de expresar emociones

Un sistema robótico desarrollado en Estados Unidos ha logrado un importante avance en el camino de crear robots que puedan emular con exactitud los gestos y emociones humanas. Einstein Robot puede desarrollar un proceso de autoaprendizaje que le posibilita ir incorporando con el tiempo el manejo de nuevos músculos faciales y expresiones humanas



Einstein Robot es un desarrollo de la Universidad de California, San Diego (UCSD), y de otros centros de investigación estadounidenses, que es capaz de efectuar movimientos faciales y gestos varios, además de aprender por su propia cuenta estos gestos mediante un proceso de enseñanza-aprendizaje que se desarrolla a través de la metodología ensayo-error, según se explica en un comunicado de prensa de la citada universidad.

Uno de los puntos a destacar es el elevado realismo de los gestos y muecas. Especialistas de la Escuela de Ingeniería de la Universidad de California, San Diego son los autores de este proyecto, que fue presentado en junio pasado en la “8th International Conference on Development and Learning”, desarrollada en Shanghai, China.

Según explican los ingenieros a cargo del desarrollo, hasta el momento ningún grupo de investigación había logrado que un robot sea capaz de aprender en forma independiente el desarrollo de expresiones faciales realistas, las cuales permiten evidenciar emociones de una forma muy similar a la humana.

Con varios años de trabajo sobre sus hombros, este proyecto ha logrado que los rostros de los robots (que en este caso imitan la apariencia de Albert Einstein) se vean cada vez más reales y que el número de músculos artificiales que pueden controlar vaya continuamente en aumento.

Más movimientos y expresiones más realistas

De esta manera, y teniendo en cuenta estos avances, los especialistas de la Universidad de California, San Diego y del Machine Perception Laboratory han comenzado a profundizar el análisis sobre las posibilidades de movimiento de la cara y la cabeza de estos robots, con el propósito de automatizar el proceso de enseñanza de los robots para que concreten un mayor número de expresiones faciales y lo hagan de un modo aún más realista.

Actualmente, Einstein Robot maneja unos 30 músculos faciales, moviendo cada uno de ellos gracias a un pequeño servomotor conectado al músculo por una cadena. Hasta el momento, una persona altamente capacitada en el sistema debe configurar manualmente este dispositivo para que los servomotores se activen y realicen determinadas combinaciones de expresiones y movimientos.

En el futuro, se espera que los robots puedan realizar estos procesos de forma independiente. Para ello, se estudian cuestiones relacionadas con el surgimiento y mecánica de los movimientos faciales en el hombre, por ejemplo los movimientos sistemáticos de exploración que efectúan los niños al aprender a controlar sus cuerpos.

Con esta información, se piensa que los robots podrán lograr expresiones más realistas, ganar independencia en el proceso de aprendizaje e incrementar la cantidad de músculos que pueden manejar. La investigación fue encarada en conjunto por la Universidad de California, San Diego, el Machine Perception Laboratory y el California Institute for Telecommunications and Information Technology (Calit2), ambos integrantes de la red de centros de investigación de la UCSD.

Próximos pasos

Aunque no es la primera vez que se habla de este desarrollo, el futuro de Einstein Robot plantea algunos desafíos. Aunque los resultados preliminares son prometedores, los investigadores han observado que algunas de las expresiones faciales presentan dificultades para ser concretadas, existiendo complicaciones en el proceso de enseñanza de determinados movimientos. Por lo tanto, una de las principales obsesiones de los ingenieros a cargo de la investigación es encontrar una forma para avanzar en estos movimientos de mecánica más compleja.

Al iniciar el proceso de aprendizaje de los movimientos, los investigadores lograron que el robot sea capaz de girar la cara en todos los sentidos posibles. En esta primera etapa, el robot se observa en un espejo y analiza su propia expresión utilizando el software de detección de expresiones faciales creado en la UCSD y denominado CERT (Computer Expression Recognition Toolbox).

El software proporciona los datos necesarios en los algoritmos de aprendizaje automático, que permiten obtener una relación entre las expresiones faciales y los movimientos de los músculos motores. Una vez que el robot incorpora esta relación primaria, puede posteriormente efectuar expresiones faciales por su propia cuenta y que no han sido inducidas previamente.



Un ejemplo es el gesto de reducción de apertura de las cejas, que fue aprendido directamente por el robot al incorporar el movimiento necesario para cerrar un poco los ojos y obtener esa expresión. Asimismo, un accidente que dejó fuera de funcionamiento uno de los servomotores sirvió a los investigadores para descubrir que el sistema es capaz de compensar automáticamente los servos desaparecidos mediante la activación de una combinación entre los restantes motores que se encuentren en funcionamiento.


Fuente



No hay comentarios:

Publicar un comentario