(Los acentos fueron obviados por cuestiones tecnicas)
Un consorcio de investigadores europeos coordinado por el Centro de Vision por Computador (CVC) de la Universitad Autonoma de Barcelona (UAB) ha desarrollado HERMES, un sistema cognitivo computacional integrado por camaras de video y software que es capaz de reconocer y prever el comportamiento humano, asi como de describirlo en lenguaje natural.
HERMES (Human Expressive Representations of Motion and their Evalutation in Sequences) se basa en el analisis del comportamiento humano a partir de secuencias de video capturadas con tres niveles de enfoque: el del individuo, como un objeto relativamente alejado; el de su cuerpo, con una proximidad media que permite analizar sus posturas; y el del rostro, que permite estudiar con detalle sus expresiones faciales. La informacion obtenida, procesada por algoritmos de vision por computador y de inteligencia artificial, permite al sistema aprender y reconocer patrones de movimiento.
El nuevo sistema aporta dos novedades importantes en el campo de la vision por computador. La primera es la descripcion de los movimientos captados por las camaras en lenguaje natural, a traves de frases sencillas y precisas que van apareciendo en la pantalla del ordenador en tiempo real, junto con el numero fotograma en que se produce la accion.
El sistema puede utilizar tambien un avatar hablando y describir la informacion en diferentes idiomas. La segunda es la posibilidad de analizar y descubrir potenciales comportamientos inusuales -a partir de los movimientos aprendidos- y de alertar sobre ellos. Por ejemplo, el sistema enviara un aviso al centro de control de una estacion de metro cuando capte un individuo que intente bajar a la via del tren; o alertara cuando una persona anciana que viva sola sufra una caida.
Las ventajas de aplicacion que supone son muy altas en el ambito de la vigilancia inteligente y la prevencion de accidentes y delitos, pero los investigadores consideran que tambien tiene un gran potencial como herramienta de estudio en otros campos, como el marketing o la psicologia.
HERMES ha sido un proyecto coordinado por Juan Jose Villanueva, profesor emerito del Departamento de Ciencias de la Computacion de la UAB y desde hace un año exdirector del CVC, del que fue director durante los ultimos 14 años.
El nuevo sistema, que ha recibido varios premios cientificos en los mejores congresos especializados, ha sido desarrollado dentro del 6º Programa Marco de Investigacion de la Union Europa.
Con una duracion de tres años y medio y un presupuesto de 2.100.000 euros, en su realizacion han participado investigadores de cinco de los grupos de investigacion mas reconocidos de Europa en esta area y de una empresa especializada en tecnologias de la informacion y comunicacion. Este nuevo sistema se estructura a su vez en siete subproyectos.
Siete subproyectos de HERMES
1.- El sistema de camaras: se han utilizado camaras estaticas para abarcar la escena completa y camaras activas de alta resolucion - sensores “pan-tilt-zoom” (inclinacion horizontal-vertical-zoom)-, que permiten un seguimiento y una mayor aproximacion automatica a los individuos. Para hacerlo, se han aplicado tecnicas de optimizacion de la informacion contenida en las imagenes.
2.- El analisis del movimiento de los objetos y de los individuos de la imagen. La informacion obtenida es utilizada para guiar las camaras activas hacia donde se producen las acciones. Estos problemas se han abordado con diferentes tipos de tecnicas de seguimiento.
3.- El analisis del movimiento del cuerpo de los individuos, para extraer la informacion de las diversas partes del cuerpo, analizar las acciones y describir y prever el comportamiento. Se han usado tecnicas basadas en el reconocimiento de patrones y siluetas.
4.- El analisis del movimiento facial, para la comprension del estado emocional de los individuos, su actitud y las posibles reacciones. En este subproyecto se han utilizado y desarrollado nuevas tecnicas para el seguimiento y la alineacion de las caras en 2D y 3D.
5.- La integracion del software y del lenguaje natural, con el objetivo de describir lo que esta pasando en las escenas registradas, con un esquema conceptual de representacion.
6.- La integracion de todo el sistema, software y hardware, para trabajar en entornos reales y en tiempo real. Se ha diseñado e implantado todo el sistema en una arquitectura orientada al funcionamiento en escenarios reales.
7.- La generacion de secuencias virtuales a partir de la descripcion de comportamientos en lenguaje natural y la interactuacion de los dos mundos, el real y el virtual, en una misma secuencia, con tecnicas de realidad aumentada.
Fuente: Universitat Autonoma de Barcelona
No hay comentarios.:
Publicar un comentario