jueves, junio 09, 2016

Manos robóticas provistas de ojos electrónicos


Antes de que un brazo robótico pueda adentrarse por un espacio muy estrecho o coger un objeto delicado, el robot necesita saber de forma precisa dónde se halla su mano. Este conocimiento es automático e innato para los humanos y los demás animales en general. Pero hay que implementarlo de manera específica en los robots.
 
Unos investigadores han mostrado ahora que una cámara unida a una mano robótica, y la acción de algunas innovaciones de diseño, pueden crear rápidamente en la CPU del robot un modelo tridimensional de su entorno y ubicar también su mano dentro de ese mundo en 3D.
Hacer eso en tiempo real con cámaras poco precisas (la opción necesaria para evitar un encarecimiento de costes) y con brazos que no dejan de moverse es difícil, pero el equipo encontró que podría mejorar la precisión del mapa incorporando en este al propio brazo, acondicionado como sensor, mediante la estrategia de recurrir al ángulo de sus articulaciones para determinar mejor la ubicación y postura de la cámara.
Este avance es obra del equipo de Siddhartha Srinivasa y Matthew Klingensmith, del Laboratorio de Robótica Personal, dependiente del Instituto de Robótica de la Universidad Carnegie Mellon, en Pittsburgh, Pensilvania, Estados Unidos.
Colocar una cámara u otro sensor en la mano de un robot ha empezado a ser viable en cuanto los sensores se han ido haciendo más pequeños y más eficientes energéticamente. Eso es importante porque los robots normalmente poseen cabezas que consisten en una barra con una cámara en ella. No pueden inclinarse hacia adelante como haría una persona para obtener una vista mejor del espacio de trabajo.
El equipo de Srinivasa y Klingensmith ha mostrado que una cámara instalada en la mano de un robot permite crear rápidamente un modelo en 3D de su entorno y también situar dicha mano dentro de ese mundo tridimensional. (Foto: Personal Robotics Lab)
Pero un ojo en la mano no es una gran mejora si el robot no puede verla y no sabe dónde está con respecto a los objetos de su entorno. Es un problema compartido con los robots que deben avanzar por un entorno que les es desconocido y trabajar en él. Una solución popular para los robots es la localización y el cartografiado simultáneos, una estrategia en la que el robot reúne la información procedente de sensores tales como cámaras, radares láser y odometría para crear un mapa en 3D del nuevo entorno y así averiguar dónde se encuentra cada una de las partes de su cuerpo dentro de ese mundo tridimensional.
Existen varios algoritmos disponibles para confeccionar estos mundos digitales copiados detalladamente de cada entorno físico, pero requieren sensores precisos y una gran cantidad de computación.
Esos algoritmos asumen frecuentemente que se sabe poco sobre la posición de los sensores, debido a estar la cámara instalada en una extremidad móvil. Sin embargo, el propio hecho de que la cámara esté montada en un brazo robótico ya aporta una información básica decisiva, derivada del hecho de que la geometría y otras características mecánicas del brazo restringirá cómo puede moverse.
Así pues, hacer un seguimiento automático de los ángulos de las articulaciones permite al sistema producir un mapa de alta calidad incluso si la cámara se está moviendo muy rápido o si parte de los datos de los sensores faltan o son erróneos.
 

No hay comentarios.:

Publicar un comentario