Antes de que un brazo robótico pueda adentrarse por un espacio muy estrecho o
coger un objeto delicado, el robot necesita saber de forma precisa dónde se
halla su mano. Este conocimiento es automático e innato para los humanos y los
demás animales en general. Pero hay que implementarlo de manera específica en
los robots.
Unos
investigadores han mostrado ahora que una cámara unida a una mano robótica, y la
acción de algunas innovaciones de diseño, pueden crear rápidamente en la CPU del
robot un modelo tridimensional de su entorno y ubicar también su mano dentro de
ese mundo en 3D.
Hacer
eso en tiempo real con cámaras poco precisas (la opción necesaria para evitar un
encarecimiento de costes) y con brazos que no dejan de moverse es difícil, pero
el equipo encontró que podría mejorar la precisión del mapa incorporando en este
al propio brazo, acondicionado como sensor, mediante la estrategia de recurrir
al ángulo de sus articulaciones para determinar mejor la ubicación y postura de
la cámara.
Este
avance es obra del equipo de Siddhartha Srinivasa y Matthew Klingensmith, del
Laboratorio de Robótica Personal, dependiente del Instituto de Robótica de la
Universidad Carnegie Mellon, en Pittsburgh, Pensilvania, Estados Unidos.
Colocar
una cámara u otro sensor en la mano de un robot ha empezado a ser viable en
cuanto los sensores se han ido haciendo más pequeños y más eficientes
energéticamente. Eso es importante porque los robots normalmente poseen cabezas
que consisten en una barra con una cámara en ella. No pueden inclinarse hacia
adelante como haría una persona para obtener una vista mejor del espacio de
trabajo.
El
equipo de Srinivasa y Klingensmith ha mostrado que una cámara instalada en la
mano de un robot permite crear rápidamente un modelo en 3D de su entorno y
también situar dicha mano dentro de ese mundo tridimensional. (Foto: Personal
Robotics Lab)
Pero un
ojo en la mano no es una gran mejora si el robot no puede verla y no sabe dónde
está con respecto a los objetos de su entorno. Es un problema compartido con los
robots que deben avanzar por un entorno que les es desconocido y trabajar en él.
Una solución popular para los robots es la localización y el cartografiado
simultáneos, una estrategia en la que el robot reúne la información procedente
de sensores tales como cámaras, radares láser y odometría para crear un mapa en
3D del nuevo entorno y así averiguar dónde se encuentra cada una de las partes
de su cuerpo dentro de ese mundo tridimensional.
Existen
varios algoritmos disponibles para confeccionar estos mundos digitales copiados
detalladamente de cada entorno físico, pero requieren sensores precisos y una
gran cantidad de computación.
Esos
algoritmos asumen frecuentemente que se sabe poco sobre la posición de los
sensores, debido a estar la cámara instalada en una extremidad móvil. Sin
embargo, el propio hecho de que la cámara esté montada en un brazo robótico ya
aporta una información básica decisiva, derivada del hecho de que la geometría y
otras características mecánicas del brazo restringirá cómo puede moverse.
Así
pues, hacer un seguimiento automático de los ángulos de las articulaciones
permite al sistema producir un mapa de alta calidad incluso si la cámara se está
moviendo muy rápido o si parte de los datos de los sensores faltan o son
erróneos.
No hay comentarios.:
Publicar un comentario