Laboratorio de Automatización, Robótica y Visión por Computador (ARVC)
  F+    F-        

Teleoperacion Cooperativa


El objetivo principal del presente proyecto de investigación radica en estudiar y desarrollar nuevos esquemas de control y percepción que permitan trabajar con entornos remotos en los que se encuentren sistemas móviles que puedan actuar conjuntamente para la realización de diversas tareas (agentes cooperativos).

Un sistema robotizado cooperativo es aquél en el que un robot trabaja de forma coordinada con otros para alcanzar objetivos comunes. En este proyecto de investigación se pretende desarrollar técnicas y herramientas que posibiliten mejorar la interacción entre el operario y el robot o robots en el entorno remoto para la realización de diversas tareas. Dentro de este ámbito resultan de especial interés el estudio de los esquemas de control colaborativo y control cooperativo.

El control colaborativo a distancia requiere compartir objetivos comunes, establecer canales de comunicación eficientes entre los entornos remoto y local así como dentro del propio entorno remoto y una acción coordinada entre todos los sitemas involucrados con objeto de alcanzar los objetivos marcados. Estos esquemas de control permiten abordar nuevas posibilidades en la ejecución de tareas a distancia de forma que el operario no realice un control manual de cada uno de los sistemas móviles remotos (que sería totalmente inviable). La teleoperación de estos sistemas remotos para la realización de tareas de forma coordinada resulta de extraordinario interés en campos tan diversos como vigilancia, inspección, limpieza y transporte de materiales, ensamblaje, construcción, etc.


LÍNEAS DE INVESTIGACIÓN DESARROLLADAS

Estrategias de cooperación en sistemas de múltiples robots

A grandes rasgos, las líneas de investigación que se llevan a cabo para la consecución de una finalidad global usando la cooperación de robots pueden ser clasificadas en tres grandes grupos [Rybski 98]:
  • Tareas donde la cooperación es esencial para conseguir realizar la tarea, como por ejemplo, cooperar para empujar un objeto pesado. En este caso, aunque cada robot es capaz de ejecutar una tarea útil, la tarea total conseguida por el grupo no podría realizarse por un único robot [Rus 95].
  • Tareas donde la cooperación incrementa la ejecución, bien disminuyendo el tiempo en completar la tarea, o bien incrementando la fiabilidad. En [Alami 95] se muestra como pueden utilizarse múltiples robots móviles para tareas de transporte de contenedores.
  • Tareas donde la cooperación surge como el resultado de interacciones. Cuando muchos robots “sencillos” se reúnen pueden aparecer comportamientos globales como resultado de las interacciones locales de los robots. Por ejemplo, en [Mataric 95] se describen comportamientos de grupo tales como dispersión, agregación y reunión.

En el presente proyecto se centrará la investigación en la búsqueda de estrategias de control cooperativo encuadradas en los dos primeros grupos. Estas estrategias podrán ser supervisadas por un operador humano e incluso podrán ser llevadas a cabo con la colaboración del operador, combinando en este caso estrategias de control cooperativo con estrategias de control colaborativo.

Control Visual de Trayectorias en entornos de múltiples robots

Cuando se trabaja con entornos remotos con múltiples robots que deben cooperar para realizar diverso tipo de trabajos, a menudo es necesario realizar un control visual de las trayectorias efectuadas por estos robots con objeto de corregir las mismas e integrar éstas para poder desarrollar las tareas encomendadas. En este sentido es necesario evaluar las características aportadas por el sistema de visión que deben ser tenidas en cuenta para corregir la trayectoria realizada por los robots que cooperan para ejecutar una determinada tarea en función de las trayectorias realizadas por los demás.

En [Spletzer 01] se presenta un esquema de diferentes robots que actúan de forma coordinada para realizar tareas de manipulación de objetos en los que es necesario corregir los movimientos de los robots en función de la información aportada por los sistemas de visión. La posición y orientación de los robots del entorno remoto en relación con la tarea que realizan de forma cooperativa puede estimarse a partir de la información aportada por sus propios sistemas de visión [Pereira 02] [Miyata 02].

En la mayor parte de las tareas realizadas por los robots en el entorno remoto de forma cooperativa es necesario que mantengan una formación determinada en función del cometido de la tarea, y que sigan lo más fielmente posible una determinada trayectoria para poder manipular o transportar de forma coordinada un objeto. En algunas ocasiones el robot debe fijar sus trayectorias en función de la información visual adquirida por otro robot que se encuentra en el entorno o bien por la información visual adquirida por otra entidad estática o dinámica del entorno remoto.

Fusión sensorial en sistemas teleoperados con múltiples robots

En aplicaciones en las que múltiples robots cooperan para realizar una determinada tarea, así como en aplicaciones en las que el operador colabora en el control de los robots, se hace patente la necesidad de alcanzar un alto grado de conocimiento del entorno, lo que conlleva la utilización de diferentes fuentes sensoriales del entorno, y por lo tanto, la utilización de técnicas de fusión sensorial [Brooks 97]. En [Rus 98] se presentan las ventajas de utilizar un sensor móvil en tareas de cooperación. En [Chaimowicz 01] se muestra una arquitectura en la que un robot es identificado como líder del grupo, de forma que sus datos sensoriales cobran mayor importancia. En [Roumeliotis 00] y [Stroupe 01] cada robot tiene acceso a los datos sensoriales del resto de robots, de forma que los combina con la información obtenida por sus propios sensores.

Ésta es la opción que propone el presente proyecto: el empleo de entidades móviles dotadas de cámaras con óptica variable y movimiento panorámico y de cabeceo. Tan solo se propone el empleo de marcas en los propios robots a fin de facilitar su localización. Su realización implicará el desarrollo de al menos los siguientes puntos:

  • Calibración de las cámaras utilizadas: cinemática e influencia de la variación de los parámetros intrínsecos.
  • Localización de la posición y orientación de los robots por el resto de los robots.
  • Detección de características visuales en imágenes bidimensionales
  • Reconstrucción tridimensional con información de múltiples vistas. Gestión de la información redundante en función de su incertidumbre
  • Estrategias de reconocimiento de escenas tridimensionales
  • Estudio de la propagación de la incertidumbre en la medida de un sistema de localización tridimensional: influencia de las vistas utilizadas, de la precisión de la localización de cada robot, de la calibración y de la detección de las características visuales. En los estudios se emplearán tanto modelos estadísticos como analíticos.

 

  © Laboratorio de Automatización Robótica y Visión por Computador (ARVC) - UMH