Aplicación de la Apariencia Global de la Información Visual Omnidireccional en Color a Tareas de Navegación Robótica en Espacio 2-1/2D
Dr. Francisco Javier Amorós Espí

La navegación de un robot de forma autónoma implica el conocimiento del entorno que le rodea. Existen distintos sensores que permiten al robot recoger la información de su alrededor. Esta información debe ser procesada e interpretada por el robot para el desempeño de su tarea. 
    De entre los múltiples sensores con los que un robot puede estar equipado, los sistemas de visión pueden ser destacados. Son sensores con un peso reducido, un consumo energético limitado y unas opciones de configuración muy extensas, lo cual los convierten en aptos para casi cualquier tipo de aplicación y medio de navegación. Además, las imágenes proporcionan información de gran riqueza, que puede ser aprovechada de distintas formas. 
    Dentro de la visión aplicada a navegación, en las últimas décadas han predominado las aproximaciones basadas en extracción de características para describir la información visual. Estas técnicas utilizan la segmentación de la imagen o la extracción de puntos significativos de las escenas. 
    En esta tesis se plantea el uso de la apariencia global de la información visual para llevar a cabo la descripción de las imágenes y sus aplicaciones en tareas de navegación. A diferencia de los métodos basados en características, las técnicas de apariencia global procesan la imagen en su conjunto, sin tener en cuenta el contenido de la escena.  
    Estos descriptores presentan una clara ventaja en entornos desestructurados, donde es difícil extraer puntos significativos. Sin embargo, al trabajar con la imagen completa, es necesario buscar técnicas que permitan el procesamiento de la escena de forma rápida y que describan la escena en pocos términos. 
    En este trabajo se emplean dos sistemas visuales distintos: una cámara con lente de ojo de pez, que recogen un amplio campo de visión, y un conjunto catadióptrico, con el que se capturan imágenes omnidireccionales. Se incluye un estudio de las múltiples posibilidades de representación de las escenas que la información omnidireccional proporciona. 
    Los descriptores de apariencia global han demostrado su utilidad en tareas de navegación, permitiendo la estimación de la pose del robot dentro de mapas visuales. La mayoría de las técnicas propuestas utilizan la información visual de un sólo canal, es decir, de la imagen en escala de grises.
    Por ello, se realiza una comparación de diferentes algoritmos basados en la apariencia global utilizando la información de color de distintas formas. El estudio tiene en consideración los requerimientos computacionales y la precisión de estimación de la pose dentro de un mapa denso, simulando además distintas situaciones de ruido y oclusiones en las escenas de test. 
    Demostrada la capacidad de caracterización y distinción que este tipo de descriptores poseen, nuestra intención es utilizar estas técnicas para extraer información sobre la posición relativa de escenas capturadas en un entorno cercano. Específicamente, se plantean tres situaciones distintas para aplicar la apariencia global a tareas de navegación visual.
    El primero de ellos utiliza la información proporcionada por rutas de imágenes proyectivas para seleccionar y ordenar nodos de imágenes distribuidos por el área de navegación, formando el mapa del entorno. Para llevar a cabo esta tarea, el sistema estima el desplazamiento relativo entre dos imágenes consecutivas. Esto se consigue mediante el Análisis Multiescala, entendiendo las escalas como ampliaciones artificiales de las escenas. Con este estudio se pretende demostrar, además de la posibilidad de obtener una medida del desplazamiento entre dos imágenes, la aplicabilidad y desempeño de la apariencia global sobre información no omnidireccional. 
    El segundo caso a estudio tiene como objetivo la adaptación del Análisis Multiescala a las escenas omnidireccionales. Aprovechando las propiedades de la información omnidireccional, y el análisis multiescala, se propone un sistema de odometría visual utilizando la apariencia global de las escenas. Este sistema de odometría visual topológico es utilizado posteriormente en un proceso de estimación de rutas visuales, considerando además cierres de bucle para mejorar las estimaciones. 
    Por último, se aborda el problema de estimación de desplazamientos verticales entre dos escenas usando de nuevo la apariencia global visual. El creciente interés en los vehículos aéreos como plataformas de navegación y el uso combinado con sensores visuales, nos llevan a plantear la utilización de la información omnidireccional junto con los descriptores de apariencia global para obtener estimadores de altura topológica. 
    Todas las técnicas propuestas se validan a través de experimentos que usan distintas bases de imágenes propias capturadas en entornos reales.