|
PDPR: Panoramic-depth place recognition through the fusion of visual and geometric-aware features Marcos Alfaro, Juan José Cabrera, Arturo Gil, Oscar Reinoso, Luis Payá Neurocomputing (2026)
Ed. Elsevier DOI:https://doi.org/10.1016/j.neucom.2026.133112 BIBTEX:@article{alfaro2026pdpr,
title = {PDPR: Panoramic-depth place recognition through the fusion of visual and geometric-aware features},
journal = {Neurocomputing},
volume = {677},
pages = {133112},
year = {2026},
issn = {0925-2312},
doi = {https://doi.org/10.1016/j.neucom.2026.133112},
url = {https://www.sciencedirect.com/science/article/pii/S0925231226005096},
author = {Marcos Alfaro and Juan José Cabrera and Arturo Gil and Oscar Reinoso and Luis Payá},
keywords = {Place recognition, Panoramic images, Monocular depth estimation, Data fusion},
abstract = {Omnidirectional cameras are a suitable and cost-effective choice for Visual Place Recognition (VPR), as they provide comprehensive information from the scene regardless of the robot orientation. However, vision sensors are vulnerable to environmental appearance changes (e.g., illumination, weather, season or moving objects). While multi-modal sensing approaches can overcome these challenges, they introduce significant cost and system complexity. This paper introduces PDPR (Panoramic-Depth Place Recognition), a novel fusion framework that enhances the robustness of VPR methods by integrating visual data with geometric features derived from monocular depth estimation techniques, while using a single-camera setup. In the ablation study, both early and late fusion strategies are evaluated to optimally combine appearance-based and depth-derived features. The extensive evaluation on challenging, indoor and outdoor datasets demonstrates that PDPR consistently boosts retrieval performance across multiple state-of-the-art VPR models. Furthermore, this improvement is achieved without requiring any fine tuning, allowing our method to function as a pluggable module for pretrained models. Consequently, this work presents a powerful, practical and low-cost solution for robust VPR, with high potential to scale as monocular depth estimation and VPR models continue to improve. The project website can be found at https://marcosalfaro.github.io/projects-PDPR/.}
} - Vol. 677, pag. 133112
Resumen:
Las cámaras omnidireccionales son una opción adecuada y rentable para el Reconocimiento Visual de Lugares (VPR), ya que proporcionan información exhaustiva de la escena independientemente de la orientación del robot. Sin embargo, los sensores de visión son vulnerables a los cambios de apariencia del entorno (p. ej., iluminación, clima, estaciones o presencia de objetos dinámicos). Aunque los enfoques multimodales pueden superar estos retos, introducen costes y una complejidad del sistema significativos. Este artículo presenta PDPR (Panoramic-Depth Place Recognition), un marco de fusión novedoso que mejora la robustez de los métodos de VPR integrando datos visuales con características geométricas derivadas de técnicas de estimación de profundidad monocular, manteniendo una configuración de una única cámara. En el análisis experimental, se evalúan estrategias de fusión tanto temprana (early fusion) como tardía (late fusion) para combinar de forma óptima las características basadas en la apariencia y las derivadas de la profundidad. La evaluación exhaustiva en bases de datos desafiantes, tanto en interiores como en exteriores, demuestra que PDPR impulsa de manera consistente el rendimiento de localización con múltiples modelos de VPR del estado del arte. Además, esta mejora se logra sin necesidad de un reentrenamiento, lo que permite que nuestro método funcione como un módulo adaptable a distintos modelos preentrenados. En consecuencia, este trabajo presenta una solución potente, práctica y de bajo coste para un VPR robusto, con un alto potencial de mejora a medida que los modelos de estimación de profundidad monocular y de VPR sigan evolucionando. El sitio web del proyecto está disponible en https://marcosalfaro.github.io/projects-PDPR/.
|