|
¿Cómo pueden los robots reconocer dónde están cuando el entorno cambia drásticamente debido a la iluminación, el clima o los objetos en movimiento?
Presentamos PDPR (Panoramic-Depth Place Recognition), un método que mejora el Reconocimiento Visual de Lugares (VPR) utilizando imágenes omnidireccionales y mapas de profundidad obtenidos mediante Depth Anything v2.
¿Qué hace especial a PDPR?
✅ Fusión Inteligente: Combina información visual con características geométricas derivadas de estimación de profundidad monocular.
✅ Bajo Coste: Consigue la robustez de los sistemas multimodales manteniendo un setup de una sola cámara.
✅ Plug-and-Play: Mejora el rendimiento de modelos de VPR sin necesidad de reentrenamiento o fine-tuning.
✅ Versatilidad: Validado con éxito tanto en entornos interiores como exteriores.
Este trabajo es un paso adelante hacia una navegación robótica más robusta, práctica y escalable.
Puedes leer el artículo completo y explorar el proyecto aquí:
🔗 Web del proyecto: https://marcosalfaro.github.io/projects-PDPR/
🔗 Paper: https://doi.org/10.1016/j.neucom.2026.133112
Este trabajo forma parte del proyecto PID2023-149575OB-I00, financiado por MICIU/AEI/10.13039/501100011033 y por FEDER, UE. También forma parte del proyecto CIPROM/2024/8 (programa PROMETEO 2025), financiado por la Consellería de Educación, Cultura, Universidades y Empleo (Generalitat Valenciana).
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
How can robots reliably recognize their location when environments change due to lighting, weather, or dynamic objects? 🤖📍
We introduce PDPR (Panoramic-Depth Place Recognition), a novel framework designed to enhance Visual Place Recognition (VPR) using panoramic images and monocular depth estimation.
Key highlights of PDPR:
✅ Smart Fusion: It integrates visual data with geometric features derived from monocular depth estimation.
✅ Cost-Effective: Achieves the robustness of multi-modal systems using only a single-camera setup.
✅ Plug-and-Play: Boosts the performance of VPR models without requiring any fine-tuning.
✅ Versatile: Validated across challenging indoor and outdoor datasets.
This work represents a step forward towards more robust, practical, and scalable robotic navigation.
Check out the full paper and project details here:
🔗 Project website: https://marcosalfaro.github.io/projects-PDPR/
🔗 Paper: https://doi.org/10.1016/j.neucom.2026.133112
This research work is part of the project PID2023-149575OB-I00 funded by MICIU/AEI/10.13039/501100011033 and by FEDER, UE. It is also part of the project CIPROM/2024/8, funded by Generalitat Valenciana, Conselleria de Educación, Cultura, Universidades y Empleo (program PROMETEO 2025).
|