A Method for the Calibration of a LiDAR and Fisheye Camera System
Álvaro Martínez, Antonio Santo, Monica Ballesta, Arturo Gil, Luis Payá
Applied Sciences  (Elche, Espańa, 15 de febrero de 2025)
Ed. MDPI  DOI:https://doi.org/10.3390/app15042044  BIBTEX:@Article{app15042044, AUTHOR = {Martínez, Álvaro and Santo, Antonio and Ballesta, Monica and Gil, Arturo and Payá, Luis}, TITLE = {A Method for the Calibration of a LiDAR and Fisheye Camera System}, JOURNAL = {Applied Sciences}, VOLUME = {15}, YEAR = {2025}, NUMBER = {4}, ARTICLE-NUMBER = {2044}, URL = {https://www.mdpi.com/2076-3417/15/4/2044}, ISSN = {2076-3417}, ABSTRACT = {LiDAR and camera systems are frequently used together to gain a more complete understanding of the environment in different fields, such as mobile robotics, autonomous driving, or intelligent surveillance. Accurately calibrating the extrinsic parameters is crucial for the accurate fusion of the data captured by both systems, which is equivalent to finding the transformation between the reference systems of both sensors. Traditional calibration methods for LiDAR and camera systems are developed for pinhole cameras and are not directly applicable to fisheye cameras. This work proposes a target-based calibration method for LiDAR and fisheye camera systems that avoids the need to transform images to a pinhole camera model, reducing the computation time. Instead, the method uses the spherical projection of the image, obtained with the intrinsic calibration parameters and the corresponding point cloud for LiDAR–fisheye calibration. Thus, unlike a pinhole-camera-based system, a wider field of view is provided, adding more information, which will lead to a better understanding of the environment itself, as well as enabling using fewer image sensors to cover a wider area.}, DOI = {10.3390/app15042044} }  - Appl. Sci., Volume 15, Issue 4, 2044

Resumen:


Los sistemas LiDAR y de cámara se utilizan frecuentemente de forma conjunta para obtener una comprensión más completa del entorno en distintos campos, como la robótica móvil, la conducción autónoma o la vigilancia inteligente. La calibración precisa de los parámetros extrínsecos es crucial para la fusión exacta de los datos captados por ambos sistemas, lo que equivale a encontrar la transformación entre los sistemas de referencia de ambos sensores. Los métodos tradicionales de calibración de sistemas LiDAR y cámaras se han desarrollado para cámaras estenopeicas y no son directamente aplicables a las cámaras de ojo de pez. Este trabajo propone un método de calibración basado en objetivos para sistemas LiDAR y cámaras de ojo de pez que evita la necesidad de transformar las imágenes a un modelo de cámara estenopeica, reduciendo el tiempo de cálculo. En su lugar, el método utiliza la proyección esférica de la imagen, obtenida con los parámetros intrínsecos de calibración y la nube de puntos correspondiente para la calibración LiDAR-ojo de pez. Así, a diferencia de un sistema basado en una cámara estenopeica, se proporciona un campo de visión más amplio, añadiendo más información, lo que permitirá comprender mejor el propio entorno, así como utilizar menos sensores de imagen para cubrir un área más amplia.