000110854 001__ 110854 000110854 005__ 20220225151703.0 000110854 037__ $$aTESIS-2022-050 000110854 041__ $$aeng 000110854 1001_ $$aCampos Martínez, Carlos 000110854 24500 $$aPrecise and Robust Visual SLAM with Inertial Sensors and Deep Learning. 000110854 260__ $$aZaragoza$$bUniversidad de Zaragoza, Prensas de la Universidad$$c2021 000110854 300__ $$a163 000110854 4900_ $$aTesis de la Universidad de Zaragoza$$v2021-365$$x2254-7606 000110854 500__ $$aPresentado: 30 11 2021 000110854 502__ $$aTesis-Univ. Zaragoza, , 2021$$bZaragoza, Universidad de Zaragoza$$c2021 000110854 506__ $$aby-nc$$bCreative Commons$$c3.0$$uhttp://creativecommons.org/licenses/by-nc/3.0/es 000110854 520__ $$aDotar a los robots con el sentido de la percepción destaca como el componente más importante para conseguir máquinas completamente autónomas. Una vez que las máquinas sean capaces de percibir el mundo, podrán interactuar con él. A este respecto, la localización y la reconstrucción de mapas de manera simultánea, SLAM (por sus siglas en inglés) comprende todas las técnicas que permiten a los robots estimar su posición y reconstruir el mapa de su entorno al mismo tiempo, usando únicamente el conjunto de sensores a bordo. El SLAM constituye el elemento clave para la percepción de las máquinas, estando ya presente en diferentes tecnologías y aplicaciones como la conducción autónoma, la realidad virtual y aumentada o los robots de servicio. Incrementar la robustez del SLAM expandiría su uso y aplicación, haciendo las máquinas más seguras y requiriendo una menor intervención humana.<br />En esta tesis hemos combinado sensores inerciales (IMU) y visuales para incrementar la robustez del SLAM ante movimientos rápidos, oclusiones breves o entornos con poca textura. Primero hemos propuesto dos técnicas rápidas para la inicialización del sensor inercial, con un bajo error de escala. Estas han permitido empezar a usar la IMU tan pronto como 2 segundos después de lanzar el sistema. Una de estas inicializaciones ha sido integrada en un nuevo sistema de SLAM visual inercial, acuñado como ORB-SLAM3, el cual representa la mayor contribución de esta tesis. Este es el sistema de SLAM visual-inercial de código abierto más completo hasta la fecha, que funciona con cámaras monoculares o estéreo, estenopeicas o de ojo de pez, y con capacidades multimapa. ORB-SLAM3 se basa en una formulación de Máximo a Posteriori, tanto en la inicialización como en el refinamiento y el ajuste de haces visual-inercial. También explota la asociación de datos en el corto, medio y largo plazo. Todo esto hace que ORB-SLAM3 sea el sistema SLAM visual-inercial más preciso, como así demuestran nuestros resultados en experimentos públicos.<br />Además, hemos explorado la aplicación de técnicas de aprendizaje profundo para mejorar la robustez del SLAM. En este aspecto, primero hemos propuesto DynaSLAM II, un sistema SLAM estéreo para entornos dinámicos. Los objetos dinámicos son segmentados mediante una red neuronal, y sus puntos y medidas son incluidas eficientemente en la optimización de ajuste de haces. Esto permite estimar y hacer seguimiento de los objetos en movimiento, al mismo tiempo que se mejora la estimación de la trayectoria de la cámara. En segundo lugar, hemos desarrollado un SLAM monocular y directo basado en predicciones de profundidad a través de redes neuronales. Optimizamos de manera conjunta tanto los residuos de predicción de profundidad como los fotométricos de distintas vistas, lo que da lugar a un sistema monocular capaz de estimar la escala. No sufre el problema de deriva de escala, siendo más robusto y varias veces más preciso que los sistemas monoculares clásicos.<br /> 000110854 520__ $$a<br /> 000110854 521__ $$97100$$aPrograma de Doctorado en Ingeniería de Sistemas e Informática 000110854 6531_ $$arobotica 000110854 6531_ $$avision artificial 000110854 700__ $$aDr. D. Juan Domingo Tardós Solano$$edir. 000110854 7102_ $$aUniversidad de Zaragoza$$b 000110854 830__ $$9512 000110854 8560_ $$fcdeurop@unizar.es 000110854 8564_ $$s11832304$$uhttps://zaguan.unizar.es/record/110854/files/TESIS-2022-050.pdf$$zTexto completo (eng) 000110854 909CO $$ooai:zaguan.unizar.es:110854$$pdriver 000110854 909co $$ptesis 000110854 9102_ $$a$$b 000110854 980__ $$aTESIS