000077729 001__ 77729
000077729 005__ 20190226114806.0
000077729 037__ $$aTAZ-TFG-2018-2489
000077729 041__ $$aspa
000077729 1001_ $$aGómez Rodríguez, Juan José
000077729 24200 $$aLocalization and mapping with inverse depth points and wide angle cameras in ORB-SLAM2
000077729 24500 $$aLocalización y construcción de mapas con puntos en profundidad inversa y con cámaras gran angular en ORB-SLAM2
000077729 260__ $$aZaragoza$$bUniversidad de Zaragoza$$c2018
000077729 500__ $$aTrabajo realizado bajo una beca de prácticas extracurriculares. Con la colaboración de la empresa Meta.
000077729 506__ $$aby-nc-sa$$bCreative Commons$$c3.0$$uhttp://creativecommons.org/licenses/by-nc-sa/3.0/
000077729 520__ $$aEl problema de localización y mapeo simultáneos, más conocido por sus siglas en inglés SLAM, consiste en localizar un agente (por ejemplo, un robot, un dron, un coche autónomo, o unas gafas de realidad aumentada) dentro de un mapa generado gracias a información obtenida por una serie de sensores de a bordo. ORB-SLAM2 es un sistema de SLAM desarrollado por el grupo de Robótica, Percepción y Tiempo Real de la Universidad de Zaragoza, que utiliza cámaras como sensores. Como la mayoría de de sistemas de SLAM visual, representa los puntos del mapa en coordenadas Cartesianas y utiliza un modelo de cámara oscura (pinhole en inglés) para la toma de imágenes. En el presente trabajo se ha investigado el uso de una representación alternativa para los puntos del mapa de ORB-SLAM2, en el que se almacenan sus coordenadas angulares y la inversa de su profundidad con respecto de la primera cámara que los observó. Esta representación exhibe una serie de propiedades teóricas que resultan muy beneficiosas en sistemas de SLAM basados en el filtro de Kalman extendido. Sin embargo, nuestros resultados muestran que en el caso de ORB-SLAM2, que utiliza optimización no lineal, la representación en profundidad inversa aumenta el coste computacional sin mejoras significativas en la precisión. Por otro lado, se ha estudiado el modelo de cámaras con objetivos gran angular y ojo de pez y, modificando a fondo ORB-SLAM2, se ha desarrollado el primer sistema de SLAM visual capaz de trabajar con este tipo de cámaras, tanto en monocular como en estéreo. Los resultados obtenidos con unas gafas de realidad aumentada muestran que este tipo de cámaras, al cubrir un mayor campo de visión que las basadas en el modelo pinhole, permiten mapear regiones más amplias, mejorando la robustez del SLAM visual ante oclusiones.
000077729 521__ $$aGraduado en Ingeniería Informática
000077729 540__ $$aDerechos regulados por licencia Creative Commons
000077729 700__ $$aTardós Solano, Juan Domingo$$edir.
000077729 7102_ $$aUniversidad de Zaragoza$$bInformática e Ingeniería de Sistemas$$cIngeniería de Sistemas y Automática
000077729 8560_ $$f702272@celes.unizar.es
000077729 8564_ $$s16132574$$uhttps://zaguan.unizar.es/record/77729/files/TAZ-TFG-2018-2489.pdf$$yMemoria (spa)
000077729 909CO $$ooai:zaguan.unizar.es:77729$$pdriver$$ptrabajos-fin-grado
000077729 950__ $$a
000077729 951__ $$adeposita:2019-02-26
000077729 980__ $$aTAZ$$bTFG$$cEINA
000077729 999__ $$a20180628185153.CREATION_DATE