000064162 001__ 64162
000064162 005__ 20171221155212.0
000064162 037__ $$aTAZ-TFG-2017-2921
000064162 041__ $$aspa
000064162 1001_ $$aGil Begué, Santiago
000064162 24200 $$aHigh-precision localization and mapping systems for virtual and augmented reality
000064162 24500 $$aSistemas de localización y construcción de mapas de alta precisión para realidad virtual y aumentada
000064162 260__ $$aZaragoza$$bUniversidad de Zaragoza$$c2017
000064162 500__ $$aSubvencionado por el Ministerio de Educación, Cultura y Deporte mediante una Beca de Colaboración de iniciación a la investigación.
000064162 506__ $$aby-nc-sa$$bCreative Commons$$c3.0$$uhttp://creativecommons.org/licenses/by-nc-sa/3.0/
000064162 520__ $$aLa técnica de localización y mapeado simultáneos, conocida por sus siglas en inglés SLAM, permite la localización libre de deriva de un robot en un entorno desconocido mediante el procesamiento de la información de sensores de a bordo, y sin la utilización de una infraestructura externa como puede ser un sistema de posicionamiento global (GPS). ORB-SLAM es el nombre del sistema de localización y construcción de mapas desarrollado por el grupo de Robótica, Percepción y Tiempo Real de la Universidad de Zaragoza que es capaz de calcular los movimientos de una cámara con unos 3 a 5 centímetros de error. Este sistema funciona con sensores de visión a bordo. En sus dos versiones de desarrollo, ORB-SLAM soporta tres tipos de cámara diferentes: cámaras monoculares, estereoscópicas y RGB-D. Durante la presente investigación, se ha añadido el soporte a cámaras con objetivo gran angular, las cuales permiten la visualización de una mayor porción de la escena. Los puntos ORB con los que trabaja este sistema se extraen con un detector de esquinas tipo FAST. Tal hecho supone que el sistema no proporciona un rendimiento deseable en entornos con ausencia de esquinas, como puede ser el pasillo de un edificio. Para solucionar esta imprecisión del sistema, durante el presente trabajo se ha desarrollado una nueva feature denominada edgelet que representa a los puntos de contorno de una escena, más comúnmente presentes en todo tipo de escenarios. Se ha demostrado además que la extracción de los edgelets de una imagen es un proceso rápido en comparación con la extracción de otros puntos de interés de renombre. Se ha ideado un descriptor que permite un excelente proceso de emparejamiento y seguimiento de estas features. Si bien, estas innovaciones requieren un trabajo futuro de profundización para adaptarlas perfectamente en el contexto de SLAM. Se ha instalado y calibrado un sistema de captura de movimiento OptiTrack en el laboratorio 1.07 del edificio Ada Byron de la Universidad de Zaragoza, con el que se ha capturado una secuencia de vídeo, conociendo en todo momento con una precisión sub-milimétrica la pose de la cámara. Se ha desarrollado una demo de realidad aumentada, comparando la experiencia de usuario si se mantiene la localización de la cámara obtenida con un sistema de captura de movimiento, o si se calcula con el sistema ORB-SLAM. Este último consigue una mejor experiencia de usuario y sensación de realismo.
000064162 521__ $$aGraduado en Ingeniería Informática
000064162 540__ $$aDerechos regulados por licencia Creative Commons
000064162 700__ $$aTardós Solano, Juan Domingo$$edir.
000064162 7102_ $$aUniversidad de Zaragoza$$bInformática e Ingeniería de Sistemas$$cCC. de la Computación e Inteligencia Artificial
000064162 8560_ $$f683482@celes.unizar.es
000064162 8564_ $$s41221264$$uhttps://zaguan.unizar.es/record/64162/files/TAZ-TFG-2017-2921.pdf$$yMemoria (spa)
000064162 909CO $$ooai:zaguan.unizar.es:64162$$pdriver$$ptrabajos-fin-grado
000064162 950__ $$a
000064162 951__ $$adeposita:2017-12-21
000064162 980__ $$aTAZ$$bTFG$$cEINA