000004966 001__ 4966
000004966 005__ 20170831220332.0
000004966 037__ $$aTAZ-TFM-2010-038 
000004966 041__ $$aeng
000004966 1001_ $$aAranda Calleja, Miguel
000004966 24500 $$aControl de robots móviles mediante visión omnidireccional utilizando la geometría de tres vistas
000004966 260__ $$aZaragoza$$bUniversidad de Zaragoza$$c2010
000004966 506__ $$aby-nc-sa$$bCreative Commons$$c3.0$$uhttp://creativecommons.org/licenses/by-nc-sa/3.0/
000004966 520__ $$aEste trabajo trata acerca del control visual de robot móviles. Dentro de este campo tan amplio de investigación existen dos elementos a los que prestaremos especial atención: la visión omnidireccional y los modelos geométricos multi-vista. Las cámaras omnidireccionales proporcionan información angular muy precisa, aunque presentan un grado de distorsión significativo en dirección radial. Su cualidad de poseer un amplio campo de visión hace que dichas cámaras sean apropiadas para tareas de navegación robótica. Por otro lado, el uso de los modelos geométricos que relacionan distintas vistas de una escena permite rechazar emparejamientos erróneos de características visuales entre imágenes, y de este modo robustecer el proceso de control mediante visión. Nuestro trabajo presenta dos técnicas de control visual para ser usadas por un robot moviéndose en el plano del suelo. En primer lugar, proponemos un nuevo método para homing visual, que emplea la información dada por un conjunto de imágenes de referencia adquiridas previamente en el entorno, y las imágenes que toma el robot a lo largo de su movimiento. Con el objeto de sacar partido de las cualidades de la visión omnidireccional, nuestro método de homing es puramente angular, y no emplea información alguna sobre distancia. Esta característica, unida al hecho de que el movimiento se realiza en un plano, motiva el empleo del modelo geométrico dado por el tensor trifocal 1D. En particular, las restricciones geométricas impuestas por dicho tensor, que puede ser calculado a partir de correspondencias de puntos entre tres imágenes, mejoran la robustez del control en presencia de errores de emparejamiento. El interés de nuestra propuesta reside en que el método de control empleado calcula las velocidades del robot a partir de información únicamente angular, siendo ésta muy precisa en las cámaras omnidireccionales. Además, presentamos un procedimiento que calcula las relaciones angulares entre las vistas disponibles de manera indirecta, sin necesidad de que haya información visual compartida entre todas ellas. La técnica descrita se puede clasificar como basada en imagen (image-based), dado que no precisa estimar la localización ni utiliza información 3D. El robot converge a la posición objetivo sin conocer la información métrica sobre la trayectoria seguida. Para algunas aplicaciones, como la evitación de obstáculos, puede ser necesario disponer de mayor información sobre el movimiento 3D realizado. Con esta idea en mente, presentamos un nuevo método de control visual basado en entradas sinusoidales. Las sinusoides son funciones con propiedades matemáticas bien conocidas y de variación suave, lo cual las hace adecuadas para su empleo en maniobras de aparcamiento de vehículos. A partir de las velocidades de variación sinusoidal que definimos en nuestro diseño, obtenemos las expresiones analíticas de la evolución de las variables de estado del robot. Además, basándonos en dichas expresiones, proponemos un método de control mediante realimentación del estado. La estimación del estado del robot se obtiene a partir del tensor trifocal 1D calculado entre la vista objetivo, la vista inicial y la vista actual del robot. Mediante este control sinusoidal, el robot queda alineado con la posición objetivo. En un segundo paso, efectuamos la corrección de la profundidad mediante una ley de control definida directamente en términos del tensor trifocal 1D. El funcionamiento de los dos controladores propuestos en el trabajo se ilustra mediante simulaciones, y con el objeto de respaldar su viabilidad se presentan análisis de estabilidad y resultados de simulaciones y de experimentos con imágenes reales.
000004966 521__ $$aMáster Universitario en Ingeniería de Sistemas e Informática
000004966 540__ $$aDerechos regulados por licencia Creative Commons
000004966 6531_ $$aRobótica móvil
000004966 6531_ $$aVisión por computador
000004966 6531_ $$aControl visual
000004966 700__ $$aSagüés Blázquiz, Carlos$$edir.
000004966 700__ $$aLópez Nicolás, Gonzalo$$edir.
000004966 7102_ $$aUniversidad de Zaragoza$$bInformática e Ingeniería de Sistemas$$cIngeniería de Sistemas y Automática
000004966 830__ $$aCPS
000004966 8560_ $$f428979@celes.unizar.es
000004966 8564_ $$s1743158$$uhttps://zaguan.unizar.es/record/4966/files/TAZ-TFM-2010-038_ANE.pdf$$zAnexos (eng)
000004966 8564_ $$s1936881$$uhttps://zaguan.unizar.es/record/4966/files/TAZ-TFM-2010-038.pdf$$yMemoria (eng)$$zMemoria (eng)
000004966 909CO $$ooai:zaguan.unizar.es:4966$$ptrabajos-fin-master$$pdriver
000004966 950__ $$a
000004966 980__ $$aTAZ$$bTFM$$cCPS