000085322 001__ 85322
000085322 005__ 20191118101532.0
000085322 037__ $$aTAZ-TFG-2019-2265
000085322 041__ $$aspa
000085322 1001_ $$aSantos Villafranca, María
000085322 24200 $$aVisual prosthesis simulator in 360º environments with virtual reality goggles
000085322 24500 $$aSimulador de prótesis visual en entornos 360º con gafas de realidad virtual
000085322 260__ $$aZaragoza$$bUniversidad de Zaragoza$$c2019
000085322 506__ $$aby-nc-sa$$bCreative Commons$$c3.0$$uhttp://creativecommons.org/licenses/by-nc-sa/3.0/
000085322 520__ $$aEl sentido del que más dependen las personas es la visión, la mayor parte de la información recibida es a través de éste sentido. Es muy importante en la vida cotidiana, se usa constantemente hasta en las tareas más sencillas, aquellas como reconocer objetos, personas, etc. Sin embargo, algunas patologías o enfermedades degenerativas pueden causar la ceguera total o parcial. Como alternativa para paliar los efectos de la ceguera, existen diferentes tipos de prótesis visuales que se pueden situar en la retina, la corteza visual o el nervio óptico en función del problema que cause la ceguera. Una de las posibilidades es que estas prótesis tengan una microcámara que capta la información visual que posteriormente es convertida a estimulaciones eléctricas lo que permite ver puntos de luz denominados fosfenos. Desgraciadamente, el campo de visión actual de estos dispositivos es en torno a los 20º por lo que se están investigando diferentes representaciones de mapas de fosfenos para mejorar la interacción de los pacientes con el entorno. En este proyecto se ha desarrollado un simulador de visión fosfénica que permite, mediante las gafas de realidad virtual Oculus Rift DK2, mostrar un entorno virtual de 360º en tiempo real a partir de imágenes panorámicas. Este simulador permite introducir dos tipos de representaciones de mapas de fosfenos, el método Downsampling y el método SIE-OMS. El primer método reduce la resolución de color y espacial de la imagen panorámica y la transforma a un mapa de fosfenos mientras que el segundo realiza una extracción de objetos mediante un algoritmo de aprendizaje automático y lo combina con el layout de la imagen. El código se ha implementado en leguaje C++, con la propia interfaz de programación de aplicaciones (API) de Oculus y las librerías OpenCV para el manejo de imágenes. Ha sido necesario realizar un cursillo previo para aprender a manejar las librerías. Los resultados obtenidos han sido bastante satisfactorios cumpliendo todos los objetivos planteados. El objetivo principal era crear el simulador de prótesis visual que pueda ser empleado para el avance de la investigación de este campo.<br />
000085322 521__ $$aGraduado en Ingeniería de Tecnologías Industriales
000085322 540__ $$aDerechos regulados por licencia Creative Commons
000085322 700__ $$aBermúdez Cameo, Jesús$$edir.
000085322 700__ $$aGuerrero Campo, José Jesús$$edir.
000085322 7102_ $$aUniversidad de Zaragoza$$bInformática e Ingeniería de Sistemas$$cIngeniería de Sistemas y Automática
000085322 8560_ $$f727328@celes.unizar.es
000085322 8564_ $$s2994005$$uhttps://zaguan.unizar.es/record/85322/files/TAZ-TFG-2019-2265.pdf$$yMemoria (spa)
000085322 909CO $$ooai:zaguan.unizar.es:85322$$pdriver$$ptrabajos-fin-grado
000085322 950__ $$a
000085322 951__ $$adeposita:2019-11-18
000085322 980__ $$aTAZ$$bTFG$$cEINA
000085322 999__ $$a20190626181742.CREATION_DATE