000061094 001__ 61094 000061094 005__ 20170510132216.0 000061094 037__ $$aTAZ-TFG-2016-4418 000061094 041__ $$aspa 000061094 1001_ $$aGuerrero Viu, Manuel 000061094 24200 $$aPeople detection for simulated prosthetic vision 000061094 24500 $$aDetección de personas para simulación de prótesis visual 000061094 260__ $$aZaragoza$$bUniversidad de Zaragoza$$c2016 000061094 506__ $$aby-nc-sa$$bCreative Commons$$c3.0$$uhttp://creativecommons.org/licenses/by-nc-sa/3.0/ 000061094 520__ $$aLas personas reciben la información del entorno que les rodea por medio de los sentidos. La vista es el sentido que más información aporta acerca de una escena y de los objetos ubicados en la misma. A través de la visión y el aprendizaje somos capaces de reconocer objetos, personas, etc, pudiendo así, interactuar con ellos. Sin embargo, algunas patologías pueden causar daños en los sistemas visuales, conduciendo incluso a la ceguera. En función del tipo de daño, existen investigaciones en curso para colocar una prótesis de visión biónica que, mediante una estimulación eléctrica en determinadas zonas del nervio óptico o del cortex cerebral, permiten la visualización de puntos de luz denominados fosfenos. Para la estimulación de los fosfenos, una de las posibilidades es la captura de información de la escena mediante una cámara. Las técnicas actuales de procesamiento de imagen que se aplican sobre las prótesis visuales son bastante limitadas. La introducción de técnicas avanzadas de visión por computador incluyendo información de profundidad puede provocar un punto de inflexión en la forma de interacción con el entorno de las personas operadas con estos novedosos implantes. En este proyecto se ha avanzado en el desarrollo de un simulador de prótesis visuales considerando nuevas técnicas de visión por computador para favorecer la interpretación del entorno. En particular, se ha desarrollado una aplicación para la detección de personas y su representación mediante fosfenos. Se ha partido de un sistema compuesto de un sensor de profundidad RGB-D, Kinect v2 y de un sistema de realidad virtual, Oculus DK2. Mediante técnicas de visión por computador se ha inferido una descripción articular de la persona y una descripción de la cara que incluye ojos, boca y estado de ánimo. Esta información es representada de manera icónica en el simulador de visión protésica para una mejor interpretación por parte del usuario. Además, se han realizado varias pruebas para poder evaluar diferentes tipos de representación, en función de los distintos mapas de fosfenos diseñados. Los resultados obtenidos han sido bastante satisfactorios, cumpliendo todas las previsiones realizadas. Uno de los objetivos más importantes ha sido la de realizar la representación mediante fosfenos proponiendo varios ejemplos que permitan una correcta interpretación por parte del usuario pese a disponer de una resolución reducida. 000061094 521__ $$aGraduado en Ingeniería Electrónica y Automática 000061094 540__ $$aDerechos regulados por licencia Creative Commons 000061094 700__ $$aBermúdez Cameo, Jesús$$edir. 000061094 700__ $$aGuerrero Campo, José Jesús$$edir. 000061094 7102_ $$aUniversidad de Zaragoza$$bInformática e Ingeniería de Sistemas$$cIngeniería de Sistemas y Automática 000061094 8560_ $$f557143@celes.unizar.es 000061094 8564_ $$s3403463$$uhttps://zaguan.unizar.es/record/61094/files/TAZ-TFG-2016-4418.pdf$$yMemoria (spa) 000061094 909CO $$ooai:zaguan.unizar.es:61094$$pdriver$$ptrabajos-fin-grado 000061094 950__ $$a 000061094 951__ $$adeposita:2017-05-10 000061094 980__ $$aTAZ$$bTFG$$cEINA