<?xml version="1.0" encoding="UTF-8"?>
<collection xmlns="http://www.loc.gov/MARC21/slim">
<record>
  <controlfield tag="001">125573</controlfield>
  <controlfield tag="005">20230420124056.0</controlfield>
  <datafield tag="037" ind1=" " ind2=" ">
    <subfield code="a">TAZ-TFG-2022-2267</subfield>
  </datafield>
  <datafield tag="041" ind1=" " ind2=" ">
    <subfield code="a">spa</subfield>
  </datafield>
  <datafield tag="100" ind1="1" ind2=" ">
    <subfield code="a">Vallejo Domínguez, Mateo</subfield>
  </datafield>
  <datafield tag="242" ind1="0" ind2="0">
    <subfield code="a">Saliency prediction in 360º videos with deep learning.</subfield>
  </datafield>
  <datafield tag="245" ind1="0" ind2="0">
    <subfield code="a">Predicción de saliencia en videos 360º mediante aprendizaje profundo.</subfield>
  </datafield>
  <datafield tag="260" ind1=" " ind2=" ">
    <subfield code="a">Zaragoza</subfield>
    <subfield code="b">Universidad de Zaragoza</subfield>
    <subfield code="c">2022</subfield>
  </datafield>
  <datafield tag="506" ind1=" " ind2=" ">
    <subfield code="a">by-nc-sa</subfield>
    <subfield code="b">Creative Commons</subfield>
    <subfield code="c">3.0</subfield>
    <subfield code="u">http://creativecommons.org/licenses/by-nc-sa/3.0/</subfield>
  </datafield>
  <datafield tag="520" ind1=" " ind2=" ">
    <subfield code="a">El desarrollo de tecnologías de realidad virtual está introduciendo múltiples avances en un gran número de industrias, como en el entretenimiento, la formación profesional y la medicina. Sin embargo, cómo diseñar y mostrar experiencias de forma atractiva, inmersiva, y cómoda para el usuario sigue siendo uno de los principales retos asociados a la realidad virtual, por lo que existe una necesidad de estudiar cómo los usuarios perciben y exploran estos entornos virtuales. Para modelar el comportamiento visual de los usuarios, tradicionalmente se ha recurrido al estudio y análisis de las regiones que tienden a llamar la atención de los usuarios, denominadas regiones salientes. El campo de investigación de predicción de saliencia se encarga de estudiar y predecir la atención del sistema visual humano modelando las probabilidades de recibir fijaciones oculares según los estímulos visuales recibidos. A la hora de tratar de predecir la saliencia de contenido de realidad virtual, los modelos de predicción de saliencia para pantallas tradiciones no se adaptan correctamente a visores de realidad virtual, ya que los usuarios solo ven una región limitada del contenido total y pueden decidir mirar en direcciones concretas. De manera similar, los modelos de predicción de saliencia para imágenes estáticas no se adaptan correctamente a vídeos, ya que información contenida en fotogramas previos podría afectar a la saliencia de fotogramas posteriores, como ocurre en el seguimiento de objetos en movimiento. Es por ello que para la tarea de predicción de saliencia en vídeos inmersivos 360º es necesario desarrollar modelos específicos adaptados a las condiciones de visualización de éstos.&lt;br />A lo largo del desarrollo del proyecto se ha implementado un modelo de red neuronal basado en técnicas actuales de aprendizaje profundo para abordar la tarea de predicción de saliencia en vídeos 360º, prestando especial atención a la dimensión temporal de los vídeos, que parece tener un papel fundamental en la atención visual humana. Comparando el modelo desarrollado con modelos actuales del estado del arte, se han obtenido resultados mejores en todas las métricas empleadas, a la vez que mostrando un comportamiento similar al que se puede ver en observadores reales, lo cual refleja la habilidad del modelo propuesto para imitar el comportamiento visual humano.&lt;br /></subfield>
  </datafield>
  <datafield tag="521" ind1=" " ind2=" ">
    <subfield code="a">Graduado en Ingeniería Informática</subfield>
  </datafield>
  <datafield tag="540" ind1=" " ind2=" ">
    <subfield code="a">Derechos regulados por licencia Creative Commons</subfield>
  </datafield>
  <datafield tag="700" ind1=" " ind2=" ">
    <subfield code="a">Bernal Berdún, Edurne</subfield>
    <subfield code="e">dir.</subfield>
  </datafield>
  <datafield tag="700" ind1=" " ind2=" ">
    <subfield code="a">Gutiérrez Pérez, Diego</subfield>
    <subfield code="e">dir.</subfield>
  </datafield>
  <datafield tag="710" ind1="2" ind2=" ">
    <subfield code="a">Universidad de Zaragoza</subfield>
    <subfield code="b">Informática e Ingeniería de Sistemas</subfield>
    <subfield code="c">Lenguajes y Sistemas Informáticos</subfield>
  </datafield>
  <datafield tag="856" ind1="0" ind2=" ">
    <subfield code="f">780029@unizar.es</subfield>
  </datafield>
  <datafield tag="856" ind1="4" ind2=" ">
    <subfield code="s">57677623</subfield>
    <subfield code="u">http://zaguan.unizar.es/record/125573/files/TAZ-TFG-2022-2267.pdf</subfield>
    <subfield code="y">Memoria (spa)</subfield>
  </datafield>
  <datafield tag="909" ind1="C" ind2="O">
    <subfield code="o">oai:zaguan.unizar.es:125573</subfield>
    <subfield code="p">driver</subfield>
    <subfield code="p">trabajos-fin-grado</subfield>
  </datafield>
  <datafield tag="950" ind1=" " ind2=" ">
    <subfield code="a"></subfield>
  </datafield>
  <datafield tag="980" ind1=" " ind2=" ">
    <subfield code="a">TAZ</subfield>
    <subfield code="b">TFG</subfield>
    <subfield code="c">EINA</subfield>
  </datafield>
  <datafield tag="999" ind1=" " ind2=" ">
    <subfield code="a">20220622140850.CREATION_DATE</subfield>
  </datafield>
  <datafield tag="951" ind1=" " ind2=" ">
    <subfield code="a">deposita:2023-04-20</subfield>
  </datafield>
</record>
</collection>