<?xml version="1.0" encoding="UTF-8"?>
<collection xmlns="http://www.loc.gov/MARC21/slim">
<record>
  <controlfield tag="001">94485</controlfield>
  <controlfield tag="005">20210520140813.0</controlfield>
  <datafield tag="037" ind1=" " ind2=" ">
    <subfield code="a">TESIS-2020-130</subfield>
  </datafield>
  <datafield tag="041" ind1=" " ind2=" ">
    <subfield code="a">eng</subfield>
  </datafield>
  <datafield tag="100" ind1="1" ind2=" ">
    <subfield code="a">Azagra Millán, Pablo</subfield>
  </datafield>
  <datafield tag="245" ind1="0" ind2="0">
    <subfield code="a">Learning from human-robot interaction</subfield>
  </datafield>
  <datafield tag="260" ind1=" " ind2=" ">
    <subfield code="a">Zaragoza</subfield>
    <subfield code="b">Universidad de Zaragoza, Prensas de la Universidad</subfield>
    <subfield code="c">2020</subfield>
  </datafield>
  <datafield tag="300" ind1=" " ind2=" ">
    <subfield code="a">130</subfield>
  </datafield>
  <datafield tag="490" ind1="0" ind2=" ">
    <subfield code="a">Tesis de la Universidad de Zaragoza</subfield>
    <subfield code="x">2254-7606</subfield>
    <subfield code="v">2020-130</subfield>
  </datafield>
  <datafield tag="500" ind1=" " ind2=" ">
    <subfield code="a">Presentado:  15 06 2020</subfield>
  </datafield>
  <datafield tag="502" ind1=" " ind2=" ">
    <subfield code="a">Tesis-Univ. Zaragoza, Informática e Ingeniería de Sistemas, 2020</subfield>
    <subfield code="b">Zaragoza, Universidad de Zaragoza</subfield>
    <subfield code="c">2020</subfield>
  </datafield>
  <datafield tag="520" ind1=" " ind2=" ">
    <subfield code="a">En los últimos años cada vez es más frecuente ver robots en los hogares. La robótica está cada vez más presente en muchos aspectos de nuestras vidas diarias, en aparatos de asistencia doméstica, coches autónomos o asistentes personales. La interacción entre estos robots asistentes y los usuarios es uno de los aspectos clave en la robótica de servicio. Esta interacción necesita ser cómoda e intuitiva para que sea efectiva su utilización. Estas interacciones con los usuarios son necesarias para que el robot aprenda y actualice de manera natural tanto su modelo del mundo como sus capacidades.  &lt;br />Dentro de los sistemas roboticos de servicio, hay muchos componentes que son necesarios para su buen funcionamiento. Esta tesis esta centrada en el sistema de percepción visual de dichos sistemas.&lt;br />Para los humanos la percepción visual es uno de los componentes más esenciales,  permitiendo tareas como reconocimiento de objetos u otras personas, o estimación de información 3D.&lt;br /> &lt;br />Los grandes logros obtenidos en los últimos años en tareas de reconocimiento automático utilizan los enfoques basados en aprendizaje automático, en particular técnicas de deep learning. La mayoría de estos trabajos actuales se centran en modelos entrenados 'a priori' en un conjunto de datos muy grandes. Sin embargo, estos modelos, aunque entrenados en una gran cantidad de datos, no pueden, en general, hacer frente a los retos que aparecen al tratar con  datos reales en entornos domésticos. Por ejemplo, es frecuente que se de el caso de tener nuevos objetos que no existían durante el entrenamiento de los modelos. Otro reto viene de la dispersión de los objetos, teniendo objetos que aparecen muy raramente y por lo tanto habia muy pocos, o ningún, ejemplos en los datos de entenamiento disponibles al crear el modelo.&lt;br />Esta tesis se ha desarrollado dentro del contexto del proyecto IGLU (Interactive Grounded Language Understanding). Dentro del proyecto y sus objetivos, el objetivo principal de esta Tesis doctoral es investigar métodos novedosos para que un robot aprenda de manera incremental mediante la interacción multimodal con el usuario.&lt;br />Desarrollando dicho objetivo principal, los principales trabajos desarrollados durante esta tesis han sido:&lt;br />-Crear un benchmark más adecuado para las tareas de aprendizaje mediante la interacción natural de usuario y robot. Por ejemplo, la mayoría de los datasets para la tarea de reconocimiento de objetos se centra en fotos de diferentes escenarios con múltiples clases por foto. Es necesario un dataset que combine interacción usuario robot con aprendizaje de objetos.&lt;br />-Mejorar sistemas existentes de aprendizaje de objetos y adecuarlos para aprendizaje desde la interacción multimodal humana. Los trabajos de detección de objetos se focalizan en detectar todos los objetos aprendidos en una imagen. Nuestro objetivo es usar la interacción para encontrar el objeto de referencia y aprenderlo incrementalmente.&lt;br />-Desarrollar métodos de aprendizaje incremental que se puedan utilizar en escenarios incrementales, p.e., la aparición de una nueva clase de objeto o cambios a lo largo del tiempo dentro de una clase objetos. Nuestro objetivo es diseñar un sistema que pueda aprender clases desde cero y que pueda actualizar los datos cuando estos aparecen.&lt;br />-Crear un completo prototipo para el aprendizaje incremental y multimodal usando la interacción humana-robot. Se necesita realizar la integración de los distintos métodos desarrollados como parte de los otros objetivos y evaluarlo.&lt;br /></subfield>
  </datafield>
  <datafield tag="506" ind1=" " ind2=" ">
    <subfield code="a">by-nc-sa</subfield>
    <subfield code="b">Creative Commons</subfield>
    <subfield code="c">3.0</subfield>
    <subfield code="u">http://creativecommons.org/licenses/by-nc-sa/3.0/es</subfield>
  </datafield>
  <datafield tag="520" ind1=" " ind2=" ">
    <subfield code="a">&lt;br /></subfield>
  </datafield>
  <datafield tag="521" ind1=" " ind2=" ">
    <subfield code="9">7100</subfield>
    <subfield code="a">Programa de Doctorado en Ingeniería de Sistemas e Informática</subfield>
  </datafield>
  <datafield tag="653" ind1="1" ind2=" ">
    <subfield code="a">vision artificial</subfield>
  </datafield>
  <datafield tag="653" ind1="1" ind2=" ">
    <subfield code="a">robotica</subfield>
  </datafield>
  <datafield tag="700" ind1=" " ind2=" ">
    <subfield code="a">Murillo Arnal, Ana Cristina </subfield>
    <subfield code="e">dir.</subfield>
  </datafield>
  <datafield tag="700" ind1=" " ind2=" ">
    <subfield code="a">Civera Sancho, Javier </subfield>
    <subfield code="e">dir.</subfield>
  </datafield>
  <datafield tag="710" ind1="2" ind2=" ">
    <subfield code="a">Universidad de Zaragoza</subfield>
    <subfield code="b">Informática e Ingeniería de Sistemas</subfield>
  </datafield>
  <datafield tag="830" ind1=" " ind2=" ">
    <subfield code="9">512</subfield>
  </datafield>
  <datafield tag="856" ind1="0" ind2=" ">
    <subfield code="f">tdr@unizar.es</subfield>
  </datafield>
  <datafield tag="856" ind1="4" ind2=" ">
    <subfield code="u">http://zaguan.unizar.es/record/94485/files/TESIS-2020-130.pdf</subfield>
    <subfield code="z">Texto completo (eng)</subfield>
  </datafield>
  <datafield tag="909" ind1="C" ind2="O">
    <subfield code="o">oai:zaguan.unizar.es:94485</subfield>
    <subfield code="p">driver</subfield>
    <subfield code="p">tesis</subfield>
  </datafield>
  <datafield tag="910" ind1="2" ind2=" ">
    <subfield code="a"></subfield>
    <subfield code="b">Informática e Ingeniería de Sistemas</subfield>
  </datafield>
  <datafield tag="980" ind1=" " ind2=" ">
    <subfield code="a">TESIS</subfield>
  </datafield>
</record>
</collection>