<?xml version="1.0" encoding="UTF-8"?>
<collection xmlns="http://www.loc.gov/MARC21/slim">
<record>
  <controlfield tag="001">164693</controlfield>
  <controlfield tag="005">20251203145553.0</controlfield>
  <datafield tag="037" ind1=" " ind2=" ">
    <subfield code="a">TAZ-TFG-2025-3353</subfield>
  </datafield>
  <datafield tag="041" ind1=" " ind2=" ">
    <subfield code="a">spa</subfield>
  </datafield>
  <datafield tag="100" ind1="1" ind2=" ">
    <subfield code="a">Polo Llimós, David</subfield>
  </datafield>
  <datafield tag="242" ind1="0" ind2="0">
    <subfield code="a">Database Generation through Body Key Point Estimation and Pose Detection by Artificial Intelligence Algorithms</subfield>
  </datafield>
  <datafield tag="245" ind1="0" ind2="0">
    <subfield code="a">Generación de Base de Datos mediante la Estimación de Puntos Clave Corporales y Detección de Pose por Algoritmos de Inteligencia Artificial</subfield>
  </datafield>
  <datafield tag="260" ind1=" " ind2=" ">
    <subfield code="a">Zaragoza</subfield>
    <subfield code="b">Universidad de Zaragoza</subfield>
    <subfield code="c">2025</subfield>
  </datafield>
  <datafield tag="506" ind1=" " ind2=" ">
    <subfield code="a">by-nc-sa</subfield>
    <subfield code="b">Creative Commons</subfield>
    <subfield code="c">3.0</subfield>
    <subfield code="u">http://creativecommons.org/licenses/by-nc-sa/3.0/</subfield>
  </datafield>
  <datafield tag="520" ind1=" " ind2=" ">
    <subfield code="a">Este trabajo explora el desarrollo de un conjunto de datos para la estimación de la pose humana en 3D, combinando grabaciones de vídeo con datos de sensores inerciales (IMUs) del traje Rokoko Smartsuit Pro II. A pesar de los avances en la estimación de pose en 3D, la mayoría de los conjuntos de datos públicos se basan en sistemas ópticos costosos y en entornos controlados, lo que limita su accesibilidad y aplicabilidad en entornos reales. El objetivo de este trabajo es la construcción de un conjunto de datos que combina datos de IMUs y vídeo, capturando 14 acciones cotidianas realizadas por 8 sujetos en entornos exteriores. El conjunto está estructurado para ser aplicado a modelos de aprendizaje profundo para la estimación de pose humana 3D. Para garantizar la calidad de los datos, se diseñó una estrategia de grabación multicámara sincronizada, junto con procedimientos específicos para alinear temporalmente las secuencias de vídeo y los registros inerciales. Los modelos del estado del arte MediaPipe, MHFormer y MotionBERT fueron evaluados en el conjunto de datos desarrollado usando la métrica PA-MPJPE. En esta evaluación se observaron comportamientos anómalos de los modelos en secuencias con oclusiones o posturas complejas. Este proyecto aporta un conjunto de datos valioso y reproducible que impulsa la estimación de pose en 3D en escenarios reales y apoya la investigación en salud, biomecánica e interacción persona-computadora.&lt;br />&lt;br /></subfield>
  </datafield>
  <datafield tag="521" ind1=" " ind2=" ">
    <subfield code="a">Graduado en Ingeniería de Datos en Procesos Industriales</subfield>
  </datafield>
  <datafield tag="540" ind1=" " ind2=" ">
    <subfield code="a">Derechos regulados por licencia Creative Commons</subfield>
  </datafield>
  <datafield tag="856" ind1="0" ind2=" ">
    <subfield code="f">843700@celes.unizar.es</subfield>
  </datafield>
  <datafield tag="856" ind1="4" ind2=" ">
    <subfield code="s">350899</subfield>
    <subfield code="u">http://zaguan.unizar.es/record/164693/files/TAZ-TFG-2025-3353_ANE.pdf</subfield>
    <subfield code="y">Anexos (spa)</subfield>
  </datafield>
  <datafield tag="856" ind1="4" ind2=" ">
    <subfield code="s">3642621</subfield>
    <subfield code="u">http://zaguan.unizar.es/record/164693/files/TAZ-TFG-2025-3353.pdf</subfield>
    <subfield code="y">Memoria (spa)</subfield>
  </datafield>
  <datafield tag="909" ind1="C" ind2="O">
    <subfield code="o">oai:zaguan.unizar.es:164693</subfield>
    <subfield code="p">driver</subfield>
    <subfield code="p">trabajos-fin-grado</subfield>
  </datafield>
  <datafield tag="950" ind1=" " ind2=" ">
    <subfield code="a"></subfield>
  </datafield>
  <datafield tag="691" ind1=" " ind2=" ">
    <subfield code="a">3 9 13</subfield>
  </datafield>
  <datafield tag="692" ind1=" " ind2=" ">
    <subfield code="a">Objetivo 3: ODS 3: Salud y bienestar. La estimación de pose en 3D tiene aplicaciones directas en el ámbito de la salud y la biomecánica, facilitando el análisis del movimiento en estudios clínicos y deportivos. Objetivo 9: Industria, innovación e infraestructura. El trabajo propone una alternativa más accesible y económica a los métodos tradicionales de captura de movimiento basados en sistemas ópticos. Objetivo 12: Producción y consumo responsables. Al utilizar sensores inerciales en lugar de cámaras y sistemas de captura ópticos costosos, se reduce el consumo de materiales y energía en la implementación de laboratorios de captura de movimiento. Esto permite democratizar el acceso a la tecnología sin generar un impacto ambiental significativo. Objetivo 13: Acción por el clima: La reducción del uso de infraestructuras complejas y energéticamente demandantes en la investigación y desarrollo de modelos de estimación de pose contribuye a disminuir la huella de carbono.</subfield>
  </datafield>
  <datafield tag="700" ind1=" " ind2=" ">
    <subfield code="a">Aznar Gimeno, Rocío</subfield>
    <subfield code="e">dir.</subfield>
  </datafield>
  <datafield tag="700" ind1=" " ind2=" ">
    <subfield code="a">Pérez Lázaro, David</subfield>
    <subfield code="e">dir.</subfield>
  </datafield>
  <datafield tag="710" ind1="2" ind2=" ">
    <subfield code="a">Universidad de Zaragoza</subfield>
    <subfield code="b"> </subfield>
    <subfield code="c"></subfield>
  </datafield>
  <datafield tag="980" ind1=" " ind2=" ">
    <subfield code="a">TAZ</subfield>
    <subfield code="b">TFG</subfield>
    <subfield code="c">ALM</subfield>
  </datafield>
  <datafield tag="999" ind1=" " ind2=" ">
    <subfield code="a">20250701204204.CREATION_DATE</subfield>
  </datafield>
  <datafield tag="951" ind1=" " ind2=" ">
    <subfield code="a">deposita:2025-12-03</subfield>
  </datafield>
</record>
</collection>