Resumen: En este trabajo se presenta un modelo de aprendizaje profundo para convertir imágenes que muestran contenido dinámico, como vehículos o peatones, en imágenes estáticas realistas. Para ello, se utiliza el modelo CycleGAN, el cual realiza una traducción de una imagen perteneciente a un conjunto de datos de entrada a otra imagen que pertenece al conjunto de datos que se desea obtener. Además, el modelo CycleGAN permite aprender simultáneamente un mapeo inverso, es decir, la traducción de imágenes estáticas a imágenes dinámicas. Para ello, sobre el modelo CycleGAN se introducen diferentes implementaciones en el entrenamiento con el propósito de mejorar los resultados obtenidos. Una de estas mejoras conlleva la incorporación de máscaras con la información dinámica de la imagen en el entrenamiento, así como un reescalado de las funciones de pérdidas de la red en función del número de píxeles dinámicos. La introducción de técnicas utilizadas en esteganografía y de técnicas de detección de esquinas en imágenes suponen también una mejora de nuestras reconstrucciones. A la hora de validar nuestro trabajo se utiliza una red de segmentación semántica para obtener la información semántica del conjunto de imágenes traducidas. Con dicha información se realiza una evaluación para determinar la calidad de nuestras reconstrucciones.