Resumen: Este trabajo de fin de grado consiste en observar los beneficios de utilizar un menor tamaño de palabra para la cuantificación de los pesos en una red neuronal convolucional, o en inglés Convolutional Neuronal Network, sin perder eficiencia y precisión. Por ello se ha decidido utilizar para su implementación una FPGA donde podemos trabajar a nivel de bit. En la mayoría de ocasiones que se encuentran propuestas de optimizaciones para redes neuronales artificiales se nos ofrece la posibilidad de reducir el número de filtros en las capas convolucionales o de neuronas en la capa fully conected, o de añadir más capas reduciendo su tamaño o viceversa. Pero rara vez se ha tratado de encontrar una solución a dichas optimizaciones mediante la reducción del tamaño de palabra para agilizar tiempos y costes de recursos. La red neuronal utilizada ha sido LeNet, que consta de siete capas de los tipos convolucional (Conv), relu, full conected (FC) y max pooling (max). Esta red junto con la base de datos MNIST se encarga de identificar en una imagen un número del 0 al 9. Para poder realizarlo, se han llevado a cabo una serie de procesos en los cuales se han utilizado herramientas como Caffe Ristretto, GuinnessMaster y Vivado HLS. La primera de ellas ha sido necesaria para poder entrenar la red y obtener los pesos cuantificados con el menor tamaño posible sin perder eficiencia en la red. Mediante GuinnessMaster se ha obtenido una plantilla de la red y sus capas en C sintetizable que nos ha permitido dar forma a dicha red. Por último, mediante Vivado HLS, hemos conseguido traducir a VHDL la red en C para poder introducirla en una FPGA y poder comprobar su tiempo de ejecución, área de silicio utilizada y parámetros de memoria que nos definirán lo útil que puede llegar a ser nuestra propuesta.