Resumen: Este trabajo busca profundizar en la conexión que hay entre la teoría de juegos y el campo de la inteligencia artificial. Nos centraremos en la aplicación del valor de Shapley en el campo del machine learning, explorando tanto sus fundamentos teóricos como sus aplicaciones prácticas. A lo largo de los tres primeros capítulos, se establecen las bases conceptuales, se detallan métodos y enfoques específicos, y se presentan estudios de caso que ilustran la relevancia del valor de Shapley en la inteligencia artificial. Además, se incluye un análisis de datos de la Liga Española de Fútbol como un ejemplo práctico para reforzar y demostrar la utilidad de los conceptos teóricos desarrollados. El primer capítulo se presentan los conceptos fundamentales de la teoría de juegos y la inteligencia artificial, destacando la importancia de la explicabilidad en los modelos de machine learning. La teoría de juegos, iniciada en 1944 por Von Neumann y Morgenstern, se basa en investigaciones previas de Zermelo y Borel, analizando las decisiones estratégicas en situaciones con reglas y racionalidad establecidas. Se abordan aspectos clave de la teoría de juegos, incluyendo definiciones y soluciones preliminares en juegos de N jugadores, con énfasis en el valor de Shapley para distribuir equitativamente ganancias o costos.En cuanto a la inteligencia artificial (IA) y el machine learning (ML), surgieron en respuesta al crecimiento de la generación de datos. La IA busca automatizar tareas complejas y mejorar la eficiencia en diversas aplicaciones, mientras que el ML se centra en desarrollar algoritmos que permiten a las computadoras aprender de conjuntos de datos, facilitando la predicción o clasificación. La teoría de la probabilidad y estadística desempeña un papel crucial en el ML, proporcionando modelos como la regresión lineal y logística, junto con herramientas para evaluar la calidad de los resultados. Se exploran diferentes enfoques de aprendizaje automático, destacando la importancia de la explicabilidad en la IA para comprender y confiar en los resultados obtenidos. El segundo capítulo profundiza en la aplicación del valor de Shapley para interpretar modelos de machine learning, con un enfoque especial en los modelos de regresión. Se describe cómo el valor de Shapley puede proporcionar tanto una visión global del modelo como una evaluación individual de las variables. En términos de modelos de regresión, se exploran sus fundamentos, destacando los conceptos clave como las variables predictoras, las variables respuesta, y los coeficientes de regresión. También se explican los tipos de modelos de regresión, tanto lineales como no lineales, y se detallan ejemplos específicos como la regresión lineal múltiple y la regresión logística. Además, el capítulo aborda los métodos para calcular el valor de Shapley, resaltando técnicas como SHAP (SHapley Additive exPlanations), que permiten una interpretación más eficiente de las predicciones de los modelos. También se discuten enfoques computacionalmente avanzados como Kernel SHAP, que utiliza técnicas de estimación kernel para aproximar el valor de Shapley; Tree SHAP, diseñado específicamente para modelos basados en árboles de decisión; y FastSHAP, un modelo entrenado en el cálculo de los valores de Shapley. Además, se exploran otro método agnóstico como LIME para la interpretación de modelos de machine learning. El tercer capítulo presenta un estudio de caso en el que se aplica el algoritmo de Shapley al análisis de la Liga Española de Fútbol. Se detalla la metodología para la recolección y análisis de datos, y se realiza un análisis exhaustivo de los resultados obtenidos. Este caso de estudio demuestra cómo el valor de Shapley puede proporcionar una comprensión más profunda del rendimiento de los equipos. Se incluyen dos apéndices. En el primero, se presentan las demostraciones que están pendientes. El segundo apéndice, detalla obtención del conjunto de datos, el análisis del modelo y la implementación del uso de Shap, incluyendo el código correspondiente. En conclusión, este trabajo demuestra la importancia del valor de Shapley en la interpretación de modelos de machine learning y su aplicación en diversos dominios. A través de ejemplos teóricos y aplicaciones prácticas, se subraya cómo estas herramientas pueden mejorar la transparencia y la eficacia en la toma de decisiones basadas en inteligencia artificial.