Torres Contreras, Santiago PatricioLlivisaca Mejia, Mateo David2025-09-222025-09-222025-09-18https://dspace.ucuenca.edu.ec/handle/123456789/47402La Planificación de Expansión de Sistemas de Transmisión (PEST) es, desde el punto de vista matemático, un problema de optimización complejo y, en la práctica, una herramienta clave para planificar el crecimiento eficiente del Sistema Eléctrico de Potencia (SEP). Ante el constante aumento de la demanda y de la capacidad de generación, si no se resuelve el cuello de botella asociado a la transmisión, no puede garantizarse un funcionamiento adecuado del sistema. En esta investigación se aplica Aprendizaje por Refuerzo (RL) para resolver el PEST mediante tres enfoques: el uso de Aprendizaje Q (Q-learning), una metaheurística guiada por aprendizaje y aprendizaje por refuerzo profundo. En este marco, tanto el Q-learning como la metaheurística basada en RL aprenden en línea y utilizan ese conocimiento de forma localizada. Por otro lado, métodos de aprendizaje por refuerzo profundo, como Deep Q-Network (DQN) y REINFORCE, permiten aprender políticas generales reutilizables, aunque exigen una representación más elaborada del estado. Esto se logra modelando la red eléctrica como una red compleja y evaluando los nodos mediante métricas basadas en centralidades. Los resultados evidencian que el uso de RL en la metaheurística mejora la exploración del espacio de soluciones. En cuanto al enfoque con aprendizaje profundo, este primer acercamiento ofrece resultados prometedores: aunque en algunos casos no se alcanzan las topologías óptimas, se obtienen planes viables que pueden servir como soluciones iniciales en esquemas clásicos de optimización.Transmission Expansion Planning (TEP) is, from a mathematical point of view, a complex optimization problem and, in practice, a key tool for planning the efficient growth of the Electric Power System (EPS). With the constant increase in demand and generation capacity, if the transmission bottleneck is not solved, a proper operation of the system cannot be guaranteed. In this research, Reinforcement Learning (RL) is applied to solve the TEP through three approaches: the use of Q-learning, a learning-guided metaheuristic and deep reinforcement learning. In this framework, both Q-learning and RL-based metaheuristics learn online and use that knowledge locally. On the other hand, deep reinforcement learning methods, such as Deep Q-Network (DQN) and REINFORCE, allow reusable general policies to be learned, although they require a better representation of the state. This is achieved by modeling the power grid as a complex network and evaluating nodes using centrality-based metrics. The results show that the use of RL in the metaheuristic improves the exploration of the solution space. As for the deep learning approach, this first approach offers promising results: although in some cases optimal topologies are not reached, feasible plans are obtained that can serve as initial solutions in classical optimization schemes.application/pdf174 páginasspahttps://creativecommons.org/licenses/by-nc-nd/4.0Ingeniería eléctricaPlaneamiento eléctricoMetaheurísticaDecisión secuencialIngeniería EléctricaAplicación de aprendizaje por refuerzo en la planificación de la expansión de los sistemas de transmisiónAplicación de aprendizaje por refuerzo en la Planificación de la Expansión de los Sistemas de TransmisiónmasterThesisopenAccess