Integración de LLMs en la enseñanza de arquitectura de computadores con soporte de LMS.
Loading...
Identifiers
Publication date
Reading date
Authors
Collaborators
Tutors
Editors
Journal Title
Journal ISSN
Volume Title
Publisher
Share
Center
Department/Institute
Abstract
Este Trabajo de Fin de Grado presenta el desarrollo de un sistema automático de
generación de feedback educativo centrado en ejercicios de programación en MATLAB,
mediante el uso de modelos de lenguaje de gran tamaño (LLMs). El objetivo principal es
proporcionar al profesorado una herramienta que facilite la corrección de entregas mediante
comentarios personalizados, coherentes y adaptados a los errores más frecuentes
del alumnado.
Para ello, se ha construido un dataset de más de 2.900 ejemplos, que incluyen el enunciado
del ejercicio, la solución del estudiante, su calificación, un conjunto de códigos de
error y, como elemento clave, un ejemplo de feedback generado previamente mediante
la API gratuita de Gemini. Este campo adicional ha sido fundamental para entrenar
los modelos mediante aprendizaje supervisado. A partir de este corpus, se ha afinado
el modelo Qwen2.5-Coder-3B-Instruct utilizando la técnica QLoRA, que permite realizar
fine-tuning eficiente con recursos limitados. También se ha evaluado el modelo Phi-2
como alternativa ligera.
Aunque los modelos entrenados ofrecen resultados pedagógicamente válidos y sorprendentes
en muchos casos, el análisis comparativo revela que la calidad y consistencia
del feedback generado mediante la API de Gemini sigue siendo superior. En consecuencia,
se concluye que el modelo local resulta adecuado como prototipo experimental, pero
que una solución basada en API representa, a día de hoy, una opción más robusta y fiable
para su adopción en entornos reales de enseñanza.
El sistema se complementa con una interfaz web desarrollada en FastAPI y React,
que permite importar múltiples entregas en formato JSON, generar feedback de forma
masiva o individual, revisar y editar los resultados, y almacenarlos en una base de
datos MongoDB. Esta aplicación integra tanto la ejecución de modelos locales como la
conexión con Gemini, proporcionando una experiencia fluida, personalizable y práctica
para el usuario final. Para garantizar una instalación sencilla y la reproducibilidad del
sistema en distintos entornos, toda la aplicación ha sido contenerizada mediante Docker
y Docker Compose.
Description
Bibliographic citation
Collections
Endorsement
Review
Supplemented By
Referenced by
Creative Commons license
Except where otherwised noted, this item's license is described as Attribution-NonCommercial-NoDerivatives 4.0 International










