Integración de LLMs en la enseñanza de arquitectura de computadores con soporte de LMS.

Loading...
Thumbnail Image

Identifiers

Publication date

Reading date

Collaborators

Tutors

Editors

Journal Title

Journal ISSN

Volume Title

Publisher

Metrics

Google Scholar

Share

Research Projects

Organizational Units

Journal Issue

Department/Institute

Abstract

Este Trabajo de Fin de Grado presenta el desarrollo de un sistema automático de generación de feedback educativo centrado en ejercicios de programación en MATLAB, mediante el uso de modelos de lenguaje de gran tamaño (LLMs). El objetivo principal es proporcionar al profesorado una herramienta que facilite la corrección de entregas mediante comentarios personalizados, coherentes y adaptados a los errores más frecuentes del alumnado. Para ello, se ha construido un dataset de más de 2.900 ejemplos, que incluyen el enunciado del ejercicio, la solución del estudiante, su calificación, un conjunto de códigos de error y, como elemento clave, un ejemplo de feedback generado previamente mediante la API gratuita de Gemini. Este campo adicional ha sido fundamental para entrenar los modelos mediante aprendizaje supervisado. A partir de este corpus, se ha afinado el modelo Qwen2.5-Coder-3B-Instruct utilizando la técnica QLoRA, que permite realizar fine-tuning eficiente con recursos limitados. También se ha evaluado el modelo Phi-2 como alternativa ligera. Aunque los modelos entrenados ofrecen resultados pedagógicamente válidos y sorprendentes en muchos casos, el análisis comparativo revela que la calidad y consistencia del feedback generado mediante la API de Gemini sigue siendo superior. En consecuencia, se concluye que el modelo local resulta adecuado como prototipo experimental, pero que una solución basada en API representa, a día de hoy, una opción más robusta y fiable para su adopción en entornos reales de enseñanza. El sistema se complementa con una interfaz web desarrollada en FastAPI y React, que permite importar múltiples entregas en formato JSON, generar feedback de forma masiva o individual, revisar y editar los resultados, y almacenarlos en una base de datos MongoDB. Esta aplicación integra tanto la ejecución de modelos locales como la conexión con Gemini, proporcionando una experiencia fluida, personalizable y práctica para el usuario final. Para garantizar una instalación sencilla y la reproducibilidad del sistema en distintos entornos, toda la aplicación ha sido contenerizada mediante Docker y Docker Compose.

Description

Bibliographic citation

Endorsement

Review

Supplemented By

Referenced by

Creative Commons license

Except where otherwised noted, this item's license is described as Attribution-NonCommercial-NoDerivatives 4.0 International