RT Dissertation/Thesis T1 Planificación concurrente de comandos en GPU A1 López Albelda, Bernabé K1 Arquitectura de ordenadores K1 Ingeniería de ordenadores AB En esta tesis se analiza el problema de planificar un conjunto de tareas sobreuna GPU desde diferentes puntos de vista. Por una parte, se estudia el solapamientode comandos de transferencia de datos con comandos de ejecución dekernels con el objetivo de minimizar el tiempo de ejecución (makespan). Por otraparte se comparan distintos métodos que permiten la ejecución solapada de varioskernels sobre la misma GPU buscando alcanzar diferentes objetivos comomaximizar el rendimiento del sistema (system throughput), alcanzar la equidad(fairness) o garantizar una calidad de servicio (QoS).En el estudio sobre el solapamiento de comandos se busca identificar el ordende ejecución que resulte en un tiempo de procesamiento mínimo. Se aplican losconceptos de la teoría de planificación a este problema y se modela la ejecuciónconcurrente de tareas en una GPU como un problema de tipo Flow Shop. Además,se desarrolla una nueva estrategia llamada NEH-GPU que combina una heurísticapreviamente existente con un modelo de ejecución de tareas en GPU y se efectúanexperimentos para validar su eficacia y robustez.En la tesis también se aborda el problema de la ejecución concurrente dekernels (CKE) analizándolo desde el punto de vista software y hardware. En esteproblema se busca planificar un conjunto de kernels para su coejecución y de estaforma mejorar el uso de los recursos hardware. PB UMA Editorial YR 2023 FD 2023 LK https://hdl.handle.net/10630/28406 UL https://hdl.handle.net/10630/28406 LA spa NO Nuestro modelo software, denominado FlexSched, implementa políticas de planificacióndestinadas a maximizar el rendimiento en la ejecución de los kernels o asatisfacer requisitos de calidad de servicio (QoS) de la misma, como por ejemplo eltiempo máximo de respuesta de un kernel. Una ventaja importante de FlexSchedes que requiere solo modificaciones mínimas en el código del kernel y utiliza unprofiler on-line productivo para lograr una distribución eficiente de los recursosde la GPU.También se presenta un modelo hardware, HPSM (Hybrid Piecewise SlowdownModel), de planificación y ejecución concurrente de kernels en una GPU que permitemejorar el tiempo de ejecución de un conjunto de kernels y aplicar políticasorientadas al fairness. Este modelo puede predecir el progreso normalizado delos kernels y redistribuir la asignación de recursos para alcanzar los objetivosmarcados. DS RIUMA. Repositorio Institucional de la Universidad de Málaga RD 19 ene 2026