RT Generic T1 Aprendizaje profundo aplicado a problemas de predicción de supervivencia en cáncer T2 Deep learning for cancer survival prediction A1 Cabello Toscano, María del Rocío K1 Cáncer - Estadísticas K1 Ingeniería biomédica K1 Informática - Trabajos Fin de Grado K1 Grado en Ingeniería de la Salud - Trabajos Fin de Grado AB El cáncer se cobró 18,1 millones de muertes a nivel mundial en 2018 y $87,8 billones para cuidados de salud durante elaño 2014 en EEUU. El tremendo impacto que esta enfermedad supone a nivel mundial, junto con la disponibilidad cadavez mayor de datos genómicos y transcriptómicos, han potenciado el interés en incorporar tecnologías de vanguardia,como es el Aprendizaje Profundo (AI), a la lucha contra el cáncer. AI ha destacado en los últimos años, particularmentepor el rendimiento de los modelos de Redes Neuronales Convolucionales (RNC) en reconocimiento de imágenes. Elproblema para el cual todos los modelos de este proyecto han sido entrenados es la predicción de supervivencia encáncer en un conjunto discreto de intervalos de tiempo a partir de datos de RNA-Seq, debido a la importancia queel análisis de la supervivencia tiene en cuanto al estudio de los tratamientos contra el cáncer y su mejora. La propianaturaleza de los datos biológicos trae consigo algunos inconvenientes cuando se usan para entrenar modelos deRNC. Estos datos normalmente est´an formados por un número mucho mayor de variables (M) que de observaciones(N). Esto se conoce como la maldición de la dimensionalidad (en inglés, the Curse of Dimensionality) (M>>N). Otroinconveniente es la falta, a priori, de información espacial entre las variables biológicas. RNC son un tipo de modeloconcreto de Aprendizaje Profundo que está especialmente pensado para el procesado de imágenes, en las cuales lospíxeles que las componen se relacionan con sus píxeles vecinos. Esta relación se usa en las RNC para extraer másconocimientos de las observaciones y tener, en consecuencia, un mejor rendimiento. En este proyecto se proponenalgunas estrategias para tratar de resolver estos dos inconvenientes. Con el objetivo de equipar a los perfiles de expresióngénica con estructura, cinco estrategias han sido propuestas, aplicadas y comparadas. ... YR 2020 FD 2020-01-13 LK https://hdl.handle.net/10630/19153 UL https://hdl.handle.net/10630/19153 LA eng NO Cancer claimed 18.1 millions deaths worldwide in 2018 and $87.8 billion for health-care in 2014 in USA. The tremendousimpact this disease supposes worldwide, combined with the increasingly availability of genomic and transcriptomic data,have aroused the interest on incorporating cutting edge technologies, such as Deep Learning (DL), in the fight againstcancer. DL has stand out in the last years, particularly because of the performance of the Convolutional Neural Networks(ConvNets) models in image recognition. The problem for which all models in this project have been trained is theprediction of cancer survival in a discrete set of time intervals, from RNA-Seq data, because of the importance survivalanalysis have in the study of cancer treatment and its improvement. The very nature of biological data brings someinconvenients when using it for training a ConvNet model. These data are usually composed by a much bigger numberof features (M) than observations (N). This is known as the Curse of Dimensionality (M>>N). Other inconvenient is thelack, a priori, of spatial information among biological features. ConvNet is a DL model which is specially designed forimage processing, in which the pixels composing them are related to its neighbour. This relation is used by ConvNetsto extract more knowledge from observations and have, in consequence, a better performance. This project proposessome strategies to try to solve these two inconvenients. In order to equip gene-expression-profiles with structure, fivestrategies have been proposed, applied and compared. Similarly, the transfer learning technique known as fine-tuninghave been applied to try to solve the inconvenient which we refer to as the Curse of Dimensionality. The comparison ofthese models, all trained with the same set of features and observations, has been made by calculating the ConcordanceIndex (C-index) metric for each of them. DS RIUMA. Repositorio Institucional de la Universidad de Málaga RD 19 ene 2026