Mostrar el registro sencillo del ítem

dc.contributor.advisorJiménez-Cordero, María Asunción 
dc.contributor.authorValenzuela González, Gema
dc.date.accessioned2022-09-29T08:43:37Z
dc.date.available2022-09-29T08:43:37Z
dc.date.created2022-09-29
dc.date.issued2022-09-19
dc.identifier.urihttps://hdl.handle.net/10630/25147
dc.description.abstractEl aprendizaje supervisado se centra en el desarrollo, a partir de un conjunto de datos conocido, de un modelo matemático capaz de predecir el valor correspondiente de un nuevo dato. Estudiaremos la construcción de dichos modelos utilizando el concepto de vector soporte. En el Capítulo 1, introduciremos los conceptos básicos del aprendizaje supervisado, y la notación que utilizaremos a lo largo del trabajo. Analizamos las tareas de clasificación, regresión y detección de outliers o valores atípicos. El Capítulo 2 se centra en la clasificación binaria. Analizaremos el desarrollo teórico de la metodología conocida como Máquinas de Vectores Soporte, usualmente llamada Support Vector Machines (SVM) por su nombre en inglés. El método SVM consiste en encontrar un hiperplano lineal de separación. Si los datos son perfectamente separables a través de una función lineal, entonces hablamos del SVM con margen duro. Se permite que haya algunos errores en la clasificación debido a que los datos no se han podido separar perfectamente por una función lineal. En ese caso, hablaremos de SVM con margen blando. Por último, tenemos el caso en el que los datos no pueden ser separados por una función lineal. Por ello, transformamos los datos de entrada para trasladarlos a un espacio de dimensión superior donde sí pueden ser separados linealmente. Para ello utilizaremos las denominadas funciones kernels. En el Capítulo 3, tratamos dos extensiones del método SVM: el algoritmo SVR (del inglés Support Vector Regression) para resolver problemas de regresión, y la metodología SVDD (del inglés Support Vector Data Description) para detectar outliers. Análogamente al algoritmo de SVM, en ambos casos analizaremos la versión lineal y no lineal. En el Capítulo 4, realizaremos varios experimentos computacionales en los que analizaremos cada uno de los métodos vistos en los capítulos anteriores. En el Capítulo 5, resumiremos las conclusiones de este trabajo.es_ES
dc.language.isospaes_ES
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacional*
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/*
dc.subjectGrado en Matemáticas - Trabajos Fin de Gradoes_ES
dc.subjectMatemáticas - Trabajos Fin de Gradoes_ES
dc.subjectAnálisis vectoriales_ES
dc.subjectKernel, Funciones dees_ES
dc.subject.otherClasificaciónes_ES
dc.subject.otherRegresiónes_ES
dc.subject.otherDetección de outlierses_ES
dc.subject.otherVectores soportees_ES
dc.subject.otherAprendizaje supervisadoes_ES
dc.titleAprendizaje Supervisado: Métodos, Propiedades y Aplicacioneses_ES
dc.title.alternativeSupervised Learning: Methods, Properties and Applicationses_ES
dc.typebachelor thesises_ES
dc.centroFacultad de Cienciases_ES
dc.departamentoAnálisis Matemático, Estadística e Investigación Operativa y Matemática Aplicada
dc.rights.accessRightsopen accesses_ES


Ficheros en el ítem

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem