Mostrar el registro sencillo del ítem

dc.contributor.advisorMolina Tanco, Luis
dc.contributor.advisorRodríguez Fernández, Juan Antonio
dc.contributor.authorBandera-Rubio, Juan Pedro 
dc.contributor.otherTecnología Electrónicaes_ES
dc.date.accessioned2011-03-01T13:13:28Z
dc.date.available2011-03-01T13:13:28Z
dc.date.issued2010
dc.identifier.isbn9788497475761
dc.identifier.urihttp://hdl.handle.net/10630/4570
dc.description.abstractLa robótica ha evolucionado en las últimas décadas hacia agentes cada vez más complejos, versátiles y capaces. Así, empiezan a aparecer robots capaces de trabajar en entornos cotidianos, dinámicos e imprevisibles. Es importante que dichos robots puedan interactuar de forma intuitiva y eficaz con las personas que encuentren en dichos entornos. Surge así el concepto de robot social, una de cuyas características principales es la capacidad de aprender de los demás. De entre los diferentes mecanismos de aprendizaje, el aprendizaje por imitación es una de las opciones más adecuadas para permitir a una persona suministrar fácilmente nuevos conocimientos al robot. Como quiera que el refuerzo verbal de las demostraciones realizadas en este tipo de aprendizaje puede no estar presente, es interesante contar con un mecanismo de aprendizaje por imitación basado puramente en visión. En esta Tesis, se presenta un sistema que implementa esta funcionalidad, permitiendo a un robot aprender gestos por imitación. La arquitectura de este sistema, en sí misma, supone la contribución fundamental de este trabajo, pues presenta alternativas y novedades tanto en su estructura como en la implementación de sus componentes. La entrada sensorial del sistema está limitada a la información suministrada por un único par estéreo. A partir de estos datos, se extraen los movimientos de la parte superior del cuerpo de la persona usando un sistema propuesto en esta Tesis. Una vez estos movimientos han sido segmentados en gestos, son representados mediante una codificación basada en características tanto locales como globales. Dicha codificación mixta es otra de las aportaciones de esta Tesis. Una vez codificados, los gestos percibidos son comparados con el repertorio de gestos aprendidos por el robot. Las características locales se comparan utilizando algoritmos de programación dinámica, y los resultados obtenidos se refuerzan con la comparación de las características globales. Los resultados de estas comparaciones son utilizados por un componente de aprendizaje para valorar si se debe cambiar o no el repertorio de gestos aprendidos. Para solventar situaciones confusas, un cierto grado de supervisión por parte del usuario humano puede ser requerido. Es importante destacar que todo el proceso anterior es independiente de las habilidades motoras del robot, lo que supone una importante variación de esta arquitectura frente a otras propuestas. Como consecuencia, las características físicas del robot no limitan la percepción, con lo que los movimientos de la persona que realiza las demostraciones pueden codificarse, reconocerse y aprenderse de manera más precisa. Sólo en aquellos casos en que se requiera que el robot imite físicamente los movimientos percibidos o aprendidos interviene el último módulo de la arquitectura, que traduce los gestos del espacio de movimientos de la persona al del robot, usando una estrategia combinadaes_ES
dc.language.isoenges_ES
dc.publisherUniversidad de Málaga, Servicio de Publicacioneses_ES
dc.rightsinfo:eu-repo/semantics/openAccess
dc.subjectAutómatas - Tesis doctoraleses_ES
dc.subjectAprendizaje automático (Inteligencia artificial) - Tesis doctoraleses_ES
dc.titleVision-based gesture recognition in a robot learning by imitation frameworkes_ES
dc.typeinfo:eu-repo/semantics/doctoralThesises_ES


Ficheros en el ítem

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem