JavaScript is disabled for your browser. Some features of this site may not work without it.

    Listar

    Todo RIUMAComunidades & ColeccionesPor fecha de publicaciónAutoresTítulosMateriasTipo de publicaciónCentrosEsta colecciónPor fecha de publicaciónAutoresTítulosMateriasTipo de publicaciónCentros

    Mi cuenta

    AccederRegistro

    Estadísticas

    Ver Estadísticas de uso

    DE INTERÉS

    Datos de investigaciónReglamento de ciencia abierta de la UMAPolítica de RIUMAPolitica de datos de investigación en RIUMASHERPA/RoMEODulcinea
    Preguntas frecuentesManual de usoDerechos de autorContacto/Sugerencias
    Ver ítem 
    •   RIUMA Principal
    • Investigación
    • Arquitectura de Computadores - (AC)
    • AC - Contribuciones a congresos científicos
    • Ver ítem
    •   RIUMA Principal
    • Investigación
    • Arquitectura de Computadores - (AC)
    • AC - Contribuciones a congresos científicos
    • Ver ítem

    Memoria Transaccional Hardware en Memoria Local de GPU

    • Autor
      Villegas, Alejandro; Navarro, Ángeles; Asenjo-Plaza, RafaelAutoridad Universidad de Málaga; Plata-Gonzalez, Oscar GuillermoAutoridad Universidad de Málaga
    • Fecha
      2015-09-25
    • Palabras clave
      Arquitectura de computadores
    • Resumen
      Los aceleradores gráficos (GPUs) se han convertido en procesadores de prop ́osito general muy populares para el cómputo de aplicaciones que presen- tan un gran paralelismo de datos. Su modelo de ejecución SIMT (Single Instruction - Multiple Thread) y su jerarquía de memoria son piezas clave en la alta eficiencia de estas arquitecturas, que permiten el manejo de cientos o miles de hilos de ejecución. La jerarquía de memoria está dividida en dos espacios direccionables: Una memoria local, pequeña, rápida y visible por un subconjunto de los hilos en ejecución; y una memoria global, mayor, más lenta y visible por todos los hilos. Sin embargo, el modelo de programación SIMT no es eficiente cuando hay que sincronizar este desbordante número de hilos para garantizar exclusión mútua en una sección crítica. Utilizar atómicos para implementar cerrojos es problemático e ineficiente en este tipo de modelo de programación. La memoria transaccional (TM) ha sido propuesta como una alternativa más fiable y eficiente que los cerrojos para esta sincronización. Con TM, se permite el acceso especulativo a la sección crítica, registrando los accesos a memoria, deshaciendo los cambios de aquellos hilos que han tenido un conflicto y reiniciando su ejecución. En este trabajo presentamos una solución TM hardware que sincroniza aquellos hilos de ejecución que comparten la memoria local. En las pruebas realizadas, el uso de TM permite conseguir aceleraciones superiores a las soluciones basadas en cerrojos de grano grueso, así como igualar a aquellas basadas en cerrojos de grano fino, pero con un menor esfuerzo de programación.
    • URI
      http://hdl.handle.net/10630/10328
    • Compartir
      RefworksMendeley
    Mostrar el registro completo del ítem
    Ficheros
    paper_final.pdf (307.6Kb)
    Colecciones
    • AC - Contribuciones a congresos científicos

    Estadísticas

    Ver Estadísticas de uso
    Buscar en Dimension
    REPOSITORIO INSTITUCIONAL UNIVERSIDAD DE MÁLAGA
    REPOSITORIO INSTITUCIONAL UNIVERSIDAD DE MÁLAGA
     

     

    REPOSITORIO INSTITUCIONAL UNIVERSIDAD DE MÁLAGA
    REPOSITORIO INSTITUCIONAL UNIVERSIDAD DE MÁLAGA