JavaScript is disabled for your browser. Some features of this site may not work without it.

    Listar

    Todo RIUMAComunidades & ColeccionesPor fecha de publicaciónAutoresTítulosMateriasTipo de publicaciónCentrosEsta colecciónPor fecha de publicaciónAutoresTítulosMateriasTipo de publicaciónCentros

    Mi cuenta

    AccederRegistro

    Estadísticas

    Ver Estadísticas de uso

    DE INTERÉS

    Datos de investigaciónReglamento de ciencia abierta de la UMAPolítica de RIUMAPolitica de datos de investigación en RIUMASHERPA/RoMEODulcinea
    Preguntas frecuentesManual de usoDerechos de autorContacto/Sugerencias
    Ver ítem 
    •   RIUMA Principal
    • Investigación
    • Lenguajes y Ciencias de la Computación - (LCC)
    • LCC - Artículos
    • Ver ítem
    •   RIUMA Principal
    • Investigación
    • Lenguajes y Ciencias de la Computación - (LCC)
    • LCC - Artículos
    • Ver ítem

    An open source framework based on Kafka-ML for Distributed DNN inference over the Cloud-to-Things continuum

    • Autor
      Torres, Daniel R.; Martin-Fernandez, CristianAutoridad Universidad de Málaga; Díaz, Manuel; Rubio-Muñoz, BartolomeAutoridad Universidad de Málaga
    • Fecha
      2021-06-16
    • Editorial/Editor
      Elsevier
    • Palabras clave
      Computación; Inteligencia artificial
    • Resumen
      The current dependency of Artificial Intelligence (AI) systems on Cloud computing implies higher transmission latency and bandwidth consumption. Moreover, it challenges the real-time monitoring of physical objects, e.g., the Internet of Things (IoT). Edge systems bring computing closer to end devices and support time-sensitive applications. However, Edge systems struggle with state-of-the-art Deep Neural Networks (DNN) due to computational resource limitations. This paper proposes a technology framework that combines the Edge-Cloud architecture concept with BranchyNet advantages to support fault-tolerant and low-latency AI predictions. The implementation and evaluation of this framework allow assessing the benefits of running Distributed DNN (DDNN) in the Cloud-to-Things continuum. Compared to a Cloud-only deployment, the results obtained show an improvement of 45.34% in the response time. Furthermore, this proposal presents an extension for Kafka-ML that reduces rigidness over the Cloud-to-Things continuum managing and deploying DDNN.
    • URI
      https://hdl.handle.net/10630/22511
    • DOI
      https://dx.doi.org/https://doi.org/10.1016/j.sysarc.2021.102214
    • Compartir
      RefworksMendeley
    Mostrar el registro completo del ítem
    Ficheros
    Paper_JSA_2021.pdf (1.156Mb)
    Colecciones
    • LCC - Artículos

    Estadísticas

    Ver Estadísticas de uso
    REPOSITORIO INSTITUCIONAL UNIVERSIDAD DE MÁLAGA
    REPOSITORIO INSTITUCIONAL UNIVERSIDAD DE MÁLAGA
     

     

    REPOSITORIO INSTITUCIONAL UNIVERSIDAD DE MÁLAGA
    REPOSITORIO INSTITUCIONAL UNIVERSIDAD DE MÁLAGA