- -

Generación de un Módulo Optimizado de Inferencia en FPGAs con HLS

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Generación de un Módulo Optimizado de Inferencia en FPGAs con HLS

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor Robles Martínez, Antonio es_ES
dc.contributor.advisor Flich Cardo, José es_ES
dc.contributor.advisor Hernández Luz, Carles es_ES
dc.contributor.author Medina Chaveli, Laura es_ES
dc.date.accessioned 2021-12-13T10:13:21Z
dc.date.available 2021-12-13T10:13:21Z
dc.date.created 2021-09-24
dc.date.issued 2021-12-13 es_ES
dc.identifier.uri http://hdl.handle.net/10251/178237
dc.description.abstract [ES] Las FPGAs (field-programmable gate array) pueden ser utilizadas para la inferencia de modelos de Redes Neuronales en sistemas embebidos, dado que este tipo de dispositivo presenta una alta eficiencia energética y un alto rendimiento. Asimismo, la posibilidad de diseñar hardware mediante High-level synthesis (HLS) ha disminuido la cantidad de esfuerzo necesario para el desarrollo de código para FPGAs. Por otra parte, existen escenarios en los cuales no se pueda realizar la inferencia completa sobre FPGAs, necesitando un dispositivo CPU para la ejecución de las partes no soportadas. En este trabajo, se ha utilizado el acelerador HLSinf. HLSinf es una implementación de HLS de código abierto de aceleradores personalizados para procesos de inferencia de Redes Neuronales sobre dispositivos FPGA. Además, en este proyecto, se han desarrollado nuevos módulos dentro de este acelerador. Asimismo, se ha integrado el acelerador con la libreria EDDL (European Distributed Deep Learning library), la cual permite la ejecución de modelos sobre varios dispositivos. es_ES
dc.description.abstract [CA] Les FPGAs (field-programmable gate array) poden ser utilitzades per a la inferència de models de Xarxes Neuronals en sistemes encastats, donat que aquest tipus de disposi- tiu presenten una alta eficiència energètica i un alt rendiment. Així mateix, la possibilitat de dissenyar maquinari mitjançant High-level synthesis (HLS) ha disminuït la quantitat d’esforç necessari per al desenvolupament de codi per a PGAs. D’altra banda, hi ha escenaris en els quals no es posible realitzar la inferència comple- ta sobre FPGAs, necessitant un dispositiu CPU per a l’execució de les parts no soportades. En aquest treball, s’ha utilitzat l’accelerador HLSinf. HLSinf és una implementació en HLS de codi obert d’acceleradors personalitzats per a processos d’inferència de Xar- xes Neuronals sobre dispositius FPGAs. A més, en aquest projecte, s’han desenvolupat nous mòduls dins d’aquest accelerador. Així mateix, s’ha integrat l’accelerador amb la llibreria EDDL (European Distributed Deep Learning library), la qual permet l’execució de models sobre diversos dispositius. es_ES
dc.description.abstract [EN] FPGAs (field-programmable gate array) can be used for the inference of Neural Networks models in embedded systems since this type of device presents high energy efficiency and high performance. Moreover, the ability to design hardware using High-level synthesis (HLS) has decreased the amount of effort required to develop code for FPGAs. On the other hand, there are scenarios in which the complete inference on FPGAs cannot be performed, requiring a CPU device to execute the unsupported parts. In this work, the accelerator HLSinf has been used. HLSinf is an open-source HLS implementation of custom accelerators for DeepLearning inference processes. on FPGA devices. Furthermore, in this project, new modules have been developed within this accelerator. Moreover, the accelerator has been integrated with the EDDL (European Distributed Deep Learning library) library, which allows the execution of models on various devices. es_ES
dc.format.extent 71 es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reconocimiento (by) es_ES
dc.subject Xarxes Neuronals es_ES
dc.subject Deep Learning library es_ES
dc.subject European Distributed Deep Learning library (EDDL) es_ES
dc.subject High-level synthesis (HLS) es_ES
dc.subject Field-programmable gate array (FPGA) es_ES
dc.subject Redes Neuronales es_ES
dc.subject Neuronal Networks es_ES
dc.subject.classification ARQUITECTURA Y TECNOLOGIA DE COMPUTADORES es_ES
dc.subject.other Máster Universitario en Computación en la Nube y de Altas Prestaciones / Cloud and High-Performance Computing-Màster Universitari en Computació en Núvol i d'Altes Prestacions / Cloud and High-Performance Computing es_ES
dc.title Generación de un Módulo Optimizado de Inferencia en FPGAs con HLS es_ES
dc.type Tesis de máster es_ES
dc.rights.accessRights Abierto es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Informática de Sistemas y Computadores - Departament d'Informàtica de Sistemes i Computadors es_ES
dc.description.bibliographicCitation Medina Chaveli, L. (2021). Generación de un Módulo Optimizado de Inferencia en FPGAs con HLS. Universitat Politècnica de València. http://hdl.handle.net/10251/178237 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\143774 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem