Mostrar el registro sencillo del ítem
dc.contributor.advisor | Alonso Jordá, Pedro | es_ES |
dc.contributor.advisor | Castelló Gimeno, Adrián | es_ES |
dc.contributor.author | Alaejos López, Guillermo | es_ES |
dc.date.accessioned | 2022-04-27T07:59:16Z | |
dc.date.available | 2022-04-27T07:59:16Z | |
dc.date.created | 2022-04-05 | |
dc.date.issued | 2022-04-27 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10251/182168 | |
dc.description.abstract | [ES] El auge en la aplicación de redes neuronales profundas (RNPs) en una gran variedad de campos científicos ha propiciado su uso no solo en servidores de cómputo sino también en dispositivos de bajo consumo. Los cálculos que se realizan tanto en entrenamiento como en inferencia de las RNPs se descomponen en núcleos de álgebra lineal y se extraen de bibliotecas especializadas como Intel MKL, BLIS, etc. Sin embargo, la memoria requerida por estas bibliotecas puede exceder de la capacidad máxima de estos pequeños dispositivos. Además, la gran variedad de hardware de bajo consumo hace prácticamente imposible contar con núcleos de cómputo optimizados para cada modelo. Una opción para reducir el coste de generación y mantenimiento de estas bibliotecas es la utilización de generadores de código automáticos como Apache TVM. Estas herramientas permiten desarrollar un solo código común para todos los dispositivos y posteriormente generar el código ensamblador para cada uno. Además, con TVM solamente se debe generar los núcleos necesarios para un modelo de RNP concreto evitando utilizar memoria del dispositivo con funcionalidad que no se utiliza para cada caso. En este proyecto se pretende generar núcleos computacionales para distintas arquitecturas de forma automática utilizando Apache TVM con el objetivo de reproducir las necesidades de los RNPs. | es_ES |
dc.description.abstract | [EN] The boom in the application of Deep Neural Networis (DNNs) in a wide variety of scientific fields has led to their use not only in compute-intensive servers but also in low-power devices. Many of the computations performed m RNPs, both in training and inference, are decomposed into linear algebra kernels and extracted from specialised libraries such as Intel Mkl or BLIS. However, the amount of memory required by these libraries can exceed the maximum capacity of these small devices. In addition, the wide variety of low-power hardware makes it virtually impossible to have optimised compute cores for each modeL One option to reduce the cost of generating and maintaming these libraries is the use of automatic code generators such as Apache TVM. These tools allow you to generate a single common code for all devices and then ,generate the assembly code for each device. With TVM, only the cores needed for a specific RNP model must be generated, avoiding the use of device memory with functionality that is not going to be used. This project aims to generate optimised computational kernels for different'architectures automatically using Apache TVM with the objective of reproducing the needs of RNP. | es_ES |
dc.format.extent | 50 | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reserva de todos los derechos | es_ES |
dc.subject | Intel architecture | es_ES |
dc.subject | Numerical linear algebra | es_ES |
dc.subject | Reduced instruction set computer (RISC) | es_ES |
dc.subject | BLAS-like Library Instantiation Software (BLIS) | es_ES |
dc.subject | Basic linear algebra subprograms (BLAS) | es_ES |
dc.subject | Apache TVM | es_ES |
dc.subject | Redes neuronales profundas (RNP) | es_ES |
dc.subject | RISC-V | es_ES |
dc.subject | ARM | es_ES |
dc.subject | Intrinsics | es_ES |
dc.subject | Álgebra Lineal Numérica | es_ES |
dc.subject.classification | CIENCIAS DE LA COMPUTACION E INTELIGENCIA ARTIFICIAL | es_ES |
dc.subject.classification | ARQUITECTURA Y TECNOLOGIA DE COMPUTADORES | es_ES |
dc.subject.other | Máster Universitario en Computación en la Nube y de Altas Prestaciones / Cloud and High-Performance Computing-Màster Universitari en Computació en Núvol i d'Altes Prestacions / Cloud and High-Performance Computing | es_ES |
dc.title | Generación automática de núcleos computacionales para redes neuronales | es_ES |
dc.type | Tesis de máster | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació | es_ES |
dc.description.bibliographicCitation | Alaejos López, G. (2022). Generación automática de núcleos computacionales para redes neuronales. Universitat Politècnica de València. http://hdl.handle.net/10251/182168 | es_ES |
dc.description.accrualMethod | TFGM | es_ES |
dc.relation.pasarela | TFGM\147372 | es_ES |