Mostrar el registro sencillo del ítem
dc.contributor.advisor | Alonso Jordá, Pedro | es_ES |
dc.contributor.advisor | Castelló Gimeno, Adrián | es_ES |
dc.contributor.author | Solaz Vivó, Celia | es_ES |
dc.date.accessioned | 2024-10-13T18:02:27Z | |
dc.date.available | 2024-10-13T18:02:27Z | |
dc.date.created | 2024-09-25 | |
dc.date.issued | 2024-10-13 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10251/209984 | |
dc.description.abstract | [ES] Esta investigación se realiza con un objetivo principal que es el estudio de la portabilidad de la biblioteca JAX de Python, desarrollada por Google, en diferentes componentes hardware (CPU, GPU y TPU). JAX es una herramienta de gran alcance que combina la familiaridad y simplicidad de NumPy con avanzadas capacidades de diferenciación automática y ejecucián de alto rendimiento hardware acelerado. Además del estudio de portabilidad de código llevamos a cabo una comparativa de rendimiento con otras bibliotecas populares como son NumPy y Cupy. Esta última solo para GPU, utilizando la multiplicación de matrices como caso de estudio. La comparativa se ha realizado en términos de GFLOPS. Las pruebas de rendimiento se llevaran a cabo en Notebooks de Google Colab y Kaggle, aprovechando de esta forma recursos hardware diversificados. Se obtiene y analiza el rendimiento máximo alcanzable, en segundos, para cada componente hardware. | es_ES |
dc.description.abstract | [EN] This research is conducted with a primary objective: to study the portability of the JAX library for Python, developed by Google, across different hardware components (CPU, GPU, and TPU ).JAX is a powerful tool that combines the familiarity and simplicity of NumPy with advanced capabilities for automatic differentiation and high-performance hardware- accelerated execution. In addition to the code portability study, we conduct a performance comparison with other popular libraries such as NumPy, Numba and CuPy, using matrix multiplication as the case study. The comparison is performed using billions of floating point operations per second (GFLOPS ). The performance tests will be carried out in Google Colab and Kaggle notebooks, thereby leveraging the diversified hardware resources. The maximum achievable performance, in seconds, for each hardware component is obtained and analyzed. | es_ES |
dc.format.extent | 71 | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reserva de todos los derechos | es_ES |
dc.subject | JAX | es_ES |
dc.subject | NumPy | es_ES |
dc.subject | Cupy | es_ES |
dc.subject | Kaggle | es_ES |
dc.subject | Google Colab | es_ES |
dc.subject | Portabilidad | es_ES |
dc.subject | Redes neuronales | es_ES |
dc.subject | Numba | es_ES |
dc.subject | Portability | es_ES |
dc.subject | Neural networks (NNs) | es_ES |
dc.subject.classification | CIENCIAS DE LA COMPUTACION E INTELIGENCIA ARTIFICIAL | es_ES |
dc.subject.other | Máster Universitario en Computación en la Nube y de Altas Prestaciones / Cloud and High-Performance Computing-Màster Universitari en Computació en el Núvol i d'Altes Prestacions / Cloud and High-Performance Computing | es_ES |
dc.title | Implementación de núcleos computacionales para redes neuronales con JAX | es_ES |
dc.title.alternative | Implementation of computational kernels for neural networks with JAX | es_ES |
dc.title.alternative | Implementació de nuclis computacionals per a xarxes neuronals amb JAX | es_ES |
dc.type | Tesis de máster | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació | es_ES |
dc.description.bibliographicCitation | Solaz Vivó, C. (2024). Implementación de núcleos computacionales para redes neuronales con JAX. Universitat Politècnica de València. http://hdl.handle.net/10251/209984 | es_ES |
dc.description.accrualMethod | TFGM | es_ES |
dc.relation.pasarela | TFGM\165669 | es_ES |