- -

Implementación de núcleos computacionales para redes neuronales con JAX

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Implementación de núcleos computacionales para redes neuronales con JAX

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor Alonso Jordá, Pedro es_ES
dc.contributor.advisor Castelló Gimeno, Adrián es_ES
dc.contributor.author Solaz Vivó, Celia es_ES
dc.date.accessioned 2024-10-13T18:02:27Z
dc.date.available 2024-10-13T18:02:27Z
dc.date.created 2024-09-25
dc.date.issued 2024-10-13 es_ES
dc.identifier.uri http://hdl.handle.net/10251/209984
dc.description.abstract [ES] Esta investigación se realiza con un objetivo principal que es el estudio de la portabilidad de la biblioteca JAX de Python, desarrollada por Google, en diferentes componentes hardware (CPU, GPU y TPU). JAX es una herramienta de gran alcance que combina la familiaridad y simplicidad de NumPy con avanzadas capacidades de diferenciación automática y ejecucián de alto rendimiento hardware acelerado. Además del estudio de portabilidad de código llevamos a cabo una comparativa de rendimiento con otras bibliotecas populares como son NumPy y Cupy. Esta última solo para GPU, utilizando la multiplicación de matrices como caso de estudio. La comparativa se ha realizado en términos de GFLOPS. Las pruebas de rendimiento se llevaran a cabo en Notebooks de Google Colab y Kaggle, aprovechando de esta forma recursos hardware diversificados. Se obtiene y analiza el rendimiento máximo alcanzable, en segundos, para cada componente hardware. es_ES
dc.description.abstract [EN] This research is conducted with a primary objective: to study the portability of the JAX library for Python, developed by Google, across different hardware components (CPU, GPU, and TPU ).JAX is a powerful tool that combines the familiarity and simplicity of NumPy with advanced capabilities for automatic differentiation and high-performance hardware- accelerated execution. In addition to the code portability study, we conduct a performance comparison with other popular libraries such as NumPy, Numba and CuPy, using matrix multiplication as the case study. The comparison is performed using billions of floating point operations per second (GFLOPS ). The performance tests will be carried out in Google Colab and Kaggle notebooks, thereby leveraging the diversified hardware resources. The maximum achievable performance, in seconds, for each hardware component is obtained and analyzed. es_ES
dc.format.extent 71 es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reserva de todos los derechos es_ES
dc.subject JAX es_ES
dc.subject NumPy es_ES
dc.subject Cupy es_ES
dc.subject Kaggle es_ES
dc.subject Google Colab es_ES
dc.subject Portabilidad es_ES
dc.subject Redes neuronales es_ES
dc.subject Numba es_ES
dc.subject Portability es_ES
dc.subject Neural networks (NNs) es_ES
dc.subject.classification CIENCIAS DE LA COMPUTACION E INTELIGENCIA ARTIFICIAL es_ES
dc.subject.other Máster Universitario en Computación en la Nube y de Altas Prestaciones / Cloud and High-Performance Computing-Màster Universitari en Computació en el Núvol i d'Altes Prestacions / Cloud and High-Performance Computing es_ES
dc.title Implementación de núcleos computacionales para redes neuronales con JAX es_ES
dc.title.alternative Implementation of computational kernels for neural networks with JAX es_ES
dc.title.alternative Implementació de nuclis computacionals per a xarxes neuronals amb JAX es_ES
dc.type Tesis de máster es_ES
dc.rights.accessRights Abierto es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació es_ES
dc.description.bibliographicCitation Solaz Vivó, C. (2024). Implementación de núcleos computacionales para redes neuronales con JAX. Universitat Politècnica de València. http://hdl.handle.net/10251/209984 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\165669 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem