[CA] La intel·ligència artificial (IA) s’està convertint en un element imprescindible en diferents àmbits de la informàtica. Al mateix temps que la IA s’està desenvolupant a escala
d’algoritmes, també les arquitectures ...[+]
[CA] La intel·ligència artificial (IA) s’està convertint en un element imprescindible en diferents àmbits de la informàtica. Al mateix temps que la IA s’està desenvolupant a escala
d’algoritmes, també les arquitectures de processament s’hi estan adaptant per donar un
millor suport. Per aquest motiu en el present treball es desenvolupa un suport en aritmètica en coma flotant de 16 bits sobre una plataforma d’entrenament i inferència de xarxes
neuronals. Aquest desenvolupament es realitza sobre el dispositiu Jetson AGX Xavier de
l’empresa NVIDIA, el qual està destinat a aplicacions d’intel·ligència artificial, com ara
l’aprenentatge profund (deep learning).
L’objectiu és dotar a l’aplicació HELENNA d’un suport que li permeta utilitzar els
nombres en coma flotant de 16 bits sobre la GPU del dispositiu de NVIDIA, a través
del llenguatge de programació CUDA. D’aquesta manera es podrà aconseguir un millor
aprofitament dels recursos i del consum energètic, ja que amb l’aritmètica de precisió
reduïda es pot incrementar l’eficiència dels entrenaments amb xarxes neuronals.
[-]
[ES] La inteligencia artificial (IA) se está convirtiendo en un elemento imprescindible en
diferentes ámbitos de la informática. Al mismo tiempo que la IA se está desarrollando a
escala de algoritmos, también las ...[+]
[ES] La inteligencia artificial (IA) se está convirtiendo en un elemento imprescindible en
diferentes ámbitos de la informática. Al mismo tiempo que la IA se está desarrollando a
escala de algoritmos, también las arquitecturas de procesamiento se están adaptando para dar un mejor apoyo. Por este motivo en el presente trabajo se desarrolla un soporte en
aritmética en coma flotante de 16 bits sobre una plataforma de entrenamiento e inferencia
de redes neuronales. Este desarrollo se realiza sobre el dispositivo Jetson AGX Xavier de
la empresa NVIDIA, el cual está destinado a aplicaciones de inteligencia artificial, como
el aprendizaje profundo (deep learning).
El objetivo es dar a la aplicación HELENNA de un soporte que le permita utilizar
nombres en coma flotante de 16 bits sobre la GPU del dispositivo de NVIDIA, a través
del lenguaje de programación CUDA. De este modo se podrá conseguir un mejor aprovechamiento de los recursos y del consumo energético, puesto que con la aritmética de
precisión reducida se puede incrementar la eficiencia de los entrenamientos con redes
neuronales.
[-]
[EN] Artificial Intelligence (AI) is becoming an important element in different areas of computing. At the same time that AI is developing at the algorithm scale, processing architectures are also adapting to give a better ...[+]
[EN] Artificial Intelligence (AI) is becoming an important element in different areas of computing. At the same time that AI is developing at the algorithm scale, processing architectures are also adapting to give a better support to it. For this reason, in the present
project a 16-bit floating point arithmetic support is developed on a neural network training and inference platform. This development is carried out on the Jetson AGX Xavier
device from NVIDIA, which is destined for artificial intelligence applications, like deep
learning.
The objective is to give the HELENNA application support that allows it to use 16-bit
floating point numbers on the GPU of the NVIDIA device, through the CUDA programming language. In this way, better use of resources and energy consumption can be
achieved, since with reduced precision arithmetic, the efficiency of training with neural
networks can be increased.
[-]
|