Mostrar el registro sencillo del ítem
dc.contributor.advisor | Hernández Orallo, José | es_ES |
dc.contributor.advisor | Martínez Plumed, Fernando | es_ES |
dc.contributor.author | Desislavov Georgiev, Radosvet | es_ES |
dc.date.accessioned | 2021-10-18T10:52:29Z | |
dc.date.available | 2021-10-18T10:52:29Z | |
dc.date.created | 2021-09-23 | |
dc.date.issued | 2021-10-18 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10251/174868 | |
dc.description.abstract | [EN] In the last decade, deep learning has achieved spectacular results in numerous applications. The increase in performance has been accompanied by a significant increase in the size of these networks, measured in number of parameters. But how does this increase in the size of the networks affect the energy consumed by them? In this work we analyze the computation (number of operations) and required energy to carry out an inference (or forward propagation) with different neural networks. We chose inference since for neural networks that are deployed for large scale use, the computation necessary to make the inferences ends up dominating the computation necessary to train the network, since a large number of inferences are executed over time. To carry out the study we collected data on a large number of neural networks and hardware, in order to estimate consumption and its evolution. We focus the analysis in the field of computer vision and in the field of natural language processing. We observe that the evolution of energy consumption grows exponentially for networks that mark a milestone at research level, but for networks that consolidate innovation this growth is much lower; their performance improves significantly over the years, even with constant energy consumption. | es_ES |
dc.description.abstract | [ES] En la última década, el aprendizaje profundo ha conseguido resultados espectaculares en numerosas aplicaciones. El incremento del desempeño ha venido acompañado de un importante incremento en el tamaño de estas redes, medido en número de parámetros. Pero ¿cómo afecta este incremento del tamaño de las redes a la energía consumida por éstas? En este trabajo analizamos el cómputo (número de operaciones) y energía necesaria para llevar a cabo una inferencia (o propagación hacia delante) con diferentes redes neuronales. Elegimos inferencia ya que para las redes neuronales que se despliegan para uso masivo, el cómputo necesario para realizar las inferencias acaba dominando al cómputo necesario para entrenar la red, ya que se llegan a ejecutar una gran cantidad de inferencias a lo largo del tiempo. Para llevar a cabo el estudio recogemos datos sobre una gran cantidad de redes neuronales y sobre hardware, para poder así estimar el consumo y su evolución. Centramos el análisis en el campo de la visión artificial y en el campo del procesamiento de lenguaje natural. Observamos que la evolución del consumo energético crece exponencialmente para las redes que marcan un hito a nivel investigador, pero para las redes que consolidan la innovación este crecimiento es mucho menor; mejoran sus prestaciones significativamente a lo largo de los años, incluso con consumo de energía constante. | es_ES |
dc.description.abstract | [CA] En l’última dècada, l’aprenentatge profund ha aconseguit resultats espectaculars en nombroses aplicacions. L’increment de les prestacions ha vingut acompanyat d’un important increment en la grandària d’aquestes xarxes, mesurat en nombre de paràmetres. Però com afecta aquest increment de la mida de les xarxes a l’energia consumida per aquestes? En aquest treball analitzem el còmput (nombre d’operacions) i energia necessària per dur a terme una inferència (o propagació cap endavant) amb diferents xarxes neuronals. Triem inferència ja que per a les xarxes neuronals que es despleguen per a ús massiu, el còmput necessari per realitzar les inferències acaba dominant el còmput necessari per entrenar la xarxa, ja que s’arriben a executar una gran quantitat d’inferències al llarg del temps. Per dur a terme l’estudi recollim dades sobre una gran quantitat de xarxes neuronals i sobre hardware, per poder així estimar el consum i la seua evolució. Centrem l’anàlisi en el camp de la visió artificial i en el camp del processament de llenguatge natural. Observem que l’evolució del consum energètic creix exponencialment per a les xarxes que marquen una fita a nivell investigador, però per a les xarxes que consoliden la innovació aquest creixement és molt menor; milloren les seues prestacions significativament al llarg dels anys, fins i tot amb consum d’energia constant. | es_ES |
dc.format.extent | 65 | es_ES |
dc.language | Inglés | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reconocimiento (by) | es_ES |
dc.subject | Artificial Intelligence | es_ES |
dc.subject | Data Analysis | es_ES |
dc.subject | Deep Learning | es_ES |
dc.subject | Neural Networks | es_ES |
dc.subject | Inteligencia artificial | es_ES |
dc.subject | Análisis de datos | es_ES |
dc.subject | Aprendizaje profundo | es_ES |
dc.subject | Redes neuronales | es_ES |
dc.subject.classification | LENGUAJES Y SISTEMAS INFORMATICOS | es_ES |
dc.subject.other | Máster Universitario en Ingeniería Informática-Màster Universitari en Enginyeria Informàtica | es_ES |
dc.title | Analysis of Deep Learning Inference Compute and Energy Consumption Trends | es_ES |
dc.title.alternative | Análisis de las tendencias de cómputo y consumo energético de la inferencia en aprendizaje profundo | es_ES |
dc.type | Tesis de máster | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Escola Tècnica Superior d'Enginyeria Informàtica | es_ES |
dc.description.bibliographicCitation | Desislavov Georgiev, R. (2021). Analysis of Deep Learning Inference Compute and Energy Consumption Trends. Universitat Politècnica de València. http://hdl.handle.net/10251/174868 | es_ES |
dc.description.accrualMethod | TFGM | es_ES |
dc.relation.pasarela | TFGM\137951 | es_ES |