- -

Desarrollo y evaluación de los esquemas de paralelización de datos y de modelo para el entrenamiento de redes neuronales convolucionales

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Desarrollo y evaluación de los esquemas de paralelización de datos y de modelo para el entrenamiento de redes neuronales convolucionales

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor Alonso Jordá, Pedro es_ES
dc.contributor.advisor Dolz Zaragozá, Manuel Francisco es_ES
dc.contributor.author Catalán Carbó, Mar es_ES
dc.date.accessioned 2020-09-04T08:05:16Z
dc.date.available 2020-09-04T08:05:16Z
dc.date.created 2020-07-21
dc.date.issued 2020-09-04 es_ES
dc.identifier.uri http://hdl.handle.net/10251/149418
dc.description.abstract [ES] En los últimos años, las Redes Neuronales Profundas (RNPs) han resurgido debido a la confluencia de tres importantes factores: i) la avalancha de datos disponibles (big data), que incrementan la robustez de las RNPs; ii) el aumento de la capacidad de cómputo de los sistemas de cómputo actuales, que permite el entrenamiento de las redes en un tiempo razonable; y iii) los avances algorítmicos y los entornos de programación de código abierto para RNPs, que facilitan su uso y la investigación en este campo. No obstante, las altas demandas computacionales de la etapa de entrenamiento requiere el uso técnicas paralelas eficientes en plataformas de memoria distribuida. En este trabajo se propone el análisis, desarrollo e implementación de los esquemas de paralelismo de datos y de modelo para el entrenamiento de RNPs sobre clústeres de computadores. La implementación de estos esquemas de paralelismo se llevará a cabo en PyDTNN, un entorno simple de entrenamiento de RNPs, mediante el uso de la interfaz de paso de mensajes MPI para plataformas de memoria distribuida. Una vez desarrollados ambos esquemas de paralelismo, se evaluarán las ganancias y la escalabilidad obtenidas en diferentes configuraciones de número de nodos y modelos de RNP. Esta evaluación experimental se complementará con el análisis de perfiles y trazas de ejecución obtenidas con ambos esquemas de paralelismo. es_ES
dc.format.extent 111 es_ES
dc.language Español es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reserva de todos los derechos es_ES
dc.subject Redes neuronales convolucionales es_ES
dc.subject Redes neuronales profundas es_ES
dc.subject Paralelismo de datos es_ES
dc.subject Paralelismo de modelo es_ES
dc.subject PyDTNN es_ES
dc.subject Convolutional neural networks es_ES
dc.subject Deep neural networks es_ES
dc.subject Data parallelism es_ES
dc.subject Model parallelism es_ES
dc.subject Neural networks es_ES
dc.subject Distributed training es_ES
dc.subject Python es_ES
dc.subject.classification CIENCIAS DE LA COMPUTACION E INTELIGENCIA ARTIFICIAL es_ES
dc.subject.other Máster Universitario en Computación en la Nube y de Altas Prestaciones / Cloud and High-Performance Computing-Màster Universitari en Computació en Núvol i d'Altes Prestacions / Cloud and High-Performance Computing es_ES
dc.title Desarrollo y evaluación de los esquemas de paralelización de datos y de modelo para el entrenamiento de redes neuronales convolucionales es_ES
dc.type Tesis de máster es_ES
dc.rights.accessRights Cerrado es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació es_ES
dc.description.bibliographicCitation Catalán Carbó, M. (2020). Desarrollo y evaluación de los esquemas de paralelización de datos y de modelo para el entrenamiento de redes neuronales convolucionales. http://hdl.handle.net/10251/149418 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\127662 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem