Mostrar el registro sencillo del ítem
dc.contributor.advisor | Alonso Jordá, Pedro | es_ES |
dc.contributor.advisor | Dolz Zaragozá, Manuel Francisco | es_ES |
dc.contributor.author | Catalán Carbó, Mar | es_ES |
dc.date.accessioned | 2020-09-04T08:05:16Z | |
dc.date.available | 2020-09-04T08:05:16Z | |
dc.date.created | 2020-07-21 | |
dc.date.issued | 2020-09-04 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10251/149418 | |
dc.description.abstract | [ES] En los últimos años, las Redes Neuronales Profundas (RNPs) han resurgido debido a la confluencia de tres importantes factores: i) la avalancha de datos disponibles (big data), que incrementan la robustez de las RNPs; ii) el aumento de la capacidad de cómputo de los sistemas de cómputo actuales, que permite el entrenamiento de las redes en un tiempo razonable; y iii) los avances algorítmicos y los entornos de programación de código abierto para RNPs, que facilitan su uso y la investigación en este campo. No obstante, las altas demandas computacionales de la etapa de entrenamiento requiere el uso técnicas paralelas eficientes en plataformas de memoria distribuida. En este trabajo se propone el análisis, desarrollo e implementación de los esquemas de paralelismo de datos y de modelo para el entrenamiento de RNPs sobre clústeres de computadores. La implementación de estos esquemas de paralelismo se llevará a cabo en PyDTNN, un entorno simple de entrenamiento de RNPs, mediante el uso de la interfaz de paso de mensajes MPI para plataformas de memoria distribuida. Una vez desarrollados ambos esquemas de paralelismo, se evaluarán las ganancias y la escalabilidad obtenidas en diferentes configuraciones de número de nodos y modelos de RNP. Esta evaluación experimental se complementará con el análisis de perfiles y trazas de ejecución obtenidas con ambos esquemas de paralelismo. | es_ES |
dc.format.extent | 111 | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reserva de todos los derechos | es_ES |
dc.subject | Redes neuronales convolucionales | es_ES |
dc.subject | Redes neuronales profundas | es_ES |
dc.subject | Paralelismo de datos | es_ES |
dc.subject | Paralelismo de modelo | es_ES |
dc.subject | PyDTNN | es_ES |
dc.subject | Convolutional neural networks | es_ES |
dc.subject | Deep neural networks | es_ES |
dc.subject | Data parallelism | es_ES |
dc.subject | Model parallelism | es_ES |
dc.subject | Neural networks | es_ES |
dc.subject | Distributed training | es_ES |
dc.subject | Python | es_ES |
dc.subject.classification | CIENCIAS DE LA COMPUTACION E INTELIGENCIA ARTIFICIAL | es_ES |
dc.subject.other | Máster Universitario en Computación en la Nube y de Altas Prestaciones / Cloud and High-Performance Computing-Màster Universitari en Computació en Núvol i d'Altes Prestacions / Cloud and High-Performance Computing | es_ES |
dc.title | Desarrollo y evaluación de los esquemas de paralelización de datos y de modelo para el entrenamiento de redes neuronales convolucionales | es_ES |
dc.type | Tesis de máster | es_ES |
dc.rights.accessRights | Cerrado | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació | es_ES |
dc.description.bibliographicCitation | Catalán Carbó, M. (2020). Desarrollo y evaluación de los esquemas de paralelización de datos y de modelo para el entrenamiento de redes neuronales convolucionales. http://hdl.handle.net/10251/149418 | es_ES |
dc.description.accrualMethod | TFGM | es_ES |
dc.relation.pasarela | TFGM\127662 | es_ES |