Resumen:
|
[ES] Este trabajo de fin de máster explora la integración de herramientas generalmente utilizada para la composición de workflows y pipeline, específicamente Elyra y Node-RED (este último a través de FlowFuse), para facilitar ...[+]
[ES] Este trabajo de fin de máster explora la integración de herramientas generalmente utilizada para la composición de workflows y pipeline, específicamente Elyra y Node-RED (este último a través de FlowFuse), para facilitar la implementación y gestión de de la ejecución de modelos de inteligencia artificial en entornos en la nube. La problemática central radica en la necesidad de simplificar los procesos de despliegue de estos modelos, los cuales suelen ser complejos y requieren de conocimientos especializados en varias áreas de la informática. En este trabajo se propone una solución que combina las capacidades de Elyra, una extensión de JupyterLab para el manejo de pipelines de datos y machine learning, con la interfaz gráfica y facilidad de uso de Node-RED, permitiendo así una integración efectiva y accesible para usuarios de distintos niveles técnicos.
El trabajo detalla el proceso de configuración y uso de estas herramientas, demostrando cómo pueden simplificar la creación, gestión y despliegue de modelos de inferencia. Se examinan las ventajas de esta integración, como la reducción de tiempos de desarrollo, la automatización de tareas repetitivas y la posibilidad de realizar ajustes y mejoras de manera más ágil. Además, se aborda el impacto de estas tecnologías en la democratización del acceso a la inteligencia artificial (IA), permitiendo que usuarios sin profundos conocimientos en programación o data science puedan implementar y beneficiarse de modelos avanzados de IA.
A través de ejemplos prácticos y casos de uso, se evidencia la efectividad de Elyra y Node-RED en el ciclo de vida de los modelos de inferencia, desde su desarrollo hasta su despliegue y mantenimiento en producción. Finalmente, se discuten los retos encontrados durante la implementación de esta solución y se esbozan posibles líneas de investigación futura, tales como la integración de otras herramientas de desarrollo, la optimización de la eficiencia en la ejecución de los modelos y el fortalecimiento de la seguridad en los despliegues. Para la ejecución de los modelos de IA se utilizará la plataforma serverless OSCAR, basada en Kubernetes.
[-]
[EN] This master's thesis explores the integration of tools generally used for the composition of workflows and pipelines, specifically Elyra and Node-RED (the latter through FlowFuse), to facilitate the implementation and ...[+]
[EN] This master's thesis explores the integration of tools generally used for the composition of workflows and pipelines, specifically Elyra and Node-RED (the latter through FlowFuse), to facilitate the implementation and management of the execution of artificial intelligence models in cloud environments. The central issue lies in the need to simplify the deployment processes of these models, which are often complex and require specialised knowledge in various areas of computing. This thesis proposes a solution that combines the capabilities of Elyra, an extension of JupyterLab for handling data and machine learning pipelines, with the graphical interface and ease of use of Node-RED, thus enabling effective and accessible integration for users of varying technical levels.
The master s thesis details the process of configuring and using these tools, demonstrating how they can simplify the creation, management, and deployment of inference models. The advantages of this integration are examined, such as reduced development times, the automation of repetitive tasks, and the ability to make adjustments and improvements more agilely. Additionally, the impact of these technologies on democratising access to artificial intelligence (AI) is addressed, allowing users without deep knowledge in programming or data science to implement and benefit from advanced AI models.
Through practical examples and use cases, the effectiveness of Elyra and Node-RED in the inference model lifecycle is evidenced, from development to deployment and maintenance in production. Finally, the challenges encountered during the implementation of this solution are discussed, and possible lines of future research are outlined, such as the integration of other development tools, the optimisation of execution efficiency of the models, and the strengthening of security in deployments. The execution of AI models will utilise the serverless OSCAR platform, based on Kubernetes.
[-]
|