Mostrar el registro sencillo del ítem
dc.contributor.advisor | Gómez Adrian, Jon Ander | es_ES |
dc.contributor.advisor | Blanes Noguera, Juan Francisco | es_ES |
dc.contributor.author | Aparicio Alonso, Eduardo | es_ES |
dc.date.accessioned | 2022-10-10T13:11:18Z | |
dc.date.available | 2022-10-10T13:11:18Z | |
dc.date.created | 2022-09-21 | es_ES |
dc.date.issued | 2022-10-10 | es_ES |
dc.identifier.uri | http://hdl.handle.net/10251/187358 | |
dc.description.abstract | [ES] En este proyecto se pretende obtener un sistema basado en redes neuronales que, en tiempo real, sea capaz de detectar el mejor agarre robótico del objeto más accesible entre los detectados en ese instante en un entorno industrial, concretamente para tareas de carga-descarga en máquinas, picking u otras tareas de precisión. Esto se va a lograr mediante redes neuronales usadas en segmentación semántica entrenadas con un conjunto de entrenamiento creado a partir de imágenes RGB y su codificación de la profundidad, las cuales son extraídas desde la cámara Intel RealSense Depth Camera D435 usada en el entorno de trabajo y cuyo etiquetado de segmentación se ha realizado mediante la herramienta CVAT. La red se encargará de reconocer la segmentación de los objetos disponibles para ser agarrados en ese instante (sin ser superpuestos por otros objetos), y con esta salida y mediante técnicas de visión por computador con la librería OpenCV de Python, se obtendrá el mejor punto de agarre posible para uno de ellos. | es_ES |
dc.description.abstract | [EN] This project aims to obtain a system based on neural networks that, in real-time, can detect the best robotic grasp of the most accessible object among those detected at that moment in an industrial environment, specifically in tasks of machine loading-unloading, picking, and other precision tasks. This will be achieved by means of neural networks for semantic segmentation trained with a training set created from RGB images and their depth encoding, which are extracted from the environment's camera Intel RealSense Depth Camera D435 and whose segmentation labelling has been carried out using the CVAT tool. This net will recognize the segmentation of the objects available to be grasped at that moment (without opposition from other objects), and with this output and through computer vision techniques implemented in the OpenCV library in Python, the best possible grasp of one of the objects will be obtained. | en_EN |
dc.format.extent | 72 | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.rights | Reserva de todos los derechos | es_ES |
dc.subject | Robótica | es_ES |
dc.subject | Aprendizaje profundo | es_ES |
dc.subject | Visión por computador | es_ES |
dc.subject | Inteligencia artificial | es_ES |
dc.subject | Robotics | en_EN |
dc.subject | Deep learning | en_EN |
dc.subject | Computer vision | en_EN |
dc.subject | Machine learning | en_EN |
dc.subject.classification | LENGUAJES Y SISTEMAS INFORMATICOS | es_ES |
dc.subject.classification | ARQUITECTURA Y TECNOLOGIA DE COMPUTADORES | es_ES |
dc.subject.other | Máster Universitario en Inteligencia Artificial, Reconocimiento de Formas e Imagen Digital-Màster Universitari en Intel·Ligència Artificial: Reconeixement de Formes i Imatge Digital | es_ES |
dc.title | Detección en tiempo real del punto de agarre del objeto más accesible en entornos industriales mediante aprendizaje profundo. | es_ES |
dc.title.alternative | Real-time object detection and determination of the best picking point in industrial environments by using a deep learning approach. | es_ES |
dc.title.alternative | Detecció en temps real del punt óptim per agafar l'objecte més accessible fent ús d'aprenentatge profund per a utilitzar-ho en entorns industrials. | es_ES |
dc.type | Tesis de máster | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.contributor.affiliation | Universitat Politècnica de València. Departamento de Sistemas Informáticos y Computación - Departament de Sistemes Informàtics i Computació | es_ES |
dc.description.bibliographicCitation | Aparicio Alonso, E. (2022). Detección en tiempo real del punto de agarre del objeto más accesible en entornos industriales mediante aprendizaje profundo. Universitat Politècnica de València. http://hdl.handle.net/10251/187358 | es_ES |
dc.description.accrualMethod | TFGM | es_ES |
dc.relation.pasarela | TFGM\151332 | es_ES |