- -

Visual servoing and grasping of known objects by a mobile manipulator

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Visual servoing and grasping of known objects by a mobile manipulator

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor Berjano Zanón, Enrique es_ES
dc.contributor.advisor Urbano de Almeida Lima, Pedro Manuel es_ES
dc.contributor.author Kiyabala López, Alain es_ES
dc.date.accessioned 2022-10-13T09:20:38Z
dc.date.available 2022-10-13T09:20:38Z
dc.date.created 2022-09-22
dc.date.issued 2022-10-13 es_ES
dc.identifier.uri http://hdl.handle.net/10251/187584
dc.description.abstract [EN] Object grasping and manipulation are important capabilities for domestic service robots. Extensive research work has been done in this area leading to the development of different methods, from approaches based on classical control theory, to fully end-to-end machine learning systems, leveraging advances in computer vision, supervised and reinforcement learning. This project proposes a pipeline to perform a pick-and-place task. To this end, different approaches have been considered by applying visual-servoing as the main component. The depth camera, attached to the robot¿s moving head, locates and tracks the object and stores its position. Meanwhile, the robot reads the position of its joints and applies a control law to reduce the error between its fine effector and the detected object. The use of a convolutional neural network trained in the laboratory to detect the object¿s position was fundamental in this project. The process chain that follows is able to obtain the octomap scene, execute predefined movements to visualise the objects, activate the object detection, and perform the pick and place. During the process, several challenges hindered the task¿s success. In this project, the tools Gazebo, Rviz and Rqt have also been used to create a controlled simulation environment and test the different functionalities of the robot. In addition, problems and solutions addressed in the field of robotics have been described. es_ES
dc.description.abstract [ES] El agarre y la manipulación de objetos son capacidades importantes para los robots de servicio doméstico. Se ha realizado una amplia labor de investigación en este ámbito que ha llevado al desarrollo de diferentes métodos, desde enfoques basados en la teoría de control clásica, hasta sistemas de aprendizaje automático totalmente integrales, aprovechando los avances en visión por ordenador, aprendizaje supervisado y de refuerzo. Este proyecto propone una cadena de procesos para efectuar una tarea de pick and place. Para ello, se han planteado distintas aproximaciones aplicando visual-servoing como componente principal. La cámara de profundidad, fijada a la cabeza móvil del robot, localiza y sigue el objeto guardando su posición. Mientras tanto, el robot lee la posición de sus articulaciones y aplica una ley de control para reducir el error entre su efector final y el objeto detectado. Para detectar la posición del objeto, se da uso de una red neuronal convolucional entrenada en el laboratorio que fue fundamental en este proyecto. La cadena de procesos que sigue es capaz de obtener la escena de octomap, ejecutar movimientos predefinidos para visualizar los objetos, activar la detección de objetos y efectuar el pick and place. Durante el proceso han aparecido diversos retos que han impedido el éxito de la tarea. En este proyecto, también se han usado las herramientas Gazebo, Rviz y Rqt para crear un entorno de simulación controlado y probar las distintas funcionalidades del robot. Además de haberse descrito problemas y soluciones abordadas en el campo de la robótica. es_ES
dc.format.extent 104 es_ES
dc.language Inglés es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reserva de todos los derechos es_ES
dc.subject Robot es_ES
dc.subject Manipulador es_ES
dc.subject Objeto es_ES
dc.subject Visual-servoing es_ES
dc.subject Manipulator es_ES
dc.subject Object es_ES
dc.subject.classification TECNOLOGIA ELECTRONICA es_ES
dc.subject.other Grado en Ingeniería Electrónica Industrial y Automática-Grau en Enginyeria Electrònica Industrial i Automàtica es_ES
dc.title Visual servoing and grasping of known objects by a mobile manipulator es_ES
dc.title.alternative Servoing visual y captura de objetos conocidos por un manipulador móvil es_ES
dc.title.alternative Servoing visual i captura d'objectes coneguts per un manipulador mòbil es_ES
dc.type Proyecto/Trabajo fin de carrera/grado es_ES
dc.rights.accessRights Abierto es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Ingeniería Electrónica - Departament d'Enginyeria Electrònica es_ES
dc.contributor.affiliation Universitat Politècnica de València. Escuela Técnica Superior de Ingeniería del Diseño - Escola Tècnica Superior d'Enginyeria del Disseny es_ES
dc.description.bibliographicCitation Kiyabala López, A. (2022). Visual servoing and grasping of known objects by a mobile manipulator. Universitat Politècnica de València. http://hdl.handle.net/10251/187584 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\148312 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem