- -

Implementation of an artificial vision system in line with an industrial robot for collaborative tasks with humans

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Implementation of an artificial vision system in line with an industrial robot for collaborative tasks with humans

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor Berjano Zanón, Enrique es_ES
dc.contributor.advisor Dallinga, Jelle-Jan es_ES
dc.contributor.author Martínez Fernández, Antonio es_ES
dc.date.accessioned 2022-09-28T17:46:26Z
dc.date.available 2022-09-28T17:46:26Z
dc.date.created 2022-07-06
dc.date.issued 2022-09-28 es_ES
dc.identifier.uri http://hdl.handle.net/10251/186680
dc.description.abstract [ES] El objetivo del TFG es la implementación de un sistema de visión artificial sobre un robot de tipo industrial (brazo robótico) con el fin de crear un sistema realimentado que influya sobre los movimientos y cálculos del robot con el fin de crear un ambiente colaborativo humano-máquina. El robot industrial es el modelo HCR-12 de la empresa coreana Hanwha. Este modelo, a pesar de sus grandes dimensiones, siendo capaz de realizar tareas pesadas y complejos movimientos, no cuenta con una fácil implementación de sistemas de visión artificial o programación externa de scripts, siendo actualmente únicamente posible el uso de cámaras de carácter industrial (como por ejemplo COGNEX). El problema con este tipo de equipos es que son muy costosos (del orden de miles de euros). Es por ello por lo que la motivación de este TFG es abaratar costes para este tipo de equipamientos que no cuentan con una buena compatibilidad para sistemas externos. Con el fin de lograr el objetivo y hacer todo el proceso más dinámico, se ha planteado como escenario para trabajar un entorno dónde el robot junto a un humano pueda jugar al tres en raya. El objetivo concreto es recolectar la información del estado del juego y de la posición y orientación del tablero por parte del sistema de visión. Esta información ha de ser tratada a su vez por un sistema de ¿machine learning¿ que decida cual deberá ser el siguiente movimiento por parte del robot. Una vez se conozca el siguiente movimiento a realizar, y junto a la información del tablero, se procesará las rotaciones necesarias por cada motor del brazo robótico para lograr el movimiento deseado. Además, el sistema deberá ser capaz de detectar cuando ha habido un cambio en el tablero por parte del ser humano es_ES
dc.description.abstract [EN] The purpose of the project is to make the Hanwha HCR-12 Cobot from MA-IT smart. This means that the cobot should be able to make decision based on information it receives instead of only going from point A to B. It must be aware of its surroundings and it needs to be able to work safely with humans around. To define a smart cobot the company is looking to make it capable of playing Tic Tac Toe against humans. To accomplish this task it was set out to find ways to make cobot communicate with a python script for ease of programming. Was decided upon a Modbus communication with the cobot and the pc. This allows to change registers in Modbus that the pc and the Cobot can read. Based on the values in these registers the cobot and the pc can make decisions. The camera that allows the cobot to see its environment gives feedback to the python script and the python script then decrypts the information from the camera into Modbus signals to the cobot. Based on what is written to these registers the cobot makes decisions. This way the cobot does not directly communicate with the camera but through the python script. Then another safety implementation is done through the use of a second camera that is connected to a second pc running a python script that can detect hands in the camera feed. Whenever it does it will send a singal through Modbus to the cobot. The Cobot checks for this signal in a thread constantly and stops the cobots movements whenever it detects a value. To actually play the game 3d printed pieces are used that the cobot can pick up from a ramp. Then the cobot places those pieces on the by the python script calculated locations es_ES
dc.format.extent 32 es_ES
dc.language Inglés es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reserva de todos los derechos es_ES
dc.subject Sistema de visión artificial es_ES
dc.subject Robot industrial es_ES
dc.subject Tareas colaborativas. es_ES
dc.subject.classification TECNOLOGIA ELECTRONICA es_ES
dc.subject.other Grado en Ingeniería Electrónica Industrial y Automática-Grau en Enginyeria Electrònica Industrial i Automàtica es_ES
dc.title Implementation of an artificial vision system in line with an industrial robot for collaborative tasks with humans es_ES
dc.title.alternative Implementación de un sistema de visión artificial en consonancia con robot industrial para tareas colaborativas con humanos es_ES
dc.title.alternative Implementació d'un sistema de visió artificial d'acord amb robot industrial per a tasques col·laboratives amb humans es_ES
dc.type Proyecto/Trabajo fin de carrera/grado es_ES
dc.rights.accessRights Cerrado es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Ingeniería Electrónica - Departament d'Enginyeria Electrònica es_ES
dc.contributor.affiliation Universitat Politècnica de València. Escuela Técnica Superior de Ingeniería del Diseño - Escola Tècnica Superior d'Enginyeria del Disseny es_ES
dc.description.bibliographicCitation Martínez Fernández, A. (2022). Implementation of an artificial vision system in line with an industrial robot for collaborative tasks with humans. Universitat Politècnica de València. http://hdl.handle.net/10251/186680 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\151295 es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem