Mostrar el registro sencillo del ítem
dc.contributor.author | Borja, Cesar | es_ES |
dc.contributor.author | Murillo, Ana C. | es_ES |
dc.date.accessioned | 2024-10-21T13:01:02Z | |
dc.date.available | 2024-10-21T13:01:02Z | |
dc.date.issued | 2024-09-27 | |
dc.identifier.issn | 1697-7912 | |
dc.identifier.uri | http://hdl.handle.net/10251/210616 | |
dc.description.abstract | [EN] The utilization of Autonomous Underwater Vehicles (AUVs) represents a significant advancement in the field of seabed monitoring. However, image processing of data acquired from AUVs presents a unique challenge due to the inherent properties of the underwater environment, such as light attenuation and water turbidity. This work investigates techniques to enhance underwater scene understanding from monocular images. The proposed system leverages existing deep learning methods in conjunction with simple image processing algorithms, eliminating the need for additional supervised training. The system studies the combinatio of a pre-trained deep learning model, for depth estimation from monocular images, with the proposed algorithm to distinguish water regions from the rest of the scene elements. The presented study includes comprehensive comparison of various system alternatives and configuration options. The experimental validation shows how the presented system obtains richer segmentation results compared to baseline algorithms. Notably, the proposed system facilitates the accurate segmentation of water regions and enables the detection of other objects of interest, including suspended elements in the water, which can potentially correspond to fish or other mobile obstacles. | es_ES |
dc.description.abstract | [ES] La utilización de vehículos submarinos autónomos (AUV) representa un avance significativo en el campo de la monitorización del fondo marino. Sin embargo, el procesamiento de imágenes de datos adquiridos desde AUVs presenta un desafío único debido a las propiedades inherentes del entorno submarino, como la atenuación de la luz y la turbidez del agua. Este trabajo investiga técnicas para mejorar la comprensión automática del contenido de escenas submarinas a partir de imágenes monoculares. El sistema propuesto aprovecha modelos de aprendizaje profundo existentes junto con algoritmos simples de procesamiento de imágenes, eliminando la necesidad de entrenamiento supervisado adicional. El sistema estudia la combinación de un modelo de aprendizaje profundo pre-entrenado para la estimación de profundidad a partir de imágenes monoculares, con el algoritmo propuesto para distinguir regiones de agua del resto de elementos de la escena. El estudio presentado incluye una comparación detallada de la influencia en el resultado de varias alternativas y opciones de configuración del sistema. La validación experimental muestra cómo el sistema presentado obtiene resultados de segmentación más ricos en comparación con los algoritmos existentes utilizados como referencia. En particular, el sistema propuesto facilita la segmentación precisa de regiones de agua y facilita la detección de otros objetos de interés, incluyendo elementos suspendidos en el agua, que potencialmente pueden corresponder a peces u otros obstáculos móviles. | es_ES |
dc.description.sponsorship | Este trabajo ha sido financiado parcialmente por FEDER/Ministerio de Ciencia, Innovación y Universidades – Agencia Estatal de Investigación proyecto PID2021-125514NB-I00, y DGA T45 23R/FSE. Los autores agradecen el apoyo del Laboratorio VISEAON, de la Universidad de Haifa, Israel, a lo largo del trabajo. Además, el proyecto se ha desarrollado en el marco de la beca para Prácticas de Estudiantes de Grado Universitario en el marco del TFG del Instituto de Investigación en Ingeniería de Aragón (I3A) de la Universidad de Zaragoza. | es_ES |
dc.language | Español | es_ES |
dc.publisher | Universitat Politècnica de València | es_ES |
dc.relation.ispartof | Revista Iberoamericana de Automática e Informática industrial | es_ES |
dc.rights | Reconocimiento - No comercial - Compartir igual (by-nc-sa) | es_ES |
dc.subject | Semantic segmentation | es_ES |
dc.subject | Underwater scene understanding | es_ES |
dc.subject | Perception and sensors | es_ES |
dc.subject | Segmentación Semántica | es_ES |
dc.subject | Comprensión de escenas submarinas | es_ES |
dc.subject | Percepción y sensores | es_ES |
dc.title | Comprensión automática de escenas en imágenes de entornos submarinos | es_ES |
dc.title.alternative | Visual scene understanding in underwater environments | es_ES |
dc.type | Artículo | es_ES |
dc.identifier.doi | 10.4995/riai.2024.21290 | |
dc.relation.projectID | info:eu-repo/grantAgreement/AEI/Plan Estatal de Investigación Científica y Técnica y de Innovación 2021-2023/PID2021-125514NB-I00/ES/MEJORAS EN COMPRENSION AUTOMATICA DE ESCENAS MEDIANTE MODALIDADES MULTIPLES DE SENSORES Y PERCEPCION ACTIVA/ | es_ES |
dc.relation.projectID | info:eu-repo/grantAgreement/ES/DGA/T45-23R | es_ES |
dc.rights.accessRights | Abierto | es_ES |
dc.description.bibliographicCitation | Borja, C.; Murillo, AC. (2024). Comprensión automática de escenas en imágenes de entornos submarinos. Revista Iberoamericana de Automática e Informática industrial. 21(4):374-382. https://doi.org/10.4995/riai.2024.21290 | es_ES |
dc.description.accrualMethod | OJS | es_ES |
dc.relation.publisherversion | https://doi.org/10.4995/riai.2024.21290 | es_ES |
dc.description.upvformatpinicio | 374 | es_ES |
dc.description.upvformatpfin | 382 | es_ES |
dc.type.version | info:eu-repo/semantics/publishedVersion | es_ES |
dc.description.volume | 21 | es_ES |
dc.description.issue | 4 | es_ES |
dc.identifier.eissn | 1697-7920 | |
dc.relation.pasarela | OJS\21290 | es_ES |
dc.contributor.funder | Ministerio de Ciencia, Innovación y Universidades | es_ES |
dc.contributor.funder | Agencia Estatal de Investigación | es_ES |
dc.contributor.funder | Universidad de Zaragoza | es_ES |