- -

Mapping Cynodon dactylon weed patches in vineyards using remote images from an unmanned aerial vehicle

RiuNet: Repositorio Institucional de la Universidad Politécnica de Valencia

Compartir/Enviar a

Citas

Estadísticas

  • Estadisticas de Uso

Mapping Cynodon dactylon weed patches in vineyards using remote images from an unmanned aerial vehicle

Mostrar el registro sencillo del ítem

Ficheros en el ítem

dc.contributor.advisor Verdeguer Sancho, Mercedes María es_ES
dc.contributor.author Gonçalves Bazzo, Clara Oliva es_ES
dc.date.accessioned 2019-10-24T11:00:38Z
dc.date.available 2019-10-24T11:00:38Z
dc.date.created 2019-09-10
dc.date.issued 2019-10-24 es_ES
dc.identifier.uri http://hdl.handle.net/10251/129413
dc.description.abstract [ES] Uno de los mayores retos en la agricultura de precisión es la discriminación entre malas hierbas y cultivos en las imágenes digitales obtenidas por UAVs (vehículos aéreos no tripulados), ya que la similitud espectral entre ambos puede llevar a una clasificación errónea. Varios autores han propuesto técnicas para llevar a cabo esta tarea, que se debe realizar con un software comercial especializado, lo que requiere un alto conocimiento previo sobre computación y modelado, y es costoso. Por todo ello, el objetivo de este trabajo fue desarrollar una metodología para detectar y mapear áreas ocupadas por la mala hierba Cynodon dactylon (grama) en viñedos, utilizando imágenes aéreas digitales de alta resolución obtenidas por vehículos aéreos no tripulados (UAVs) y herramientas de acceso libre. C. dactylon es una gramínea perenne de verano que compite con el viñedo por los nutrientes y el agua, y se propaga principalmente por reproducción vegetativa mediante estolones y fragmentación de rizomas, lo que dificulta un control adecuado. Esta investigación se llevó a cabo en dos viñedos orgánicos de riego por goteo experimentales, ubicados en Cabra (provincia de Córdoba, sur de España). Las imágenes se capturaron con dos cámaras: RGB (rango espectral: rojo, verde, azul) y RG + infrarrojo rojo (NIR). Las cámaras se acoplaron por separado en un UAV modelo MD4-1000. El preprocesamiento de las imágenes recopiladas con cada cámara se realizó utilizando el software PhotoScan para obtener imágenes ortomosaicas precisas que cubran todos los campos para el análisis de clasificación. Las imágenes georreferenciadas resultantes se analizaron utilizando el software QGIS para identificar y clasificar las clases en el espacio entre hileras, suelo y vegetación (que estaba compuesta por áreas ocupadas por grama). Primero, se realizó un análisis espectral para determinar el índice de vegetación (VI) más efectivo para cada cámara. Los VI se seleccionaron realizando análisis estadísticos para cuantificar la separación del histograma, lo que proporcionó suficientes diferencias espectrales entre ambas clases (suelo y vegetación). ExG y GNDVI fueron los VI seleccionados para los sensores de rango RGB y RGNIR, respectivamente. Luego, como paso previo para la clasificación, se implementó la segmentación del área en ORFEO toolbox y la discriminación de las diferentes clases en la imagen se realizó mediante un proceso de umbralización de los atributos extraídos. La validación de los resultados se realizó mediante la generación de una matriz de confusión y el cálculo de la Precisión general y el Índice Kappa. Con respecto a la discriminación de malas hierbas, los resultados mostraron una precisión que oscilaba entre el 88 y 97% y un índice Kappa entre 0,59 y 0,93, respectivamente, para cada sensor, lo que indica una precisión considerada de "Moderada" (0,59) a "Casi perfecta" (0,93). Por lo tanto, se puede concluir que se obtuvieron resultados satisfactorios para la clasificación mediante los dos sensores utilizados, lo que demuestra la solidez de esta metodología para la clasificación de imágenes UAV de resolución espacial ultra alta. Las herramientas de código abierto utilizadas en este trabajo pueden aumentar la flexibilidad y la transferibilidad de la tecnología de procesamiento de imágenes. Además, los mapas generados de grama podrían ayudar a los agricultores a mejorar el control de malas hierbas a través de una estrategia bien programada basada en el manejo sitio-específico de malas hierbas. es_ES
dc.description.abstract [EN] A major challenge in precision agriculture refers to the discrimination of weeds from crops in digital images obtained by Unmanned Aerial Vehicles (UAVs), since the spectral similarity between weed and crop plants can lead to misclassification. Several authors have proposed techniques to accomplish the task that must be performed by specialized commercial software, thus requiring high previous knowledge about computation and modelling, and also are expensive. Therefore, the objective of this work was to develop a methodology to detect and map Cynodon dactylon (bermudagrass) weed patches in vineyards using high resolution digital aerial images from an UAV and free access tools. C. dactylon is a perennial summer grass that competes with vineyard for nutrients and water, and it propagates mainly vegetatively by stolons and rhizome fragmentation, which makes difficult an appropriate control. This research was conducted in two experimental drip-irrigated organic vineyards, located in Cabra (Córdoba province, Southern Spain). The imagery were captured using two cameras: RGB (spectral range: Red, Green, Blue) and RG+Infrared Red (NIR). They were separately accoupled in a UAV model MD4-1000. The pre-processing of the images collected from each camera was performed using the PhotoScan software in order to obtain an accurate orthomosaicked imagery covering the whole fields for the further classification analysis. The resulting georeferenced images were analysed using QGIS software to indentify and classify the classes in the interrow space, this is soil and vegetation (which was composed by bermudagrass patches). First, spectral analysis to determine the most effective vegetation index (VI) for each camera was performed. The VIs were selected by performing statistical analysis to quantify the histogram separation, which provided sufficient spectral differences between both classes (soil and vegetation). ExG and GNDVI were the VIs selected for the RGB- and RGNIR-range sensors, respectively. Then, as a previous step for classification, segmentation of the area was implemented in ORFEO toolbox and the discrimination of the different classes in the image was performed by a thresholding process of the extract attributes. The validation of the results was performed through the generation of a confusion matrix, and the calculation of the Overall Accuracy and Kappa Index. Regarding the weed discrimination, the results showed an accuracy ranging from 88 to 97% and Kappa index ranging from 0.59 to 0.93, respectively for each sensor which shows accurate considered from "Moderate" (0.59) to "Almost Perfect" (0.93). Thus, it can be concluded that satisfactory results were obtained for the classification for the both sensors used, demonstrating the robustness of this methodology for the classification of ultra-high spatial resolution UAV-images. The open source tools used in this work can increase the flexibility and transferability of image processing technology. In addition, the generated bermudagrass maps could help farmers to improve weed control through a well-programmed strategy based on site-specific weed management. es_ES
dc.description.sponsorship This research work has been developed as a result of a mobility stay funded by the Erasmus+ -KA1 Erasmus Mundus Joint Master Degrees Programme of the European Commission under the PLANT HEALTH Project. This research was funded by the AGL2017-82335-C4-4R project (Spanish Ministry of Science, Innovation and Universities, FEDER Funds: Fondo Europeo de Desarrollo Regional). es_ES
dc.language Inglés es_ES
dc.publisher Universitat Politècnica de València es_ES
dc.rights Reserva de todos los derechos es_ES
dc.subject Segmentación es_ES
dc.subject Clasificación es_ES
dc.subject Índice de vegetación es_ES
dc.subject RGB es_ES
dc.subject RGNRI es_ES
dc.subject Modelo digital de superficie es_ES
dc.subject Segmentation es_ES
dc.subject Classification es_ES
dc.subject Vegetation index es_ES
dc.subject Digital surface model es_ES
dc.subject.classification BOTANICA es_ES
dc.subject.other Máster Universitario Erasmus Mundus en Sanidad Vegetal en Agricultura Sostenible/ European Master degree in Plant Health in Sustainable Cropping Systems-Màster Universitari Erasmus Mundus en Sanitat Vegetal en Agricultura Sostenible / European Master's Degree in Plant Health in Sustainable Cropping Systems es_ES
dc.title Mapping Cynodon dactylon weed patches in vineyards using remote images from an unmanned aerial vehicle es_ES
dc.title.alternative Mapeo de áreas ocupadas por la mala hierba Cynodon dactylon en viñedos usando imágenes remotas de vehículos aéreos no tripulados es_ES
dc.type Tesis de máster es_ES
dc.relation.projectID info:eu-repo/grantAgreement/AEI//AGL2017-83325-C4-4-R/ES/AUTOMATIZACION DE ANALISIS DE IMAGENES-UAV PARA UNA GESTION SOSTENIBLE DE FITOSANITARIOS EN CULTIVOS DE CEREALES Y LEÑOSOS/ es_ES
dc.rights.accessRights Cerrado es_ES
dc.contributor.affiliation Universitat Politècnica de València. Departamento de Ecosistemas Agroforestales - Departament d'Ecosistemes Agroforestals es_ES
dc.description.bibliographicCitation Gonçalves Bazzo, CO. (2019). Mapping Cynodon dactylon weed patches in vineyards using remote images from an unmanned aerial vehicle. Universitat Politècnica de València. http://hdl.handle.net/10251/129413 es_ES
dc.description.accrualMethod TFGM es_ES
dc.relation.pasarela TFGM\117050 es_ES
dc.contributor.funder Agencia Estatal de Investigación es_ES


Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem