Resumen:
|
[ES] Uno de los mayores retos en la agricultura de precisión es la discriminación entre malas hierbas y cultivos en las imágenes digitales obtenidas por UAVs (vehículos aéreos no tripulados), ya que la similitud espectral ...[+]
[ES] Uno de los mayores retos en la agricultura de precisión es la discriminación entre malas hierbas y cultivos en las imágenes digitales obtenidas por UAVs (vehículos aéreos no tripulados), ya que la similitud espectral entre ambos puede llevar a una clasificación errónea. Varios autores han propuesto técnicas para llevar a cabo esta tarea, que se debe realizar con un software comercial especializado, lo que requiere un alto conocimiento previo sobre computación y modelado, y es costoso. Por todo ello, el objetivo de este trabajo fue desarrollar una metodología para detectar y mapear áreas ocupadas por la mala hierba Cynodon dactylon (grama) en viñedos, utilizando imágenes aéreas digitales de alta resolución obtenidas por vehículos aéreos no tripulados (UAVs) y herramientas de acceso libre. C. dactylon es una gramínea perenne de verano que compite con el viñedo por los nutrientes y el agua, y se propaga principalmente por reproducción vegetativa mediante estolones y fragmentación de rizomas, lo que dificulta un control adecuado. Esta investigación se llevó a cabo en dos viñedos orgánicos de riego por goteo experimentales, ubicados en Cabra (provincia de Córdoba, sur de España). Las imágenes se capturaron con dos cámaras: RGB (rango espectral: rojo, verde, azul) y RG + infrarrojo rojo (NIR). Las cámaras se acoplaron por separado en un UAV modelo MD4-1000. El preprocesamiento de las imágenes recopiladas con cada cámara se realizó utilizando el software PhotoScan para obtener imágenes ortomosaicas precisas que cubran todos los campos para el análisis de clasificación. Las imágenes georreferenciadas resultantes se analizaron utilizando el software QGIS para identificar y clasificar las clases en el espacio entre hileras, suelo y vegetación (que estaba compuesta por áreas ocupadas por grama). Primero, se realizó un análisis espectral para determinar el índice de vegetación (VI) más efectivo para cada cámara. Los VI se seleccionaron realizando análisis estadísticos para cuantificar la separación del histograma, lo que proporcionó suficientes diferencias espectrales entre ambas clases (suelo y vegetación). ExG y GNDVI fueron los VI seleccionados para los sensores de rango RGB y RGNIR, respectivamente. Luego, como paso previo para la clasificación, se implementó la segmentación del área en ORFEO toolbox y la discriminación de las diferentes clases en la imagen se realizó mediante un proceso de umbralización de los atributos extraídos. La validación de los resultados se realizó mediante la generación de una matriz de confusión y el cálculo de la Precisión general y el Índice Kappa. Con respecto a la discriminación de malas hierbas, los resultados mostraron una precisión que oscilaba entre el 88 y 97% y un índice Kappa entre 0,59 y 0,93, respectivamente, para cada sensor, lo que indica una precisión considerada de "Moderada" (0,59) a "Casi perfecta" (0,93). Por lo tanto, se puede concluir que se obtuvieron resultados satisfactorios para la clasificación mediante los dos sensores utilizados, lo que demuestra la solidez de esta metodología para la clasificación de imágenes UAV de resolución espacial ultra alta. Las herramientas de código abierto utilizadas en este trabajo pueden aumentar la flexibilidad y la transferibilidad de la tecnología de procesamiento de imágenes. Además, los mapas generados de grama podrían ayudar a los agricultores a mejorar el control de malas hierbas a través de una estrategia bien programada basada en el manejo sitio-específico de malas hierbas.
[-]
[EN] A major challenge in precision agriculture refers to the discrimination of weeds from crops in digital images obtained by Unmanned Aerial Vehicles (UAVs), since the spectral similarity between weed and crop plants can ...[+]
[EN] A major challenge in precision agriculture refers to the discrimination of weeds from crops in digital images obtained by Unmanned Aerial Vehicles (UAVs), since the spectral similarity between weed and crop plants can lead to misclassification. Several authors have proposed techniques to accomplish the task that must be performed by specialized commercial software, thus requiring high previous knowledge about computation and modelling, and also are expensive. Therefore, the objective of this work was to develop a methodology to detect and map Cynodon dactylon (bermudagrass) weed patches in vineyards using high resolution digital aerial images from an UAV and free access tools. C. dactylon is a perennial summer grass that competes with vineyard for nutrients and water, and it propagates mainly vegetatively by stolons and rhizome fragmentation, which makes difficult an appropriate control. This research was conducted in two experimental drip-irrigated organic vineyards, located in Cabra (Córdoba province, Southern Spain). The imagery were captured using two cameras: RGB (spectral range: Red, Green, Blue) and RG+Infrared Red (NIR). They were separately accoupled in a UAV model MD4-1000. The pre-processing of the images collected from each camera was performed using the PhotoScan software in order to obtain an accurate orthomosaicked imagery covering the whole fields for the further classification analysis. The resulting georeferenced images were analysed using QGIS software to indentify and classify the classes in the interrow space, this is soil and vegetation (which was composed by bermudagrass patches). First, spectral analysis to determine the most effective vegetation index (VI) for each camera was performed. The VIs were selected by performing statistical analysis to quantify the histogram separation, which provided sufficient spectral differences between both classes (soil and vegetation). ExG and GNDVI were the VIs selected for the RGB- and RGNIR-range sensors, respectively. Then, as a previous step for classification, segmentation of the area was implemented in ORFEO toolbox and the discrimination of the different classes in the image was performed by a thresholding process of the extract attributes. The validation of the results was performed through the generation of a confusion matrix, and the calculation of the Overall Accuracy and Kappa Index. Regarding the weed discrimination, the results showed an accuracy ranging from 88 to 97% and Kappa index ranging from 0.59 to 0.93, respectively for each sensor which shows accurate considered from "Moderate" (0.59) to "Almost Perfect" (0.93). Thus, it can be concluded that satisfactory results were obtained for the classification for the both sensors used, demonstrating the robustness of this methodology for the classification of ultra-high spatial resolution UAV-images. The open source tools used in this work can increase the flexibility and transferability of image processing technology. In addition, the generated bermudagrass maps could help farmers to improve weed control through a well-programmed strategy based on site-specific weed management.
[-]
|