Más

Modelador QGIS: ¿cómo extraer polígonos mediante múltiples argumentos?

Modelador QGIS: ¿cómo extraer polígonos mediante múltiples argumentos?


Estoy usando el modelador QGIS para extraer líneas no por uno, sino por múltiples atributos. Por ejemplo, tengo una red de carreteras y quiero extraer solo la carretera con valores de caracteres en el campo TIPO: valor_uno y valor_dos. ¿Cómo hacer esto usando el modelador de QGIS?


utilice el operador or: "||" o el y si quieres ambos: "&&"

Por ejemplo "val1" || "val2"


Una de las posibles respuestas es utilizar múltiples Extraer por atributo funciones.

Alternativamente, Seleccionar por expresión y Intersección después podría usarse. En Seleccionar por expresión función, es posible crear expresiones tales como:

"Variable_name" = 'Value_one' O "Variable_name" = 'Value_two'

Proyectar varias imágenes en un objeto con modificadores de proyecto UV

Estoy a punto de familiarizarme con el modificador del Proyecto UV. Desenvolví mi objeto en un mapa UV con la imagen que quiero proyectar y luego lo apliqué usando una cámara como proyector.

Sin embargo, quiero proyectar desde múltiples ángulos. Así que creé otro mapa UV de la misma manera con mi segunda imagen y creé otro modificador de Proyecto UV. Pero esto no funcionará, porque solo puedo seleccionar 1 mapa UV a la vez. Quiero que las dos proyecciones se combinen (o, mejor aún, que se elijan programáticamente de acuerdo con qué superficie normal tiene el ángulo más cercano al proyector cuando finalmente me mueva a automatizar este proceso en Python).

Así es como se ve al proyectar desde la cámara de la izquierda. Proyecta la misma imagen que vería si la casa tuviera la textura adecuada. Asimismo, la cámara de la derecha tiene una imagen de la casa con la textura adecuada desde su ángulo, lista para "llenar los huecos" de lo que la cámara de la izquierda no puede ver.


3 respuestas 3

Luego puede acceder al parámetro dentro de la función con thisIsAString.

No, no necesitas un prototipo.

Yo diría que nunca más use String. Cuando el código crezca y el uso de la memoria sea crítico, llegará a un callejón sin salida. Sé que es más conveniente, pero dale una oportunidad a las matrices de caracteres. Algo como:

Cambié la función a bool. Significa que puede usarlo dentro de una declaración if, donde le gustaría que se completara antes de continuar con su código.

Deberá asignar memoria usted mismo para la matriz, declararla así:

Aquí, asigno 32 bytes para datos y un byte adicional para el carácter que significa "fin de cadena" (es ese 0).


3 respuestas 3

"No estadísticamente significativo" significa que es probable que se produzca el resultado observado (por lo general, con una probabilidad> 5%). bajo la hipótesis de que los dos métodos son igualmente buenos (hipótesis nula).

Entonces, el problema es averiguar qué tan probable sería observar el resultado bajo esa hipótesis. En este caso podría deberse a:

  • ese conjunto de datos en particular solo favorece el algoritmo de bosque aleatorio
  • tuviste suerte con los procesos aleatorios en los algoritmos

Para el segundo problema, ciertamente puede ejecutar su experimento varias veces y ver si el método de bosque aleatorio supera constantemente al otro.

Si tiene un conjunto de datos de prueba lo suficientemente grande, puede dividirlo aleatoriamente y ver si sus resultados son consistentes en los diferentes subconjuntos.

Sin embargo, como indiqué en un comentario anterior, lo importante es que se haga la pregunta e indique (al informar los resultados) qué pasos tomó para verificar la importancia. Demasiadas personas ocultan estos problemas bajo la alfombra o simplemente reclaman importancia sin más detalles.

Tenga en cuenta que algunas revistas han prohibido ciertas formas de pruebas estadísticas debido al uso indebido.


Diferentes tipos de DEM

Los tipos comunes de DEM incluyen DSM, DTM, Point Cloud y 3D. Los detalles son los siguientes:

DSM o el modelo de superficie digital:Esto muestra la elevación del suelo, así como todas las cosas en el suelo como la construcción de árboles, torres y todo. Esto puede ser útil para configurar torres de señal móvil que le darían una mejor comprensión de cómo estas estructuras en el suelo van a afectar el flujo de la señal.

Modelo de terreno DTM o digital:Este modelo muestra la superficie de la tierra desnuda sin tener en cuenta ningún árbol o estructura en la superficie. El tipo de modelo DTM se vuelve más útil cuando se considera el nivel de agua que puede inundar el área o la cantidad de tierra requerida para una construcción.

Contornos:Las curvas de nivel representan el terreno con líneas del mismo valor de elevación. Cuando mires todas las líneas juntas, verás la imagen 3D del terreno en un mapa 2D. Los contornos, aunque no son muy populares ahora, todavía se utilizan para el estudio de terrenos montañosos y dependen en gran medida de los datos de los estudios de la tierra.

Punto de nube: Se trata básicamente de DSM de elevación o modelo de terreno digital, pero en formato de nube de puntos. Lo que significa que sus puntos están colocados aleatoriamente como una nube. Y por lo tanto, modelo de nube de puntos.

3D:Este 3D es una imagen del futuro. Es una transformación de las imágenes 2D en una representación 3D. No solo obtienes imágenes de arriba. Ves la superficie desde todos los ángulos, lo que te da una visión realista del mundo.

Además, el DEM se puede representar como un ráster, que es una cuadrícula de cuadrados conocida como mapa de altura, o como una red irregular triangular basada en vectores conocida como TIN. El TIN se denomina a menudo DEM principal, mientras que el DEM ráster se denomina DEM secundario. Se utilizan varios métodos para obtener datos para el estudio de elevación. algunos de los cuales incluyen lo siguiente:

  • Lidar
  • Fotogrametría estéreo de levantamientos aéreos
  • Estructura del movimiento
  • Interferometría de datos de radar
  • GPS cinemático en tiempo real
  • Mapas topográficos
  • Radar Doppler
  • Variación de enfoque
  • Drones topográficos y cartográficos
  • Imágenes de rango.

Muchos de los mapeadores preparan el DEM de muchas maneras utilizando frecuentemente datos de teledetección en lugar de datos de levantamientos terrestres. Los DEM se utilizan para DIS y son la base de los mapas en relieve producidos digitalmente. Una técnica muy poderosa que se utiliza es el radar interferométrico de apertura sintética en el que dos pasadas de un satélite radar recogen datos para generar un mapa de elevación digital con una resolución de unos diez metros.

Los primeros datos de elevación utilizables para una porción considerable de la tierra fueron proporcionados por el satélite SPOT1 en 1986. En 1991, el satélite europeo de teledetección, ERS, proporcionó más datos utilizando la misma técnica, en 2000 por Shuttle Radar Topography Mission, SRTM, utilizando el SAR de un solo paso y el Radiómetro de Reflexión y Emisión Térmica Avanzada del Espacio, instrumentación ASTER 2000 en el satélite Terra usando SAR de doble paso.

Los métodos más antiguos implicaban la generación de DEM por interpolación de mapas de contorno digitales que fueron producidos por el levantamiento directo de la tierra. Aunque no es un método muy común ahora, todavía se usa en áreas de montaña.

El DEM se usa ampliamente para el estudio del terreno y varios otros levantamientos relacionados. Algunos de los usos habituales son:

  • DEM se usa comúnmente en SIG
  • Para estudio arqueológico
  • Sistemas avanzados de asistencia al conductor
  • Sistema de transporte inteligente
  • Agricultura de precisión y silvicultura
  • Análisis de superficie
  • Mapeo base
  • Simulación de vuelo
  • Navegación satelital
  • El análisis de la línea de visión
  • Mapas en relieve
  • Ingeniería civil
  • Relevamiento de tierras para geomorfología
  • Gravimetría y geodesia física
  • Rectificación de imágenes 2D de UAV o satélite
  • Derivación de parámetros de terreno para geomorfología
  • Extracción de información de flujo de agua para hidrología o movimientos masivos como deslizamientos de tierra
  • Modelado de la humedad del suelo con índice DTW cartográfico
  • Creando mapas en relieve
  • Representación de visualización 3D
  • Planificación de vuelos 3D y TERCOM
  • Creación de mapas en relieve para relieve o topografía estratégica.

Datos de impactos humanos

Hay muchas causas de pérdida de biodiversidad, incluida la deforestación, el desarrollo agrícola, la urbanización, la contaminación y el cambio climático. Comprender las formas en que los humanos interactúan con el medio ambiente y cómo los cambios resultantes impactan los sistemas de la Tierra es importante para preservar la biodiversidad.

Reflectancia superficial

La imagen de Landsat adquirida el 10 de julio de 2019 muestra los puntos críticos de tala de bosques debido al establecimiento de plantaciones de palma aceitera en Perú.

La reflectancia de la superficie es útil para medir el verdor de la vegetación, que luego se puede utilizar para determinar las fechas de transición fenológica, incluido el inicio de la temporada, el período pico y el final de la temporada. Los instrumentos de resolución moderada que se utilizan principalmente para esta medición incluyen el espectrorradiómetro de imágenes de resolución moderada (MODIS) de la NASA a bordo de los satélites Terra y Aqua y el Visible Infrared Imaging Radiometer Suite (VIIRS) a bordo de la Asociación Nacional Suomi en órbita polar conjunta de NASA / NOAA ( Suomi NPP) satélite. Los productos de reflectancia MODIS están disponibles con una resolución espacial de 250 m, 500 m, 1000 my 5600 m. Los productos de reflectancia VIIRS están disponibles a una resolución espacial de 500 my 1000 m. Los datos de MODIS se adquieren cada uno o dos días, mientras que el ancho de franja más amplio de VIIRS permite una cobertura global diaria.

El Radiómetro de Reflexión y Emisión Térmica Avanzada del Espacio (ASTER), un esfuerzo de cooperación entre la NASA y el Ministerio de Economía, Comercio e Industria de Japón, es otro instrumento de alta resolución que adquiere datos de reflectancia visible e infrarrojo cercano (VNIR) a una resolución de 15 my SWIR (hasta 2009) datos de reflectancia a una resolución de 30 m. Tenga en cuenta que ASTER es un sensor con tareas, lo que significa que solo adquiere datos cuando se le indica que lo haga sobre objetivos específicos, lo que hace que su resolución temporal sea variable según la región de interés de su objetivo. Los productos ASTER Surface Reflectance se procesan bajo demanda y, por lo tanto, deben solicitarse con parámetros adicionales. Tenga en cuenta que hay un límite de 2000 gránulos por pedido.

Se puede acceder directamente a los productos de datos de reflectancia de superficie de calidad de investigación a través de Earthdata Search o el Data Pool del Centro de Archivos Activos Distribuidos de Procesos Terrestres (LP DAAC) de la NASA. MODIS, VIIRS y ASTER están disponibles como archivos HDF, pero también se pueden personalizar para GeoTIFF:

LP DAAC también proporciona una herramienta llamada Aplicación para extraer y explorar muestras listas para análisis (AppEEARS). AppEEARS ofrece una manera simple y eficiente de acceder, transformar y visualizar datos geoespaciales de una variedad de archivos de datos federales. Los datos de reflectancia de superficie MODIS y VIIRS están disponibles en AppEEARS, así como el producto de reflectancia de superficie Landsat Analysis Ready Data (ARD) de USGS. Otros productos útiles para aplicaciones de biodiversidad disponibles en AppEEARS incluyen los parámetros meteorológicos diarios de Daymet, los productos Soil Moisture Active Passive (SMAP) y los productos de cubierta de nieve MODIS.

El DAAC del Laboratorio Nacional Oak Ridge de la NASA (ORNL DAAC) también proporciona herramientas para el subconjunto bajo demanda de datos terrestres MODIS y VIIRS. En particular, la API de subconjuntos permite a los usuarios recuperar subconjuntos personalizados, análisis y visualización de productos de datos MODIS y VIIRS.

Para una resolución más alta, el sensor Landsat 7 Enhanced Thematic Mapper (ETM +) y el instrumento Landsat 8 Operational Land Imager (OLI) adquieren datos a una resolución espacial de 30 m en VNIR cada 16 días (o menos a medida que se aleja del ecuador). Landsat 8 se desarrolló como una colaboración entre la NASA y el USGS. El USGS ahora lidera las operaciones satelitales y el archivo de datos en el centro de Observación y Ciencia de los Recursos Terrestres (EROS).

Los datos de Landsat se pueden descubrir usando Earthdata Search, sin embargo, necesitará un inicio de sesión de USGS Earth Explorer para descargar los datos.

Otra opción de alta resolución es el nuevo (pero actualmente PROVISIONAL) proyecto Harmonized Landsat y Sentinel-2 (HLS), que proporciona reflectancia de superficie consistente y datos de brillo de la parte superior de la atmósfera del OLI a bordo del satélite Landsat 8 conjunto NASA / USGS y el Multi- Instrumento espectral (MSI) a bordo de los satélites europeos Copernicus Sentinel-2A y Sentinel-2B. La medición combinada permite observaciones globales de la tierra cada 2-3 días a una resolución espacial de 30 metros (m). Explore Introducción a los datos de HLS nativos de la nube en Python Jupyter Notebook para extraer una serie temporal de EVI de HLS.


Materiales y métodos

Material vegetal y distribución del campo

Trigo de primaveraTriticum aestivum L.) las líneas de mejoramiento utilizadas para las mediciones de TC procedían del programa de mejoramiento de trigo del Centro Internacional de Mejoramiento de Maíz y Trigo (CIMMYT). Los ensayos se plantaron el 21 de noviembre de 2017 en la Estación Experimental Norman E Borlaug (27 & # x00B022 & # x203257.6 & # x2033N, 109 & # x00B055 & # x203234.7 & # x2033W) en Ciudad Obregón, Sonora, México durante la temporada 2017 & # x201318 . El experimento consistió en 1800 entradas únicas de trigo de primavera distribuidas en 60 ensayos. Cada ensayo se organizó como un diseño de celosía alfa en dos bloques. Las parcelas sirvieron como unidades experimentales y tenían un tamaño de 1,7 m & # x00D7 3,4 m, y consistían en una plantación en lechos elevados en dos lechos separados por 0,8 m con filas pareadas en cada lecho a un espaciamiento de 0,15 m para cada parcela. Los detalles se encuentran en la Tabla complementaria 1.

Trigo de invierno (Triticum aestivum) se utilizaron líneas de mejoramiento del programa de mejoramiento de trigo de la Universidad Estatal de Kansas para el NDVI del dosel y las mediciones de la cobertura del suelo en las primeras etapas. El 19 de septiembre de 2017 se sembró una prueba para mediciones de NDVI de dosel en la granja de agronomía KSU Ashland Bottom (39 & # x00B07 & # x203254.2 & # x2033N, 96 & # x00B037 & # x203212.6 & # x2033W), Manhattan, Kansas, y la otra prueba para las mediciones de cobertura del suelo en la etapa inicial se sembró el 17 de septiembre de 2018 en la granja KSU (39 & # x00B07 & # x203256.4 & # x2033N, 96 & # x00B037 & # x203210.1 & # x2033W). Durante la temporada 2017 & # x201318 y 2018 & # x201319 se sembraron un total de 146 y 150 ejemplares de trigo de invierno, respectivamente. Durante cada temporada, todo el experimento de campo se organizó en dos bloques. Las entradas incluyeron líneas de mejoramiento y variedades de control. En cada bloque, se plantó una línea de reproducción en una sola parcela, mientras que los cheques se plantaron varias veces. La parcela experimental era una parcela individual de seis hileras con un espaciado de hileras de 20 cm (8 & # x2033) con dimensiones de parcela de 1,5 my # x00D7 2,4 m. Los detalles de cada experimento de campo se enumeran en la Tabla complementaria 1.

Para mejorar la precisión geoespacial de las imágenes ortomosaicas y ortorrectificadas, los puntos de control terrestre (G) que consisten en marcadores cuadrados reflectantes / blancos brillantes se distribuyeron uniformemente en el experimento de campo antes de la adquisición de la imagen y se midieron a una resolución de nivel cm. Los GCP en Obregón, México, fueron encuestados utilizando un sistema de posicionamiento global (GPS) Trimble R4 RTK (Trimble Inc., Sunnyvale, California, Estados Unidos). Los GCP en Kansas fueron encuestados utilizando la unidad de sistema de navegación por satélite global (GNSS) de cinemática en tiempo real (RTK) Precis BX305 (Tersus GNSS Inc., Shanghai, China).

UAS, sensores y adquisición de imágenes

El UAS utilizado para la adquisición de imágenes fue un DJI Matrice 100 (DJI, Shenzhen, China). Los planes de vuelo se crearon utilizando la aplicación Litchi para Android (VC Technology Ltd., Reino Unido) y la aplicación 2 del planificador de misiones CSIRO para DJI Matrice100. En consecuencia, la velocidad de vuelo, la elevación del vuelo sobre el suelo y la anchura entre dos trayectorias de vuelo paralelas se ajustaron basándose en la tasa de superposición y el campo de visión de la cámara. Ambas cámaras se activaron automáticamente con la unidad GNSS a bordo siguiendo un intervalo constante de distancia recorrida. En la Tabla complementaria 2 se incluye un resumen de la configuración de vuelo.

Para recopilar la imagen térmica de los viveros de trigo de primavera, el DJI Matrice 100 llevó una cámara térmica FLIR VUE Pro R (FLIR Systems, Estados Unidos). Diez láminas de metal blancas cuadradas de 0,25 my # x00D7 de 0,25 m montadas en postes de 0,50 m se utilizaron como GCP. Se llevaron a cabo dos recolecciones de datos entre las 11:00 y las 13:00 horas del 2 al 19 de marzo de 2018, durante la etapa de llenado de grano. La tasa de superposición de imágenes aéreas entre dos imágenes geoespacialmente adyacentes se estableció en 80% tanto secuencial como lateralmente para garantizar una calidad óptima de costura de fotografías ortomosaicas. Ambos vuelos se establecieron a 60 m sobre el nivel del suelo (AGL) a 5 m / sy podrían cubrir las 3600 parcelas de reproducción en alrededor de 16 minutos. Para conservar la información de píxeles de la imagen, la cámara FLIR se configuró para capturar imágenes JPEG radiométricas (R-JPEG).

Se utilizó una cámara multiespectral MicaSense RedEdge-M (MicaSense Inc., Estados Unidos) para recopilar imágenes del dosel de trigo de invierno en las temporadas 2017 & # x201318 y 2018 & # x201319. Como GCP se utilizaron baldosas cuadradas blancas con una dimensión de 0,30 my 0,30 m. Se colocaron y encuestaron nueve y cuatro GCP en el campo durante la temporada 2017 & # x201318 y 2018 & # x201319, respectivamente. Todos los vuelos UAS se realizaron entre las 11 a. M. Y las 2 p. M. Se realizaron un total de cinco vuelos UAS durante la etapa de llenado de granos en la temporada 2017 & # x201318, y cuatro vuelos UAS se realizaron a principios del período de establecimiento de otoño para la temporada 2018 & # x201319. Las fechas de vuelo detalladas se enumeran en la Tabla complementaria 2. La tasa de superposición de imágenes aéreas entre dos imágenes geoespacialmente adyacentes se estableció en 80% tanto secuencialmente como lateralmente para garantizar una calidad óptima de costura de fotografías ortomosaicas. Todos los vuelos UAS se establecieron a 20 m AGL a 2 m / sy podrían cubrir 360 (temporada 2017 & # x201318) y 336 (temporada 2018 & # x201319) parcelas en 14 y 11 min, respectivamente. Para preservar la intensidad de los píxeles de la imagen, la cámara MicaSense RedEdge-M se configuró para capturar imágenes TIFF sin comprimir.

Generación de imágenes ortomosaicas y ortorrectificadas

En este estudio, los modelos ajustados a un rasgo extraído de la imagen ortomosaica se utilizaron como un control de referencia, contra el cual comparar estimaciones de modelos ajustados a los mismos rasgos extraídos de múltiples imágenes ortorrectificadas individuales. A diferencia del enfoque propuesto por Deery et al. (2016), en este estudio aún necesitábamos generar la imagen ortomosaica de un campo completo como punto de partida para calcular la posición de cada imagen individual. A través del proceso de fotogrametría, los píxeles de una imagen sin procesar se proyectaron en su ubicación geográfica real. Después de esta ortorrectificación, cada imagen en bruto individual se convirtió en una imagen ortorrectificada. Por lo tanto, no hubo necesidad de identificar manualmente las parcelas de campo en cada imagen ortorrectificada porque el mismo shapefile con límites de parcela podría usarse para identificar una parcela existente en diferentes imágenes ortorrectificadas. La generación de imágenes ortomosaicas y ortorrectificadas a partir de imágenes sin procesar consistió en (paso 1) preprocesamiento de imágenes (incluida la calibración radiométrica), (paso 2) detección de GCP, (paso 3) proceso de fotogrametría (paso 4) y exportación de imágenes ortomosaicas e imágenes ortorrectificadas (como mostrado en la Figura 1), como se explica a continuación en detalle. El procedimiento se implementó usando Python y el código fuente está disponible en línea 3.

Figura 1. Flujo de trabajo para generar imágenes ortomosaicas y ortorrectificadas a partir de imágenes en bruto.

El procedimiento de preprocesamiento de imágenes para las imágenes multiespectrales convirtió el valor de píxel en cada imagen espectral sin procesar en reflectancia antes del proceso de fotogrametría. Sin embargo, los valores de píxeles en las imágenes térmicas sin procesar no se convirtieron a valores de temperatura en este paso. Como cada disparador de la cámara MicaSense RedEdge-M generó cinco imágenes de cada banda espectral (Azul, Rojo, Verde, Infrarrojo cercano y RedEdge), la verificación de integridad eliminó las imágenes que tenían menos de cinco bandas. Según la altitud (es decir, la altura de la cámara por encima del nivel medio del mar) incrustada en las propiedades de la imagen, las imágenes se dividieron en dos grupos: imágenes capturadas en el suelo e imágenes capturadas en el aire. Los paneles de calibración radiométrica MicaSense se detectaron automáticamente a partir de las imágenes capturadas en el suelo, si existían. Siguiendo el procedimiento de calibración radiométrica de MicaSense 4, se calcularon los factores de calibración de las cinco bandas y luego se aplicaron a las imágenes capturadas en el aire, convirtiendo las imágenes sin procesar en imágenes de reflectancia para el proceso de fotogrametría posterior.

El procedimiento de detección de GCP identificó automáticamente el GCP en cada imagen capturada en el aire si existía y comparó el GCP con la posición encuestada del GCP más cercano a la posición de la imagen. Dado que se utilizaron baldosas cuadradas blancas con el tamaño previamente conocido como GCP en el campo de trigo, se pudieron detectar patrones claros de GCP a través del procesamiento de imágenes. De acuerdo con la posición de la imagen (es decir, la longitud y latitud) incrustada en las propiedades de la imagen, el GCP encuestado, cuyas coordenadas estaban geográficamente cerca de la posición de la imagen, se comparó con el GCP detectado en la imagen. Se dejó suficiente espacio (es decir, & # x003E 20 m) entre cada dos GCP durante la colocación en el campo para evitar tener múltiples GCP en una sola imagen y permitir una geolocalización suficientemente precisa del UAS para determinar qué GCP se estaba fotografiando. Todos los nombres de archivos de imagen y las coordenadas de GCP detectadas se guardaron en una lista para la optimización geoespacial en el proceso de fotogrametría. Debido a la baja resolución de la cámara térmica y al patrón poco claro de los GCP en las imágenes térmicas, los GCP se detectaron manualmente durante el proceso de fotogrametría de las imágenes térmicas.

El procesamiento fotogramétrico de imágenes aéreas incluyó la generación de nubes de puntos dispersos, optimización geoespacial, generación de nubes de puntos densas y generación de modelos tridimensionales (3D). El proceso se implementó utilizando la API de Python de Agisoft PhotoScan (Versión 1.4.0, Agisoft LLC, Rusia). Una imagen ortomosaica de un experimento de campo completo se exportó después del proceso. Todas las imágenes utilizadas para generar la imagen ortomosaica se exportaron como imágenes ortorrectificadas con las coordenadas del límite de la imagen (es decir, las esquinas noroeste y sureste) y la posición original de la cámara (es decir, longitud, latitud y altitud) donde se capturó la imagen incrustada en el propiedades de la imagen.

Extracción de rasgos a nivel de parcela

La extracción de valores fenotípicos a nivel de parcela de imágenes ortomosaicas y ortorrectificadas consistió en (1) recortar imágenes de una sola parcela de un ortomosaico del campo completo o de múltiples imágenes ortorrectificadas, cada una de las cuales cubría una pequeña porción de todo el campo, (2) convertir valores de píxeles en valores de rasgos a través del cálculo de raster, y (3) resumir el rasgo a nivel de parcela en cada imagen (como se muestra en la Figura 2). El procedimiento se implementó usando Python y el código fuente está disponible en línea 5.

Figura 2. Flujo de trabajo para la extracción de rasgos a nivel de parcela a partir de imágenes ortomosaicas y ortorrectificadas.

Después de la generación de la imagen ortomosaica de un campo completo, un mapa de campo & # x2013 un archivo shapefile de polígonos que delinean las cuatro esquinas de cada parcela se generó semiautomáticamente en Quantum Geographic Information System (QGIS, www.qgis.org) con el Complemento de geoprocesador HTP (Wang et al., 2016). Específicamente, los cuatro puntos de esquina de todo el campo del experimento se definieron primero manualmente en QGIS. Luego, las coordenadas de las cuatro esquinas del polígono para cada parcela se calcularon automáticamente con el tamaño geométrico de la parcela previamente conocido (largo y ancho) utilizando un script QGIS Python. Finalmente, a cada polígono de parcela se le asignó un ID de parcela utilizando el complemento HTP Geoprocessor (Wang et al., 2016). Según el mapa de campo, una imagen de cada parcela podría recortarse de la imagen ortomosaica de todo el experimento de campo y guardarse como una imagen GeoTiff. A diferencia de la imagen ortomosaica del experimento de campo completo, cada imagen ortorrectificada solo cubría una pequeña porción de todo el campo. Por lo tanto, solo las parcelas que se incluyeron completamente en la imagen ortorrectificada se recortaron y guardaron como imágenes GeoTiff. Como resultado, cada parcela fue representada por una sola imagen GeoTiff ortomosaica recortada y múltiples imágenes GeoTiff ortorrectificadas.

Para extraer el rasgo CT, los valores de píxeles dentro de cada imagen GeoTiff que contiene la banda infrarroja térmica se utilizaron directamente como indicadores de las mediciones de temperatura absoluta, ya que (1) las imágenes R-JPEG tienen datos de temperatura incrustados en cada píxel 6 y (2) Sagan et al. (2019) ha demostrado que la temperatura absoluta se puede convertir a partir del valor de píxel siguiendo una ecuación lineal:

donde TérmicoIR es el valor de píxel dentro de la banda infrarroja térmica de la imagen GeoTiff, T es la medida de temperatura absoluta en grados Celsius, y K y T0 son parámetros constantes. En este estudio, K y T0 se establecieron como 0.04 y & # x2212273.15 (Flir Systems Inc., 2017 Williamson et al., 2019 Song and Park, 2020).

Para generar el rasgo NDVI a partir de la imagen GeoTiff de la imagen GeoTiff multiespectral de cinco bandas, se utilizó la siguiente ecuación durante el cálculo de ráster:

donde NIR y rojo son la banda roja e infrarroja cercana de las imágenes GeoTiff multiespectrales, respectivamente, y NDVI es la capa ráster de salida.

Para el cálculo de la GC del dosel, la imagen GeoTiff multiespectral de cinco bandas se convirtió primero en una imagen RGB GeoTiff mediante la representación de las bandas Roja, Verde y Azul. Luego, la imagen RGB se convirtió en una imagen GeoTiff de valor de saturación de tono (HSV). Finalmente, se generó una imagen binaria a partir de la banda Hue de la imagen HSV mediante valores de umbral seleccionados manualmente dejando píxeles blancos que representan el área del dosel en la imagen RGB. En este estudio, el valor umbral se seleccionó del primer conjunto de datos de imágenes (3 de octubre de 2018) y se aplicó a los conjuntos de datos de imágenes posteriores.

Para la extracción de los rasgos CT y NDVI, usamos la moda de todos los valores distintos de cero (Figura 2) en un área de parcela como CT a nivel de parcela y NDVI, respectivamente. Esto tenía la intención de compensar el ruido de los píxeles no vegetativos dentro del área de la parcela, aunque la mayoría de las parcelas estaban completamente cubiertas por marquesinas durante la adquisición de imágenes. La cobertura del suelo en la etapa inicial a nivel de la parcela (GC en la Figura 2) se calculó como el porcentaje total de píxeles blancos dentro de la imagen binaria. Como resultado, cada tipo de rasgo a nivel de parcela extraído de la imagen ortomosaica tenía solo una observación por parcela, mientras que los mismos rasgos extraídos de imágenes ortorrectificadas tenían múltiples observaciones, una por imagen ortorrectificada en la que ese gráfico dado parecía completo.

Se utilizaron imágenes ortomosaicas y ortorrectificadas recopiladas en dos fechas (Tabla complementaria 2) para extraer dos conjuntos de datos independientes para el rasgo CT. De manera similar, las imágenes recolectadas en cinco y cuatro fechas se utilizaron para extraer cinco y cuatro conjuntos de datos independientes para los rasgos NDVI y GC, respectivamente (Tabla complementaria 2).

Análisis estadístico

Se especificaron cuatro modelos mixtos lineales generales (modelos I a IV) y se ajustaron a cada uno de los rasgos extraídos, a saber, CT, NDVI y GC. Para cada rasgo, se ajustó un modelo nulo (Modelo I) a las observaciones extraídas de la imagen ortomosaica (una observación por parcela Modelo Ia) y al promedio de las múltiples observaciones por parcela, extraídas de las imágenes ortorrectificadas (Modelo IB). Los tres modelos restantes (II, III y IV) se ajustaron a los rasgos extraídos de imágenes ortorrectificadas (es decir, múltiples observaciones por parcela) y estaban destinados a reconocer diferentes aspectos del proceso de recopilación de datos. El ajuste del modelo se implementó utilizando el paquete ASReml-R (Ver.4) en R (Butler et al., 2009 Gilmour et al., 2015), con componentes de varianza estimados por máxima verosimilitud residual (REML) (Butler et al., 2009 Gilmour et al., 2015). A continuación, se muestran detalles adicionales para cada modelo.

Modelo I

El modelo I fue desarrollado para ajustarse a una sola observación por parcela, y esta única observación se extrae de una sola imagen ortomosaica por parcela (ymetro, Modelo Ia) o promediando múltiples observaciones a nivel de parcela (y r & # x00AF) extraídas de imágenes ortorrectificadas (Modelo IB). Específicamente,

donde superíndices (yoa) y yoB) indican el modelo al que corresponde cada parámetro. Dentro de cada modelo, & # x03BC representa la intersección, GRAMOI es el efecto aleatorio de la entrada i-ésima que se asume distribuida como iid G i & # x223C N & # x2062 (0, & # x03C3 G 2), B j es el efecto aleatorio del j-ésimo bloque asumido distribuido como iid B j & # x223C N & # x2062 (0, & # x03C3 B 2), R k & # x2062 (j) es el efecto aleatorio de la k-ésima fila anidada dentro de un bloque y supuestamente distribuida como iid R (j) & # x2062 k & # x223C N & # x2062 (0, & # x03C3 R 2), C l & # x2062 (j) es el efecto aleatorio de la l-ésima columna anidada dentro del bloque y distribuida como iid C (j) & # x2062 l & # x223C N & # x2062 (0, & # x03C3 C 2) Finalmente, ei & # x2062 j & # x2062 k & # x2062 l (I a) & # x223C N & # x2062 (0, & # x03C3 e (I a) 2) y ei & # x2062 j & # x2062 k & # x2062 l (I b) & # x223C N & # x2062 (0, & # x03C3 e (I b) 2) son residuos remanentes específicos del modelo exclusivo de la parcela ijkl th.

Modelo II

Dadas las múltiples observaciones en cada parcela que se extrajeron de imágenes ortorrectificadas (yr), es posible evaluar la variabilidad entre las observaciones dentro de una parcela (es decir, la varianza dentro de la parcela) expandiendo el Modelo I de la siguiente manera.

donde & # x03BC, GRAMOI,Bj,Rk(j), y Cl (j) se definen como para el Modelo I. Mientras tanto, (R& # x00D7C)(B)kl(j) (II) es el efecto aleatorio de una parcela individual identificada por la combinación de la k-ésima fila y la l-ésima columna dentro del j-ésimo bloque, supuestamente distribuida iid (R & # x00D7 C) & # x2062 (B) k & # x2062 l & # x2062 (j) (II) & # x223C N & # x2062 (0, & # x03C3 R & # x00D7 C & # x2062 (B) (II) 2), y & # x03B5 i & # x2062 j & # x2062 k & # x2062 l & # x2062 m (II) es el ruido residual sobrante de la observación recopilada en la m th imagen ortorrectificada de la parcela ijkl th, y asumida como iid distribuida & # x03B5 i & # x2062 j & # x2062 k & # x2062 l & # x2062 m (II) & # x223C N & # x2062 (0, & # x03C3 & # x03B5 (II) 2) En particular, en el Modelo II, términos residuales restantes & # x03B5 i & # x2062 j & # x2062 k & # x2062 l & # x2062 m (II) son únicos para cada observación dentro de una parcela dada y, por lo tanto, representan la replicación técnica (es decir, submuestreo) de las parcelas en el proceso de recopilación de datos.

Modelo III

Recuerde que cada imagen ortorrectificada incluye múltiples gráficos en el campo de visión de la cámara (Figuras 3 & # x20135) y que las imágenes fueron capturadas por el UAS siguiendo una trayectoria serpenteante (moviéndose a lo largo de la dirección de la columna y girando en las filas del límite) para cubrir todo el campo. Por lo tanto, para el Modelo III, consideramos reemplazar la especificación de los efectos espaciales de fila y columna con un efecto de agrupamiento de la imagen, de la siguiente manera:

Figura 3. Ilustración del ángulo acimutal de la cámara. La imagen RGB fue capturada por el UAS mostrando una pequeña parte del campo. El punto azul representaba la posición proyectada de la cámara en el suelo. Los puntos rojos representaron el centro de cada parcela. El ángulo de acimut de la cámara (& # x03B8) era el ángulo entre el este verdadero (como 0 & # x00B0) y el vector desde el centro de la trama hasta la posición de la cámara.

Figura 4. Imágenes ortomosaicas y ortorrectificadas de TC. Las imágenes térmicas sin procesar para CT se capturaron el 2 de marzo de 2018 a 60 m AGL y se procesaron para generar (A) una imagen ortomosaica del campo parcial y múltiples imágenes ortorrectificadas de secciones del campo, dos de las cuales se muestran aquí (ANTES DE CRISTO). Los polígonos negros delimitados por líneas finas de puntos dentro de cada imagen delimitan los límites de la trama. Los polígonos negros en líneas punteadas gruesas resaltan una sección de campo de interés común a las tres imágenes. En cada imagen, una estrella negra marca la misma trama. El rango de temperatura (en grados Celsius) está marcado en cada imagen. Las áreas azules continuas (ANTES DE CRISTO) son píxeles no efectivos debido a la ortorrectificación de las imágenes sin procesar.

Figura 5. Imágenes ortomosaicas y ortorrectificadas de NDVI. Las imágenes sin procesar para NDVI se capturaron el 4 de abril de 2018, a 20 m AGL del experimento de campo de trigo 2017 & # x201318 y se procesaron para generar (A) una imagen ortomosaica de un bloque en el campo y múltiples imágenes ortorrectificadas de secciones de dicho bloque, dos de las cuales se muestran aquí (ANTES DE CRISTO). Los polígonos negros delimitados por líneas finas de puntos dentro de cada imagen delimitan los límites de la trama. Yellow rectangles in dashed lines delimit the same subset of six plots in all three images. The range of NDVI (unitless) is marked in each image. The continuous white areas (B,C) are non-effective pixels due to orthorectification to the raw images.

where μ, GRAMOI, y Bj are defined as for Model II. In turn, I n ( III ) is the random effect of the n th image and is assumed distributed as iid I n ( III ) ∼ N ⁢ ( 0 , σ I ( III ) 2 ) Meanwhile, each plot is identified by the combination of the i th entry in the j th block, namely ( G × B ) i ⁢ j ( III ) and assumed iid ( G × B ) i ⁢ j ( III ) ∼ N ⁢ ( 0 , σ G × B ( III ) 2 ) Finally, ε i ⁢ j ⁢ n ( III ) is the left-over residual noise of the observation collected on the n th orthorectified image of the ij th plot, assumed distributed as iid ε i ⁢ j ⁢ n ( III ) ∼ N ⁢ ( 0 , σ ε ( III ) 2 ) Much like in Model II, residual terms ε i ⁢ j ⁢ n ( III ) in model III are unique to an observation within a plot and thus represent technical replication (i.e., subsampling) in the data collection process.

Model IV

Model IV extends Model III to recognize that orthorectified images on a given plot are captured from different angles. Thus, Model IV incorporated camera view angle as an explanatory covariate in the linear predictor. This angle is defined from the center of the field plot to the camera’s position where the image is captured. As the UAS’s altitude could not be held constant during image acquisition, the absolute camera height above the ground level could not be accurately measured. Therefore, only the latitude and longitude (i.e., y and x coordinates) values of both the plot center and the camera were used to calculate the camera azimuth angle (Figure 3). Model IV was specified as follows:

donde Xijn is the camera azimuth angle corresponding to the n th orthorectified image for the ij th plot, β is the associated partial regression coefficient, and all remaining terms are defined as in Equation (6).

Model Comparison

Specific model comparisons were targeted to address questions of interest. Specifically, Model IB was compared to Model Ia to evaluate the effect of an averaged plot-level observation extracted from multiple orthorectified images compared to a single observation extracted from blended pixels in an orthomosaic image. Next, Model II was compared to Model I to investigate the effect of subsampling on estimation of the additive genetic variance (and functions thereof) based on multiple plot-level observations extracted from orthorectified images (II) compared to a single plot-level observation extracted from an orthomosaic image (Ia) or from the average of multiple orthorectified images (IB). Furthermore, a comparison between Models II and III were intended to consider alternative ways of accounting for spatial variation, namely through rows and columns (II) vs. image clusters (III). Finally, Model IV expanded Model III to adjust for potential technical effects of the UAS with respect to the camera view angle.

Two metrics were selected for model comparisons, specifically the broad-sense heritability (H 2 ) or repeatability, and the Bayesian Information Criterion (BIC) (Neath and Cavanaugh, 2012).

For all models, variance component estimates were used to compute H 2 as follows. Specifically, to Models Ia y yoB (Equations 3 to 4), H 2 was calculated as,

Using estimates of the entry-level variance σ ε 2 and the plot-level variance σ e 2 from Models Ia y yoB, y r defined as the number of plots per entry (i.e., number of blocks). For Models II, III, and IV (Equation 5 to 7), the calculation of H 2 included plot-level variance estimates (i.e., σ R × C ⁢ ( B ) ( II ) 2 , σ G × B ( III ) 2 , σ G × B ( IV ) 2 ) , and estimates of σ ε 2 characterizing subsampling, weighted by the number of subsamples (n) per plot, calculated as the harmonic mean number of observations across plots. Specifically, for model II

And for each of Models III and IV:

As Models Ia, IB, and II have different response variables, and BIC is used for model comparison assuming the same set of observations on the response variable, BIC is only used for Models II, III and IV in this study. Values of BIC were obtained from the ASReml-R (Ver. 4) package output. Smaller values of BIC are considered to indicate better fitting models.

Disponibilidad de datos

Data associated with these experiments, including the cropped, plot-level orthomosaic images and corresponding orthorectified images, can be accessed at the public repository 7 .


A topological enabled three-dimensional model based on constructive solid geometry and boundary representation

Ordinary triangular mesh model can be constructed from discrete point cloud. However, this kind of model contains large amount of data. It is not only difficult to split, but also lacks topological relation information. We proposed a CSG–BRep (Constructive Solid Geometry—Boundary Representation) topological model to overcome these problems. CSG–BRep model can record topological relationship of 3D model in great detail. We first introduced aspects of the topological model: location, orientation and sub-shape. Then we proposed two algorithms to access topological structure. We also proposed algorithms for performing Boolean operation on CSG–BRep models. Finally, we demonstrated CSG–BRep construction using LIDAR point cloud as a data source. We would show that, compared to ordinary triangular mesh model, CSG–BRep model is composable and can effectively reduce data volume. In addition, CSG–BRep model has detailed topological relation information, allowing further querying and analysis of 3D spatial topological information.

Esta es una vista previa del contenido de la suscripción, acceda a través de su institución.


‘High-level’ functions¶

Several ‘high level’ functions have been implemented for SpatRaster objects. ‘High level’ functions refer to functions that you would normally find in a computer program that supports the analysis of raster data. Here we briefly discuss some of these functions. All these functions work for raster datasets that cannot be loaded into memory. See the help files for more detailed descriptions of each function.

The high-level functions have some arguments in common. The first argument is typically a SpatRaster ‘x’ or ‘object’. It is followed by one or more arguments specific to the function (either additional SpatRaster objects or other arguments), followed by a filename=”” and “…” arguments.

The default filename is an empty character “”. If you do not specify a filename, the default action for the function is to return a raster object that only exists in memory. However, if the function deems that the raster object to be created would be too large to hold memory it is written to a temporary file instead.

The “…” argument allows for setting additional arguments that are relevant when writing values to a file: the file format, datatype (e.g. integer or real values), and a to indicate whether existing files should be overwritten.

Modifying a SpatRaster object¶

There are several functions that deal with modifying the spatial extent of SpatRaster objects. The crop function lets you take a geographic subset of a larger raster object. You can crop a SpatRaster by providing an extent object or another spatial object from which an extent can be extracted (objects from classes deriving from Raster and from Spatial in the sp package). An easy way to get an extent object is to plot a SpatRaster and then use drawExtent to visually determine the new extent (bounding box) to provide to the crop function.

trim crops a SpatRaster by removing the outer rows and columns that only contain NA values. In contrast, extend adds new rows and/or columns with NA values. The purpose of this could be to create a new SpatRaster with the same Extent of another, larger, SpatRaster such that they can be used together in other functions.

The merge function lets you merge 2 or more Raster objects into a single new object. The input objects must have the same resolution and origin (such that their cells neatly fit into a single larger raster). If this is not the case you can first adjust one of the Raster objects with use (dis)aggregate or resample .

aggregate and disaggregate allow for changing the resolution (cell size) of a SpatRaster object. In the case of aggregate , you need to specify a function determining what to do with the grouped cell values mean . It is possible to specify different (dis)aggregation factors in the x and y direction. aggregate and disaggregate are the best functions when adjusting cells size only, with an integer step (e.g. each side 2 times smaller or larger), but in some cases that is not possible.

For example, you may need nearly the same cell size, while shifting the cell centers. In those cases, the resample function can be used. It can do either nearest neighbor assignments (for categorical data) or bilinear interpolation (for numerical data). Simple linear shifts of a Raster object can be accomplished with the shift function or with the extent function. resample should not be used to create a Raster* object with much larger resolution. If such adjustments need to be made then you can first use aggregate.

With the warp function you can transform values of SpatRaster object to a new object with a different coordinate reference system.

Here are some simple examples.

Aggregate and disaggregate.

flip lets you flip the data (reverse order) in horizontal or vertical direction – typically to correct for a ‘communication problem’ between different R packages or a misinterpreted file. rotate lets you rotate longitude/latitude rasters that have longitudes from 0 to 360 degrees (often used by climatologists) to the standard -180 to 180 degrees system. With t you can rotate a SpatRaster object 90 degrees.

Overlay¶

The overlay function can be used as an alternative to the raster algebra discussed above. Overlay, like the functions discussed in the following subsections provide either easy to use short-hand, or more efficient computation for large (file based) objects.

With overlay you can combine multiple Raster objects (e.g. multiply them). The related function mask removes all values from one layer that are NA in another layer, and cover combines two layers by taking the values of the first layer except where these are NA .

calc allows you to do a computation for a single SpatRaster object by providing a function. If you supply a SpatRaster , another SpatRaster is returned. If you provide a multi-layer object you get a (single layer) SpatRaster if you use a summary type function (e.g. sum but a RasterBrick if multiple layers are returned. stackApply computes summary type layers for subsets of a RasterStack or RasterBrick .

Reclassify¶

You can use cut or reclassify to replace ranges of values with single values, or subs to substitute (replace) single values with other values.

Set all values above 4 to NA

Divide the first raster with two times the square root of the second raster and add five.

Remove from r all values that are NA in w .

Identify the cell values in u that are the same as in s .

Replace NA values in w with values of r .

Change value between 0 and 2 to 1, etc.

Substitute 2 with 40 and 3 with 50.

Focal functions¶

The focal function currently only work for (single layer) SpatRaster objects. They make a computation using values in a neighborhood of cells around a focal cell, and putting the result in the focal cell of the output SpatRaster. The neighborhood is a user-defined matrix of weights and could approximate any shape by giving some cells zero weight. It is possible to only computes new values for cells that are NA in the input SpatRaster.

Distancia¶

There are a number of distance related functions. distance computes the shortest distance to cells that are not NA . pointDistance computes the shortest distance to any point in a set of points. gridDistance computes the distance when following grid cells that can be traversed (e.g. excluding water bodies). direction computes the direction toward (or from) the nearest cell that is not NA . adjacency determines which cells are adjacent to other cells. See the gdistance package for more advanced distance calculations (cost distance, resistance distance)

Spatial configuration¶

Function clump identifies groups of cells that are connected. boundaries identifies edges, that is, transitions between cell values. area computes the size of each grid cell (for unprojected rasters), this may be useful to, e.g. compute the area covered by a certain class on a longitude/latitude raster.

Predictions¶

The package has two functions to make model predictions to (potentially very large) rasters. predict takes a multilayer raster and a fitted model as arguments. Fitted models can be of various classes, including glm, gam, and RandomForest. The function interpolate is similar but is for models that use coordinates as predictor variables, for example in Kriging and spline interpolation.

Vector to raster conversion¶

The raster package supports point, line, and polygon to raster conversion with the rasterize function. For vector type data (points, lines, polygons), objects of Spatial* classes defined in the sp package are used but points can also be represented by a two-column matrix (x and y).

Point to raster conversion is often done with the purpose to analyze the point data. For example to count the number of distinct species (represented by point observations) that occur in each raster cell. rasterize takes a SpatRaster object to set the spatial extent and resolution, and a function to determine how to summarize the points (or an attribute of each point) by cell.

Polygon to raster conversion is typically done to create a SpatRaster that can act as a mask, i.e. to set to NA a set of cells of a SpatRaster object, or to summarize values on a raster by zone. For example a country polygon is transferred to a raster that is then used to set all the cells outside that country to NA whereas polygons representing administrative regions such as states can be transferred to a raster to summarize raster values by region.

It is also possible to convert the values of a SpatRaster to points or polygons, using as.points and as.polygons . Both functions only return values for cells that are not NA . Unlike rasterToPolygons , rasterToPoints is reasonably efficient and allows you to provide a function to subset the output before it is produced (which can be necessary for very large rasters as the point object is created in memory).


Monday, April 24, 2017

Assignment 9: Mission Planning with C3P

Introducción

The purpose of this assignment was to learn about proper mission planning when it pertains to flying a UAV. To do this, C3P Mission Planning Software was used which ensures a safe and effective UAV flight plan. Throughout this assignment, all of the proper steps to planning any UAV mission will be discussed as well as potential issues and solutions to using the C3P Mission Planning software.

Mission Planning Essentials

The first step in planning any UAV mission is to examine the study site. By looking at maps, 3D models, or, better yet, physically going to the site, the pilot can make note of any potential hazards such as power lines, radio towers, buildings, terrain, and crowds of people. It is also important to note whether there will be wireless data available or not. If not, then the pilot will need to cache the data obtained from the flight. Once observation has taken place and potential hazards/obstacles are noted, the pilot can now start to plan the mission. Using any geospatial data available and drawing out multiple potential mission plans (using C3P Mission Planner in this case) is best practice. Then, checking that the weather is suitable for flying a UAV and ensuring that all required equipment is fully charged and ready to go are the last steps required before the pilot is well prepared for the mission.

Once the pilot is ready to depart, a final weather and equipment check should be done. If the forecast appears suitable for a UAV flight and all of the necessary equipment is packed, the pilot is prepared to head out to the site.

At the site, before the pilot is ready takeoff a few final steps should be completed the first being site weather. The pilot should document the wind speed and direction, temperature, and dew point of the study site. From there, the pilot should assess the field's vegetation terrain potential electromagnetic interference (EMI) from power lines, underground metals/cables, power stations, etc and launch site elevation. Lastly, the units the team will be working in should be established and standard throughout the project thereafter, the mission/s should be reevaluated given any unforeseen characteristics of the site, the network connectivity should be confirmed, and all field observations should be documented in the pre-flight check and flight log.

Once all of these steps have been completed, the pilot is ready to fly.

Using the C3P Mission Planning Software

The first step to create a mission plan in C3P is to relocate the "home", "takeoff", "rally", and "land" locations to the study site on the map. Next, the user will draw a flight path using the draw tool. Depending on the individual site, the user can draw the path by point, line, or area. The tool also has a measurement option for precise flight path drawing. Once the user has drawn the flight path, the mission settings are adjusted. The mission settings include altitude, UAV speed, frontal and side overlap, ground sampling distance (GSD), overshoot, and camera type (figure 1).


Ver el vídeo: Extraer coordenadas de un poligono en QGIS 2018