CLASIFICACIÓN DE CULTIVOS A TRAVÉS DE IMÁGENES RADAR DE APERTURA SINTÉTICA (SAR) INFORME BIMENSUAL MARZO-ABRIL



Documentos relacionados
CLASIFICACIÓN DE CULTIVOS A TRAVÉS DE IMÁGENES RADAR DE APERTURA SINTÉTICA (SAR) INFORME BIMENSUAL MAYO-JUNIO

CLASIFICACIÓN DE CULTIVOS A TRAVÉS DE IMÁGENES DE RADAR DE APERTURA SINTÉTICA (SAR) INFORME BIMENSUAL ENERO-FEBRERO

Sistemas de Información Geográficos (SIG o GIS)

EL MODELO DE DATOS RASTER

de la empresa Al finalizar la unidad, el alumno:

SIIT SISTEMA INFORMÁTICO DE INSPECCIONES DE TRABAJO. Modulo de Planificación Manual de Usuario

SCOP++ Lidar. Metodología de filtrado

Ingeniería del Software I Clase de Testing Funcional 2do. Cuatrimestre de 2007

MÁQUINA DE VECTORES DE SOPORTE

5.4. Manual de usuario

ESTADÍSTICA APLICADA A LA INVESTIGACIÓN EN SALUD Construcción de una Base de Datos

Guías _SGO. Gestione administradores, usuarios y grupos de su empresa. Sistema de Gestión Online

Resumen de la Tesina. Autor: Adrià Batet López. Tutor: Víctor Pascual Ayats

ANÁLISIS DE DATOS NO NUMERICOS

Introducción a la Firma Electrónica en MIDAS

Guía Notas Parciales. Intermedio

EJERCICIO. Clasificación Supervisada

Sistemas de Sensación Segmentación, Reconocimiento y Clasificación de Objetos. CI-2657 Robótica M.Sc. Kryscia Ramírez Benavides

1.1. Introducción y conceptos básicos

Capítulo 2. Técnicas de procesamiento digital de imágenes y reconocimiento de patrones.

TABLA DE DECISION. Consideremos la siguiente tabla, expresada en forma genérica, como ejemplo y establezcamos la manera en que debe leerse.

Tercera Sesión de Conversación (CHAT): Aplicación de Sensores Remotos Satelitales de Microondas

Parte I: Introducción

Mineria de datos y su aplicación en web mining data Redes de computadores I ELO 322

UNIVERSIDAD DE ALMERÍA ESCUELA SUPERIOR DE INGENIERÍA TITULACIÓN DE INGENIERÍA TÉCNICA AGRÍCOLA ESPECIALIDAD MECANIZACIÓN Y CONSTRUCCIONES RURALES

Sistema Inteligente de Exploración

Clasificación de Música por Genero Utilizando Redes Neuronales Artificiales. Elkin García, Germán Mancera, Jorge Pacheco

Tema 3. Medidas de tendencia central Introducción. Contenido

PRODUCTIVIDAD DE PROYECTOS DE DESARROLLO DE SOFTWARE: FACTORES DETERMINANTES E INDICADORES

ing Solution La forma más efectiva de llegar a sus clientes.

Ciclo de vida y Metodologías para el desarrollo de SW Definición de la metodología

Estas visiones de la información, denominadas vistas, se pueden identificar de varias formas.

CRM Gestión de Oportunidades Documento de Construcción Bizagi Process Modeler

CLASIFICACIÓN NO SUPERVISADA

Centro de Capacitación en Informática

TEMA 4: Introducción al Control Estadístico de Procesos

"Diseño, construcción e implementación de modelos matemáticos para el control automatizado de inventarios

REPORTE MENSUAL MAYO 2009

Tema 4: De esa comparación se pueden determinar las causas de posibles diferencias y efectuar las correcciones cuando correspondan.

Control Estadístico de Procesos

Resumen ÁREA DE FACTURACIÓN::INFORMES::Pedidos Detalle Resumen ÁREA DE

Funcionalidades Software PROYECTOS GotelGest.Net Software para la gestión de Proyectos GotelGest.Net

CAPÍTULO 6 SIMULACIONES Y RESULTADOS

Manual de Usuario Proveedor Módulo Cotizaciones

Contenidos. INFORME ENCUESTA TELEFÓNICA. Curso

Curso Excel Básico - Intermedio

Aprender a realizar filtrados de información en capas de SIG raster.

PROTOCOLO PARA LA GENERACIÓN DE POLÍGONOS DESDE GOOGLE EARTH AGRICULTURA ORGANICA 2010

MANUAL DE AYUDA MODULO TALLAS Y COLORES

Cierre de Ejercicios Fiscales en el Sistema ASPEL-COI 4.0

Capítulo 9. Archivos de sintaxis

Manual del Alumno de la plataforma de e-learning.

4 Pruebas y análisis del software

Decisión: Indican puntos en que se toman decisiones: sí o no, o se verifica una actividad del flujo grama.

EL PROCESO DE INVENTARIO PARA ESCENARIOS DE SERVICIOS DISTRIBUIDOS

Elementos requeridos para crearlos (ejemplo: el compilador)

Edición de Ofertas Excel Manual de Usuario

CAPITULO IV. HERRAMIENTAS DE CÓDIGO ABIERTO

Gestión de la Configuración

2_trabajar con calc I

soluciones en Fotogrametría Digital El software de análisis más potente basado en objetos de datos geoespaciales. Fotogrametría Digital

SISTEMA DE REGISTRO DE TRANSACCIONES BURSATILES BAGSA MANUAL DE USUARIO

Control Estadístico del Proceso. Ing. Claudia Salguero Ing. Alvaro Díaz

Análisis de los datos

REPRODUCCIÓN DE LAS TABLAS DE CRECIMENTO INFANTIL QUE UTILIZAN LOS PEDIATRAS CON LOS DATOS DE LOS NIÑOS DEL COLEGIO XX

Roberto Quejido Cañamero

2 Teoría de colas o líneas de espera

CAPITULO I. Introducción. En la actualidad, las empresas están tomando un papel activo en cuanto al uso de sistemas y

TEMA 2. FILOSOFÍA DE LOS GRÁFICOS DE CONTROL. Principios básicos de los gráficos de control. Análisis de patrones.

SCT Software para la calibración de transductores de fuerza. Versión 3.5. Microtest S.A.

CSIR2121. Administración de Redes I

DOCUMENTO DE CONSTRUCCIÓN SOLUCIÓN DE NO CONFORMIDADES ISO 9000 Bizagi Process Modeler

INSTRUCTIVO PARA LA CUENTA DE PUNTOS FUNCIÓN

Una investigación australiana reveló que posiblemente la disminución

HOJA INFORMATIVA DE HORTICULTURA


Indicaciones específicas para los análisis estadísticos.

Presentaciones. Con el estudio de esta Unidad pretendemos alcanzar los siguientes objetivos:

MANUAL DE USUARIO DEL MÓDULO TPV

IV. Implantación del sistema.

CICLO FORMATIVO DE GRADO SUPERIOR COMERCIAL Y MARKETING MÓDULO PROFESIONAL POLÍTICAS DE MARKETING

Mesa de Ayuda Interna

Media vs mediana vs moda Cual medida de tendencia central es mas adecuada? MEDIA conveniencias:

TEMA 39: OPERACIONES LOCALES EN EL MODELO RASTER

Guía de Preparación de Muestras para PLASTICOS para el Software de Formulación de Datacolor

Capítulo IV. Implementación del Sistema

Manual Consultas Web - PC Sistel Ver 486R4+ - USUARIO JEFATURA

Técnicas de prueba 1. FUNDAMENTOS DE LA PRUEBA DEL SOFTWARE

SIIGO Pyme. Informes de Saldos y Movimientos de Inventarios. Cartilla I

CAPITULO 4. Requerimientos, Análisis y Diseño. El presente capítulo explica los pasos que se realizaron antes de implementar

RECOMENDACIONES Y CONCLUSIONES. al igual que la ley la elaboración de los libros diario y mayor, ya que son la base para la

Operación de Microsoft Excel. Guía del Usuario Página 79. Centro de Capacitación en Informática

Adelacu Ltda. Fono Graballo+ Agosto de Graballo+ - Descripción funcional - 1 -

Unidad 18. Clasificación según el momento en que se determinan los costos.

FICHERO DE AYUDA DEL PROGRAMA MEGAEURO

La práctica del análisis de correspondencias

Novedades en Q-flow 3.02

Manual del Sistema Extranet de Proveedores. Extranet de Proveedores. Versión 3.0. Manual de Usuario

Operación Microsoft PowerPoint 97

Práctica 1 Introducción general al SPRING

Transcripción:

MAESTRÍA EN APLICACIONES ESPACIALES DE ALERTA Y RESPUESTA TEMPRANA A EMERGENCIAS INSTITUTO DE ALTOS ESTUDIOS ESPACIALES MARIO GULICH FACULTAD DE MATEMÁTICA, ASTRONOMÍA Y FÍSICA DE LA UNIVERSIDAD DE CÓRDOBA (UNC) COMISIÓN NACIONAL DE ACTIVIDADES ESPACIALES (CONAE) - ARGENTINA ACADEMIA EUROPEA (EURAC) BOLZANO, ITALIA CLASIFICACIÓN DE CULTIVOS A TRAVÉS DE IMÁGENES RADAR DE APERTURA SINTÉTICA (SAR) INFORME BIMENSUAL MARZO-ABRIL Estudiante: Elena Campusano Tutora Italiana: Dra. Claudia Notarnicola Tutora Argentina: Ms. Sofía Lanfri Mayo 2014 1

ÍNDICE CONTENIDO PÁGINA Resumen... 5 Introducción... 7 Maximum Likelihood - Clasificador de Máxima Verosimilitud... 8 Neural Net - Red Neuronal...... 9 Support Vector Machine Máquinas de Vectores Soporte... 10 Objetivos... 11 Objetivo General Objetivo Específicos Materiales y Métodos... 12 1. Capa Vectorial a. Catastro Frutícola de la VI Región 2. Capas Raster... 13 a. ALOS PALSAR b. ALOS AVNIR-2... 14 c. DEM VI Región... 15 d. Quickbird II e. LandSat 5 Procedimiento... 16 1. Procesamiento de la Imagen LANDSAT 5 diciembre 2008 a. Apilar las Bandas y cambiar de Huso b. Falso Color 4-3-2... 17 c. Recortar la Imagen LandSat 5... 18 2. Selección de Muestras... 19 a. Selección de cultivos representativos 3. Región de Interés... 24 a. De Vector a ROI b. Edición de ROI... 25 4. Estadística... 26 a. Revisión de firma espectral b. Posibilidad de separación... 27 5. Clasificación...... 28 a. Maximum Likelihood - Clasificador de Máxima Verosimilitud... 29 b. Neural Net - Red Neuronal... 30 c. Support Vector Machine Máquinas de Vectores Soporte... 31 2

CONTENIDO PÁGINA 6. Comparación entre los Algoritmos de Clasificación en términos de porcentaje (%) 32 a. Maximum Likelihood - Clasificador de Máxima Verosimilitud b. Neural Net - Red Neuronal c. Support Vector Machine Máquinas de Vectores Soporte Procedimiento... 33 1. Procesamiento de la Imagen AVNIR-2 febrero 2009 a. Apilar las Bandas y cambiar de Huso b. Falso Color 4-3-2... 34 c. Recortar la Imagen AVNIR-2... 35 2. Selección de Muestras... 36 a. Selección de cultivos representativos 3. Región de Interés... 41 a. De Vector a ROI b. Edición de ROI... 42 4. Estadística... 43 a. Revisión de firma espectral b. Posibilidad de separación... 44 5. Clasificación... 45 a. Maximum Likelihood - Clasificador de Máxima Verosimilitud... 46 b. Neural Net - Red Neuronal... 47 c. Support Vector Machine Máquinas de Vectores Soporte... 48 6. Comparación entre los Algoritmos de Clasificación en términos de porcentaje (%) 49 a. Maximum Likelihood - Clasificador de Máxima Verosimilitud b. Neural Net - Red Neuronal c. Support Vector Machine Máquinas de Vectores Soporte Procedimiento... 50 1. Procesamiento de la Imagen AVNIR-2 febrero 2008-2009 a. Apilar las Bandas y cambiar de Huso b. Falso Color 4-3-2... 51 c. Recortar las Imágenes Apiladas Avnir2... 52 2. Selección de Muestras... 53 a. Selección de cultivos representativos 3. Región de Interés... 55 a. De Vector a ROI b. Edición de ROI... 56 4. Estadística... 57 a. Revisión de firma espectral b. Posibilidad de separación... 58 3

CONTENIDO PÁGINA 5. Clasificación... 59 a. Maximum Likelihood - Clasificador de Máxima Verosimilitud... 60 b. Neural Net - Red Neuronal... 61 c. Support Vector Machine Máquinas de Vectores Soporte... 62 6. Comparación entre los Algoritmos de Clasificación en términos de porcentaje (%) 63 a. Maximum Likelihood - Clasificador de Máxima Verosimilitud b. Neural Net - Red Neuronal c. Support Vector Machine Máquinas de Vectores Soporte Procedimiento... 64 1. Procesamiento de la Imagen PALSAR - FBS febrero 2010 enero 2009 enero 2008 a. Calibrar... 65 b. Multilooking... 66 c. Filtrar el Moteado... 67 d. Corregir el Terreno... 68 e. Reproyectar... 69 f. Georreferenciar... 70 g. Apilar las Bandas y cambiar de Huso... 71 h. Visualización en Color de las imágenes Palsar FBS... 72 i. Recortar las Imágenes Apiladas Palsar FBS... 73 2. Selección de Muestras... 74 a. Selección de cultivos representativos 3. Región de Interés... 79 a. De Vector a ROI b. Edición de ROI... 80 4. Estadística... 81 a. Revisión de firma espectral b. Posibilidad de separación... 82 5. Clasificación... 83 a. Maximum Likelihood - Clasificador de Máxima Verosimilitud... 84 b. Neural Net - Red Neuronal... 85 c. Support Vector Machine Máquinas de Vectores Soporte... 86 6. Comparación entre los Algoritmos de Clasificación en términos de porcentaje (%) 87 a. Maximum Likelihood - Clasificador de Máxima Verosimilitud b. Neural Net - Red Neuronal c. Support Vector Machine Máquinas de Vectores Soporte Desafíos Futuros... 88 Bibliografía... 89 4

RESUMEN El presente informe corresponde al segundo de los 3 documentos que se tienen que entregar durante el transcurso de esta pasantía. Éste, es la continuación del trabajo que se ha venido realizando en EURAC y que hace relación a la clasificación de cultivos a través de imágenes satelitales, tal como se detalló en el informe anterior. En esta segunda parte se termina de trabajar con la imagen LandSat 5, la cual se estaba utilizando a modo de prueba (mientras se realizaba la solicitud de imágenes ALOS). Sobre esta imagen se aplicaron los siguientes 3 algoritmos: a) Maximum Likelihood b) Neural Net c) Support Vector Machine Asimismo, una vez obtenidas las imágenes ALOS, se aplican estos algoritmos, en las siguientes imágenes, Tabla N 1: Tipo de Imagen Sensor Fecha de Adquisición Imagen Óptica AVNIR-2 febrero 2009 AVNIR-2 febrero 2008-2009 Imagen SAR ALOS - FBS febrero 2010 - enero 2009 - enero 2008 Tabla N 1 Con estos 3 algoritmos se procura clasificar cultivos en la comuna de Olivar, comuna que se seleccionó como Área de Estudio, ya que ésta cuenta con una gran cantidad de datos obtenidos del Catastro Frutícola realizado en 2009 por el Centro de Información de Recursos Naturales CIREN, perteneciente al Ministerio de Agricultura de Chile. 5

Los principales resultados obtenidos fueron los siguientes, Tabla N 2: SUPPORT VECTOR MAXIMUM LIKELIHOOD NEURAL NET Imagen / MACHINE (%) Overall Kappa Overall Kappa Overall Kappa LANDSAT 5 Accuracy Coefficient Accuracy Coefficient Accuracy Coefficient 87.0 0.8 91.4 0.9 83.2 0.7 AVNIR-2 febrero 2009 94.3 0.9 93.5 0.9 97.5 0.9 AVNIR-2 febrero 2008 88.0 0.8 95.3 0.9 88.6 0.8 febrero 2009 PALSAR-FBS febrero 2010 enero 2009 enero 2008 73.6 0.7 63.9 0.5 74.0 0.7 Tabla N 2 Para hacer las pruebas, se seleccionaron las especies cuyos cultivos se distinguen y diferencian. Además se consideraron los predios es que tiene cultivado sólo una especie. Las muestras utilizadas para la imagen LandSat5 son 5 especies: Ciruelo Japonés, Duraznero Tipo Conservero, Manzano rojo, Manzano Verde y Vid de Mesa. Las muestras utilizadas para la imagen AVNIR-2 febrero 2008 son 6 especies: Ciruelo Japonés, Duraznero Tipo Conservero, Kiwi, Manzano Rojo, Manzano Verde y Vid de Mesa. Las mismas muestras se utilizaron cuando se apiló con la imagen de febrero 2009. Las muestras utilizadas para las imágenes PALSAR-FBS febrero, 2010, enero 2009 y enero 2008 son 5 especies, de las cuales 2 tienen 2 clases: Cerezo, Duraznero Tipo Conservero, Kiwi, Manzano Rojo y Vid e Mesa. Tanto en la especie de Duraznero Tipo Conservero y Kiwi se pudo diferenciar 2 estados del cultivo. Cabe señalar que aún se está trabajando en la depuración de las muestras ya que el porcentaje final al utilizar los algoritmos, esta fuera del deseado. 6

INTRODUCCIÓN Principalmente en esta etapa se va a dar a conocer cómo funcionan los 3 tipos de algoritmos con los que se va a trabajar, tanto para imágenes ópticas como para imágenes de radar, ya sea para un año en específico o para la combinación de varios años por lo tanto serán apiladas estas imágenes según sus características. Cabe señalar que todas las pruebas se hicieron en base a las muestras sacadas de la cobertura del Catastro Frutícola, se seleccionó un conjunto de muestras de entrenamiento y un conjunto de muestras de prueba. A continuación se da conocer las características de cada uno de los algoritmos a utilizar: 7

Maximum Likelihood - Clasificador de Máxima Verosimilitud: La clasificación de máxima probabilidad asume que las estadísticas de cada clase en cada banda tienen una distribución normal y calcula la probabilidad de que un píxel dado, pertenece a una clase específica. A menos que un umbral de probabilidad está seleccionado, todos los píxeles se clasifican. A cada píxel se le asigna la clase que tiene la probabilidad más alta 1. Se debe ejecutar una clasificación de máxima verosimilitud sobre un conjunto de bandas de raster y así se crea un raster clasificado como salida. En la Figura N 1 aparecen una serie de elipses rodeando a cada uno de los centroides, se trata de líneas de isoprobabilidad, por tanto el pixel se clasificará como perteneciente a la clase en la que sus valores resulten más probables. Sin embargo la hipótesis de que los datos de reflectividad siguen una distribución normal no siempre se cumple y debería verificarse siempre 2. Figura N 1 Es una función de probabilidad multidimensional para determinar la probabilidad de que cualquier pixel pertenezca a una determinada categoría. Asigna cada pixel a la clase de mayor probabilidad de pertenencia. Permite prefijar un determinado pixel a una clase, ya sea por conocer su estadística o por trabajo de campo, eliminando aquellos con menor probabilidad de pertenencia 3. 1 «Manejo del ENVI V4.5 (página 5) - Monografias.com». 2014. 2 «Prácticas de Teledetección: Clasificación». 2014. http://www.um.es/geograf/sig/teledet/clasific1.html. 3 Tecnológica, Centro de Información. 2000. Información Tecnológica. Centro de Información Tecnológica. 8

Neural Net - Red Neuronal: Este método está inspirado en la modelización de la capacidad perceptiva del cerebro humano. Se ha propuesto un concepto que muestra las analogías con el modo en que trabaja el cerebro, basado en la utilización de una red de "neuronas" 4, para ello se crea una red de unidades procesadoras interconectadas (neuronas artificiales), cada una de las cuales es una simple computadora que recibe señales ponderadas provenientes de otras neuronas, las suma, realiza una operación sencilla sobre dicha suma y el resultado lo envía a otras neuronas. Esta red tiene tres capas de neuronas: la capa de entrada (input layer) es simplemente una interface que no realiza ningún procesamiento. Las capas media ( hidden layer ) y de salida (output layer) contienen los elementos procesadores de cada nodo de la red. En la Figura N 2 hay una red con una sola capa media, pero podría haber más. En un caso simple de clasificación la información de entrada serían los vectores multiespectrales de los pixeles de entrenamiento, una banda por nodo. En cada nodo de la capa media se produce una sumatoria y una transformación 5. Figura N 2 Hay dos fases en la modelización con redes neuronales 6 : Fase de entrenamiento: se usa un conjunto de datos o patrones de entrenamiento para determinar los pesos (parámetros) que definen el modelo de red neuronal. Fase de Prueba: en la fase anterior, el modelo puede que se ajuste demasiado a las particularidades presentes en los patrones de entrenamiento, perdiendo su habilidad de generalizar su aprendizaje a casos nuevos (sobreajuste). Para evitar el problema del sobreajuste, es aconsejable utilizar un segundo grupo de datos diferentes a los de entrenamiento, el grupo de validación, que permita controlar el proceso de aprendizaje. 4 «Redes neuronales». 2014. http://www.eumetcal.org/euromet/spanish/satmet/s5600/s5600b3a.htm. 5 «Clasificación de redes neuronales artificiales». 2014. http://www.teledet.com.uy/tutorial-imagenes-satelitales/redes-neuronales-artificiales.htm. 6 Alía Martín, Andrés. 2010. «Estudio e implementación de sensores de fuerza 3D con aplicación a manos robóticas». http://orff.uc3m.es/handle/10016/10096. 9

Support Vector Machine Máquinas de Vectores Soporte Es un método de clasificación supervisada derivada de la teoría del aprendizaje estadístico que a menudo produce buenos resultados de la clasificación de datos complejos y ruidosos. Se separa las clases con una superficie de decisión que maximiza el margen entre las clases. La superficie es a menudo llamada hiperplano óptimo, y los puntos de datos más cercanos al hiperplano se denominan vectores de soporte 7. El objetivo de este tipo de modelado es encontrar el hiperplano óptimo que separa grupos de vector de tal manera que los casos con una categoría de la variable de destino están en un lado del plano y los casos con la otra categoría están en el otro lado del plano, tal como se muestra en la Figura N 3 8. Figura N 3 Dado los datos de entrenamiento etiquetados (aprendizaje supervisado), el algoritmo emite un hiperplano óptimo que categoriza nuevos ejemplos. Una línea es mala si pasa demasiado cerca de los puntos, ya que será sensible al ruido y no va a generalizar correctamente. Por lo tanto, nuestra meta debe ser encontrar el paso de la línea lo más lejos posible desde todos los puntos. Entonces, la operación del algoritmo de SVM se basa en encontrar el hiperplano que da la distancia mínima más grande de los ejemplos de entrenamiento. Dos veces, esta distancia recibe el nombre importante del margen dentro de la teoría de SVM. Por lo tanto, el hiperplano óptimo de separación maximiza el margen de los datos de entrenamiento. 7 «Support Vector Machine Background (Using ENVI) Exelis VIS Docs Center». 2014. http://www.exelisvis.com/docs/backgroundsvm.html. 8 «SVM - Support Vector Machines». 2014. http://www.dtreg.com/svm.htm. 10

OBJETIVOS Objetivo General: Clasificar cultivos a través de imágenes de Radar de Apertura Sintética (SAR). Objetivos Específicos: Conocer los conceptos y las características de las imágenes de SAR Conocer y realizar procesamientos de imágenes SAR. Conocer y aplicar metodologías de Clasificación de imágenes Ópticas y SAR. Realizar comparación de resultados de los distintos tipos de procesamiento. 11

MATERIALES Y MÉTODOS 1. Capa Vectorial Tal como se indicó en el informe anterior, se utiliza el Catastro Frutícola de la VI Región de Chile, el cual básicamente se compone como a continuación se indica: a. Catastro Frutícola de la VI Región. Cobertura del Catastro dentro de la comuna de Olivar. Figura N 4. Base de Datos del Catastro. Tabla N 3. Figura N 4 ESPECIE SUPERFICIE (ha) Almendro 12,6 Arándano americano 5,1 Cerezo 120,1 Ciruelo europeo 64,9 Ciruelo japonés 56,0 Damasco 30,3 Duraznero consumo fresco 63,8 Duraznero tipo conservero 136,8 Frambuesa 1,0 Kiwi 136,1 Manzano rojo 326,6 Manzano verde 353,7 Membrillo 11,6 Moras cultivadas e híbridos 0,4 Nectarino 97,3 Nogal 1,8 Palto 9,0 Peral 194,6 Peral asiático 5,4 Vid de mesa 281,6 TOTAL 1.908,7 Tabla N 3 12

2. Capas Raster a. ALOS PALSAR Phased Array type L-band Syntectic Aperture Radar (PALSAR): es un sensor activo de microondas que utiliza frecuencia en banda L y obtiene una observación libre de nubes de día y de noche de la Tierra. Las imágenes proveen información de un mismo punto de la tierra cada 46 días y cubren un área de 70 Km X 70 Km. A continuación se muestra las principales características de las 3 imágenes FBS (Fine Beam Single polarization mode) utilizadas: Características individuales según imagen: 1. Scs_SceneID = "ALPSRP214586490" Acquisition date = 03-Feb-2010, 03:59:47 Orbit = 21458 X pixel size = 4.6842572 m Y pixel size = 3.228369 m 2. Scs_SceneID ="ALPSRP160906490" Acquisition date = 31-Jan-2009, 03:58:08 Orbit = 16090 X pixel size = 4.6842572 m Y pixel size = 3.2011836 m 3. Scs_SceneID ="ALPSRP107226490" Acquisition date = 29-Jan-2008, 03:56:52 Orbit = 10722 X pixel size = 4.6842572 m Y pixel size = 3.2284095 m Características en común para todas las imágenes: Pds_ProductID ="H1.1 A" Polarization = HH Sensor = ALOS Mode = FBS8 Img_OffNadirAngle = "34.3" Pdi_ProductFormat = "CEOS" Brs_BrowseBitPixel = "8" Orbit direction = Ascending Band count = 1 13

b. ALOS AVNIR-2 Advanced Visible and Near Infrared Radiometer type 2 (AVNIR-2): proporciona información de la superficie terrestre en el espectro del visible y el infrarrojo cercano. Las imágenes proveen información de un mismo punto de la tierra cada 46 días y cubren un área de 70 Km X 70 Km. A continuación se muestra las principales características de las 2 imágenes utilizadas: Características individuales según imagen: 1. Scs_SceneID = "ALAV2A164474290" Acquisition date = 24-Feb-09 Orbit = 16447 Sun azimuth angle = 56 Sun elevation angle = 52 2. Scs_SceneID = "ALAV2A110794290" Acquisition date = 22-Feb-08 Orbit = 11079 Sun azimuth angle = 58 Sun elevation angle = 52 Características en común para todas las imágenes: Pds_ProductID = "O1B2G_U" Sensor = ALOS Mode = 1B2G Pdi_ProductFormat = "CEOS" Pdi_BitPixel = "8" Orbit direction = Descending Band count = 4 Band 1: 0.4600 micras Band 2: 0.5600 micras Band 3: 0.6500 micras Band 4: 0.8250 micras X pixel size: 10 m Y pixel size: 10 m Pds_UTM_ZoneNo="19" Pds_MapDirection="MapNorth" 14

c. DEM VI REGIÓN: Para poder llevar a cabo el proceso de Geocodificación (Corrección del terreno) con las imágenes ALOS PALSAR es necesario tener un Modelo Digital de Elevación (DEM) del Área de Estudio. Unos de los últimos trabajos que ha llevado a cabo CIREN es la generación de un DEM, el cual se generó a partir del uso de pares estéreos (bandas 3N y 3B) de las imágenes satelitales ASTER y puntos de control tomados en terreno mediante un equipo GPS. Como resultado se puede concluir que se obtuvo errores promedios cercanos a los 6 m (altura) con una resolución de 15 m. d. IMAGEN QUICKBIRD II Las ortoimágenes que abarcan la comuna de Olivar, son un insumo auxiliar para llevar a cabo el proceso de clasificación de cultivos, ya que éstas se utilizaron en la generación de cartografía para la campaña de terreno escala 1:10000, y sobre éstas se digitalizó el catastro frutícola del la VI Región. Es un complemento muy útil para seleccionar muestras, ya que el nivel de detalle permite identificar claramente un cultivo de otro, esto se debe a que la resolución espacial de estas ortoimágenes es de 0.6 m. Estas imágenes se solicitan a CIREN. e. LANDSAT 5 En el informe anterior se detalló las propiedades de la imagen utilizada, de igual forma a continuación se muestra las principales características. ORIGIN = "Image courtesy of the U.S. Geological Survey" LANDSAT_SCENE_ID = "LT52330842008345CUB00" DATE_ACQUIRED = 2008-12-10 WRS_PATH = 233 WRS_ROW = 084 SPACECRAFT_ID = "LANDSAT_5" SENSOR_ID = "TM" DATA_TYPE = "L1T" OUTPUT_FORMAT = "GEOTIFF" GRID_CELL_SIZE_REFLECTIVE = 30.00 m GRID_CELL_SIZE_THERMAL = 30.00 m MAP_PROJECTION = "UTM" DATUM = "WGS84" ELLIPSOID = "WGS84" UTM_ZONE = 19 CLOUD_COVER = 20.00 % SUN_AZIMUTH = 78.40406066 SUN_ELEVATION = 57.51575084 15

1. Procesamiento de la Imagen: LANDSAT 5 - diciembre 2008 PROCEDIMIENTO Una vez que es descargada la imagen se procede a procesarla para poder trabajar con los parámetros que se desean. El procesamiento de las imágenes se realiza en ENVI 4.8: a. Apilar las Bandas y cambiar de Huso: Se importan todas las bandas de la imagen y se recurre a la herramienta Layer Stacking, este proceso apila todas las bandas en una sola imagen. Al utilizar esta herramienta, también se puede cambiar las características del sistema de coordenadas, en este caso es necesario dejar la imagen en: UTM - WGS84 - Huso 19 Sur. Figura N 5 Figura N 5 16

b. Falso Color 4-3-2: Se realiza la combinación de bandas 4, 3, 2, ya que con esta combinación de bandas se pretende llevar a cabo el proceso de clasificación, debido a que permite resaltar las masas vegetales, las cuales se ven de color rojo más intenso cuanto más frondosas sean 910. Figura N 6 Figura N 6 9 «01_Estudio_Medio_Ambiente.pdf» 2014 http://www.bioygeo.info/pdf/01_estudio_medio_ambiente.pdf. 10 «Landsat-analisis-visual.pdf» 2014 http://www.cartesia.org/data/apuntes/teledeteccion/landsat-analisis-visual.pdf 17

c. Recortar la Imagen LandSat 5: Para que sea más efectiva la prueba de clasificación es necesario recortar la imagen abarcando sólo el sector de la comuna donde se levantó el catastro y se tienen datos, ya que si se aplica sobre toda la imagen, no se puede verificar si está bien o no la clasificación, debido a que no se tienen datos para comprobarlo. La herramienta utilizada para el recorte de la imagen es Resize Data (Spatial/Spectral). Figura N 7 Figura N 7 18

2. Selección de Muestras: Una vez que se dejó la imagen con los parámetros deseados, se procede a seleccionar las muestras tanto de entrenamiento como de testeo. Este procedimiento se realiza en ArcGis 9.3. a. Selección de cultivos representativos: Se despliega la imagen recortada con la combinación en falso color 4-3-2, y sobre ella el archivo vectorial del catastro frutícola. Una vez que se identifican los cultivos, se generan polígonos de los cultivos más representativos de la comuna, es decir, los que visualmente se distinguen y diferencian. Figura N 8 Al crear el conjunto de muestras, es importante dejar 2 grupos de polígonos, los primeros para el entrenamiento, éstos serán los que utilice el algoritmo para clasificar y los segundos para el testeo, los cuales se utilizarán una vez que ha efectuado la clasificación éstos permitirán comprobar qué tan efectiva resultó la clasificación. Figura N 8 19

A continuación se indica qué especies se utilizaron para extraer muestras, cabe señalar que sólo se seleccionaron los predios en donde hay una sola especie por predio, ya que existen casos en donde hay hasta 3 especies, pero para efectos del ejercicio de clasificación, se descartaron. 1. Ciruelo Japonés: 2. Duraznero Tipo Conservero: 3. Manzano Rojo: 20

4. Manzano Verde: 5. Vid de Mesa: 21

Las especies restantes, no se consideraron por diversas razones, a continuación se detallan en la siguiente tabla, Tabla N 4: SUPERFICIE OBSERVACIONES ESPECIE (ha) Almendro 12,6 Se descarta esta especie porque tiene 1 polígono. Arándano Americano 5,1 Se descarta esta especie porque tiene 3 polígonos. Cerezo 120,1 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de LandSat 5 no se logra realizar una adecuada clasificación. Ciruelo Europeo 64,9 Se descarta esta especie porque tiene 5 polígonos y están en distintos estados (ver ejemplo a continuación de la tabla). Damasco 30,3 Se descarta esta especie porque tiene 12 polígonos. Los predios son muy pequeños. Duraznero Consumo Fresco 63,8 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de LandSat 5 no se logra realizar una adecuada clasificación. Frambuesa 1,0 Se descarta esta especie porque tiene 2 polígonos Kiwi 136,1 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de LandSat 5 no se logra realizar una adecuada clasificación. Membrillo 11,6 Se descarta esta especie porque tiene 11 polígonos. Los predios son muy pequeños. Moras cultivadas e híbridos 0,4 Se descarta esta especie porque tiene 2 polígonos Nectarino 97,3 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de LandSat 5 no se logra realizar una adecuada clasificación. Nogal 1,8 Se descarta esta especie porque tiene 2 polígonos Palto 9,0 Se descarta esta especie porque tiene 11 polígonos. Los predios son muy pequeños. Peral 194,6 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de LandSat 5 no se logra realizar una adecuada clasificación. Peral asiático 5,4 Se descarta esta especie porque tiene 2 polígonos. Tabla N 4 22

A continuación se presenta un ejemplo de una especie en distinto estado, es decir, está en distintas condiciones al momento de obtención de la imagen, lo que hace que refleje en forma distinta entre un estado y otro, esto influye directamente en el resultado de la clasificación, ya que es muy fácil que se confunda con otra especie. Figura N 9 CEREZO Figura N 9 23

3. Región de Interés Una vez que se ha seleccionado el conjunto de muestras a trabajar, se procede a crear en la imagen regiones de interés con las cuales se van a efectuar las primeras pruebas. Este proceso se realiza en ENVI 4.8. a. De vector a ROI: Sobre la imagen recortada se carga el archivo vectorial de las muestras, este se exporta como ROI (Región de Interés) para poder editarlo y así poder realizar el primer entrenamiento sobre la imagen. Cabe señalar que el archivo ROI es solo un archivo que localiza posiciones dentro de una matriz, no posee información acerca de la proyección, por lo tanto sólo sirve para la imagen que se está trabajando, en este caso para LandSat 5 diciembre 2008. Estos ROI, se pueden editar (cambiar de nombre, color, etc.). Figura N 10 Figura N 10 24

b. Edición de ROI: Al cargar el ROI recién creado, se procede con la edición, en este caso se edita el nombre del campo, ya que por defecto entrega otro nombre, se agrupan las diversas especies de entrenamiento y de testeo según especie (merge regions) y se le asigna un color a cada especie. Figura N 11 Figura N 11 25

4. Estadística a. Revisión de Firma Espectral: Una vez que las regiones de interés son editadas, se puede comenzar con la evaluación de la estadística, la que entrega el primer indicio de cómo se comporta espectralmente una muestra con otra, en las bandas de la imagen. Si estas firmas espectrales son muy parecidas entre un tipo de especie de fruto y otro, es un indicador de que el algoritmo no será capaz de distinguir claramente uno de otro para poder realizar una adecuada clasificación. Al realizar un primer intento con todas las especies, se detectó una gran similitud entre la firma espectral de las muestras, por lo tanto se editaron y se filtraron, dejando sólo las 5 especies mencionadas anteriormente. Figura N 12 Primer Intento (con todas las especies) Último Intento (con las 5 especies que recién se mencionó) Figura N 12 26

b. Posibilidad de Separación: Otra forma de verificar si el algoritmo será capaz de distinguir una especie de otra en la imagen, es a través de la herramienta Compute ROI Separability, la cual entrega un reporte de cuáles especies el algoritmo será capaza de diferenciar. Figura N 13 Es importante que las muestras abarquen más píxeles de la cantidad de bandas que posea la imagen (independiente si se está trabajando con una combinación de bandas), por ejemplo para este ejemplo se está trabajando con 7 bandas, por lo tanto la cantidad de píxeles de la muestra tiene que ser superior a este número. La cantidad de píxeles recomendable para una muestra es 50, ya sea en un sólo polígono o varios pequeños (que después se agrupan con el comando merge regions ), según como esté distribuida la especie que se quiere representar. Al apreciar la cantidad de especies que no pueden ser separadas más la estadística recién revisada, se podrá comparar y evaluar si la cantidad de las especies no identificadas en la clase correcta, una vez aplicado el algoritmo a utilizar, está dentro de un porcentaje adecuado. Figura N 13 27

5. Clasificación Una vez observada y analizada la estadística y la posibilidad separación entre las especies, se procede a iniciar el proceso de clasificación. Tal como se indica y describe en la introducción de este informe, los siguientes algoritmos serán utilizados y comparados: a) Maximum Likelihood b) Neural Net c) Support Vector Machine Para cada caso se utilizó el algoritmo con las muestras de entrenamiento (TR) y para obtener la estadística fina a través de la matriz de confusión se utilizó las muestras de testero (TS), así por cada algoritmo utilizado se muestra el procedimiento y los resultados obtenidos: 28

a) Maximum Likelihood: Muestras de entrenamiento, Figura N 14: Figura N 14 Muestras de testero, Figura N 15: Figura N 15 29

b) Neural Net: Muestras de entrenamiento, Figura N 16: Figura N 16 Muestras de testero, Figura N 17: Figura N 17 30

c) Support Vector Machine: Muestras de entrenamiento, Figura N 18: Figura N 18 Muestras de testero, Figura N 19: Figura N 19 31

6. Comparación entre los Algoritmos de Clasificación en términos de porcentaje (%): A nivel general la Matriz de Confusión entrega los siguientes resultados de acuerdo a cada algoritmo utilizado: a) Maximum Likelihood: Overall Accuracy = (749/861) 86.9919% Kappa Coefficient = 0.7969 b) Neural Net: Overall Accuracy = (787/861) 91.4053% Kappa Coefficient = 0.8683 c) Support Vector Machine Overall Accuracy = (716/861) 83.1591% Kappa Coefficient = 0.7422 A nivel específico la Matriz de Confusión entrega los siguientes resultados de acuerdo a cada especie, según algoritmo utilizado, Tabla N 5: Especie / Porcentaje según Algoritmo (%) Maximum Likelihood Neural Net Support Vector Machine Ciruelo Japonés 51.39 77.78 56.94 Durazno Tipo Conservero 74.36 84.62 38.46 Manzano Rojo 81.41 87.94 64.82 Vid de Mesa 98.25 97.81 97.37 Manzano Verde 76.84 81.05 91.58 Tabla N 5 Por lo que se puede apreciar todos los métodos funcionaron muy bien con las muestras seleccionadas, se considera un porcentaje aceptable sobre el 75 %, para este tipo de clasificaciones. 32

1. Procesamiento de la Imagen: AVNIR-2 febrero 2009 PROCEDIMIENTO Una vez que es descargada la imagen se procede a procesarla para poder trabajar con los parámetros que se desean. El procesamiento de las imágenes se realiza en ENVI 4.8: a. Apilar las Bandas y cambiar de Huso: debido a las propiedades del producto solicitado, la imagen al ser importada (como ALOS, Avnir-2), se carga ya con las 4 bandas apiladas y con las características que se desean UTM - WGS84 - Huso 19 Sur. Figura N 20 Figura N 20 33

b. Falso Color 4-3-2: Se realiza la combinación de bandas 4, 3, 2, al igual como se hizo con la imagen Landsat 5. Figura N 21 Figura N 21 34

c. Recortar la Imagen AVNIR-2: Para que sea más efectiva la prueba de clasificación es necesario recortar la imagen abarcando sólo el sector de la comuna donde se levantó el catastro y se tienen datos, ya que si se aplica sobre toda la imagen, no se puede verificar si está bien o no la clasificación, debido a que no se tienen datos para comprobarlo. La herramienta utilizada para el recorte de la imagen es Resize Data (Spatial/Spectral). Figura N 22 Figura N 22 35

2. Selección de Muestras: Una vez que se dejó la imagen con los parámetros deseados, se procede a seleccionar las muestras tanto de entrenamiento como de testeo. Este procedimiento se realiza en ArcGis 9.3. a. Selección de cultivos representativos: Se despliega la imagen recortada con la combinación en falso color 4-3-2, y sobre ella el archivo vectorial del catastro frutícola. Una vez que se identifican los cultivos, se generan polígonos de los cultivos más representativos de la comuna, es decir, los que visualmente se distinguen y diferencian. Figura N 23 Al crear el conjunto de muestras, es importante dejar 2 grupos de polígonos, los primeros para el entrenamiento, éstos serán los que utilice el algoritmo para clasificar y los segundos para el testeo, los cuales se utilizarán una vez que ha efectuado la clasificación éstos permitirán comprobar qué tan efectiva resultó la clasificación. Figura N 23 36

A continuación se indica qué especies que se utilizaron para extraer muestras, cabe señalar que sólo se seleccionaron los predios en donde hay una sola especie por predio, ya que existen casos en donde hay hasta 3 especies, pero para efectos del ejercicio de clasificación, se descartaron. 1. Ciruelo Japonés: 2. Duraznero Tipo Conservero: 3. Kiwi: 37

4. Manzano Rojo: 5. Manzano Verde: 6. Vid de Mesa: 38

Las especies restantes, no se consideraron por diversas razones, a continuación se detallan en la siguiente tabla, Tabla N 6: SUPERFICIE OBSERVACIONES ESPECIE (ha) Almendro 12,6 Se descarta esta especie porque tiene 1 polígono. Arándano Americano 5,1 Se descarta esta especie porque tiene 3 polígonos. Cerezo 120,1 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de AVNIR-2 no se logra realizar una adecuada clasificación. Ciruelo Europeo 64,9 Se descarta esta especie porque tiene 5 polígonos y están en distintos estados (ver ejemplo a continuación de la tabla). Damasco 30,3 Se descarta esta especie porque tiene 12 polígonos. Los predios son muy pequeños. Duraznero Consumo Fresco 63,8 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de AVNIR-2 no se logra realizar una adecuada clasificación. Frambuesa 1,0 Se descarta esta especie porque tiene 2 polígonos Membrillo 11,6 Se descarta esta especie porque tiene 11 polígonos. Los predios son muy pequeños Moras cultivadas e híbridos 0,4 Se descarta esta especie porque tiene 2 polígonos Nectarino 97,3 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de AVNIR-2 no se logra realizar una adecuada clasificación. Nogal 1,8 Se descarta esta especie porque tiene 2 polígonos Palto 9,0 Se descarta esta especie porque tiene 11 polígonos. Los predios son muy pequeños Peral 194,6 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de AVNIR-2 no se logra realizar una adecuada clasificación. Peral asiático 5,4 Se descarta esta especie porque tiene 2 polígonos Tabla N 6 39

A continuación se presenta un ejemplo de una especie en distinto estado, es decir, está en distintas condiciones al momento de obtención de la imagen, lo que hace que refleje en forma distinta entre un estado y otro, esto influye directamente en el resultado de la clasificación, ya que es muy fácil que se confunda con otra especie. Figura N 24 CEREZO Figura N 24 40

3. Región de Interés Una vez que se ha seleccionado el conjunto de muestras a trabajar, se procede a crear en la imagen regiones de interés con las cuales se van a efectuar las primeras pruebas. Este proceso se realiza en ENVI 4.8. a. De vector a ROI: Sobre la imagen recortada se carga el archivo vectorial de las muestras, este se exporta como ROI (Región de Interés) para poder editarlo y así poder realizar el primer entrenamiento sobre la imagen. Cabe señalar que el archivo ROI es solo un archivo que localiza posiciones dentro de una matriz, no posee información acerca de la proyección, por lo tanto sólo sirve para la imagen que se está trabajando, en este caso para el recorte de la imagen AVNIR-2 febrero 2009 Estos ROI, se pueden editar (cambiar de nombre, color, etc.). Figura N 25 Figura N 25 41

b. Edición de ROI: Al cargar el ROI recién creado, se procede con la edición, en este caso se edita el nombre del campo, ya que por defecto entrega otro nombre, se agrupan las diversas especies de entrenamiento y de testeo según especie (merge regions) y se le asigna un color a cada especie, Figura N 26: Figura N 26 42

4. Estadística a. Revisión de Firma Espectral: Una vez que las regiones de interés son editadas, se puede comenzar con la evaluación de la estadística, la que entrega el primer indicio de cómo se comporta espectralmente una muestra con otra, en las bandas de la imagen. Si estas firmas espectrales son muy parecidas entre un tipo de especie de fruto y otro, es un indicador de que el algoritmo no será capaz de distinguir claramente uno de otro. Figura N 27 Figura N 27 Se puede apreciar que cada una de las firmas espectrales de las especies seleccionadas se diferencian entre ellas, lo que permitirá lograr una buena clasificación. 43

b. Posibilidad de Separación: Otra forma de verificar si el algoritmo será capaz de distinguir una especie de otra en la imagen, es a través de la herramienta Compute ROI Separability, la cual entrega un reporte de cuáles especies el algoritmo será capaza de diferenciar. Figura N 28 Es importante que las muestras abarquen más píxeles de la cantidad de bandas que posea la imagen (independiente si se está trabajando con una combinación de bandas), por ejemplo para este ejemplo se está trabajando con 4 bandas, por lo tanto la cantidad de píxeles de la muestra tiene que ser superior a este número. La cantidad de píxeles recomendable para una muestra es 50, ya sea en un sólo polígono o varios pequeños (que después se agrupan con el comando merge regions ), según como esté distribuida la especie que se quiere representar. Al apreciar la cantidad de especies que no pueden ser separadas más la estadística recién revisada, se podrá comparar y evaluar si la cantidad de las especies no identificadas en la clase correcta, una vez aplicado el algoritmo a utilizar, está dentro de un porcentaje adecuado. Figura N 28 44

5. Clasificación: Una vez observada y analizada la estadística y la posibilidad separación entre las especies, se procede a iniciar el proceso de clasificación. Tal como se indica y describe en la introducción de este informe, los siguientes algoritmos serán utilizados y comparados: a) Maximum Likelihood b) Neural Net c) Support Vector Machine Para cada caso se utilizó el algoritmo con las muestras de entrenamiento (TR) y para obtener la estadística fina a través de la matriz de confusión se utilizó las muestras de testero (TS), así por cada algoritmo utilizado se muestra el procedimiento y los resultados obtenidos: 45

a) Maximum Likelihood: Muestras de entrenamiento, Figura N 29: Figura N 29 Muestras de testero, Figura N 30: Figura N 30 46

b) Neural Net: Muestras de entrenamiento, Figura N 31: Figura N 31 Muestras de testero, Figura N 32: Figura N 32 47

c) Support Vector Machine: Muestras de entrenamiento, Figura N 33: Muestras de testero, Figura N 34: Figura N 33 Figura N 34 48

6. Comparación entre los Algoritmos de Clasificación en términos de porcentaje (%): A nivel general la Matriz de Confusión entrega los siguientes resultados de acuerdo a cada algoritmo utilizado: a) Maximum Likelihood: Overall Accuracy = (5454/5783) 94.3109% Kappa Coefficient = 0.8970 b) Neural Net: Overall Accuracy = (5409/5783) 93.5328% Kappa Coefficient = 0.8837 c) Support Vector Machine Overall Accuracy = (5640/5783) 97.5272% Kappa Coefficient = 0.9551 A nivel específico la Matriz de Confusión entrega los siguientes resultados de acuerdo a cada especie, según algoritmo utilizado, Tabla N 7: Especie / Porcentaje según Algoritmo (%) Maximum Likelihood Neural Net Support Vector Machine Ciruelo Japonés 68.35 76.60 87.50 Durazno Tipo Conservero 100.00 83.72 96.12 Kiwi 98.40 82.90 99.77 Manzano Rojo 65.00 97.50 84.38 Manzano Verde 98.18 98.18 97.58 Vid de Mesa 99.51 99.46 99.65 Tabla N 7 Por lo que se puede apreciar todos los métodos funcionaron muy bien con las muestras seleccionadas, se considera un porcentaje aceptable sobre el 75 %, para este tipo de clasificaciones. 49

PROCEDIMIENTO 1. Procesamientos de las Imágenes: AVNIR-2 - febrero 2008-2009 Una vez que se ha efectuado la clasificación con la imagen avnir-2 del año 2009, se procede a apilarla con una imagen del mismo sector, pero del año 2008, ambas obtenidas el mes de febrero. Se realiza este proceso para analizar la clasificación que se logrará al complementar ambas imágenes El procesamiento de las imágenes se realiza en ENVI 4.8: a. Apilar las Bandas y cambiar de Huso: debido a las propiedades del producto solicitado, ambas imágenes al ser importadas (como ALOS, Avnir- 2), se cargan ya con las 4 bandas apiladas y con las características que se desean UTM - WGS84 - Huso 19 Sur. Se procede a apilar ambas imágenes de distintos años de adquisición a través del la herramienta Layer Stacking, tal como se puede apreciar a continuación, Figura N 35: Figura N 35 50

b. Falso Color 4-3-2: Una vez apiladas, se realiza la combinación de bandas 4, 3, 2, al igual como se ha efectuado en las imágenes anteriores. Se seleccionan las bandas de un año en específico, por ejemplo las del 2008. Figura N 36 Figura N 36 51

c. Recortar las Imágenes Apiladas Avnir2: Para que sea más efectiva la prueba de clasificación es necesario recortar la imagen, abarcando sólo el sector de la comuna donde se levantó el catastro y se tienen datos, ya que si se aplica sobre toda la imagen, no se puede verificar si está bien o no la clasificación, debido a que no se tienen datos para comprobarlo. La herramienta utilizada para el recorte de la imagen es Resize Data (Spatial/Spectral). Figura N 37 Figura N 37 52

2. Selección de Muestras: Una vez que se dejó la imagen con los parámetros deseados, se procede a seleccionar las muestras tanto de entrenamiento como de testeo. Este procedimiento se realiza en ArcGis 9.3. a. Selección de cultivos representativos: Se despliega la imagen recortada con la combinación en falso color 4-3-2, y sobre ella el archivo vectorial del catastro frutícola. Una vez que se identifican los cultivos, se generan polígonos de los cultivos más representativos de la comuna, es decir, los que visualmente se distinguen y diferencian. Figura N 38 Al crear el conjunto de muestras, es importante dejar 2 grupos de polígonos, los primeros para el entrenamiento, éstos serán los que utilice el algoritmo para clasificar y los segundos para el testeo, los cuales se utilizarán una vez que ha efectuado la clasificación éstos permitirán comprobar qué tan efectiva resultó la clasificación. Figura N 38 Las especies que se utilizaron para extraer muestras son las mismas que se seleccionaron para el primer ejercicio con la imagen avnir-2 de febrero de 2009. Asimismo las que no se utilizaron, debido a los mismos motivos anteriormente señalados. 53

A continuación se presenta un ejemplo de una especie en distinto estado, es decir, está en distintas condiciones al momento de obtención de la imagen, lo que hace que refleje en forma distinta entre un estado y otro, esto influye directamente en el resultado de la clasificación, ya que es muy fácil que se confunda con otra especie. Figura N 39 CEREZO Figura N 39 54

3. Región de Interés Una vez que se ha seleccionado el conjunto de muestras a trabajar, se procede a crear en la imagen regiones de interés con las cuales se van a efectuar las primeras pruebas. Este proceso se realiza en ENVI 4.8. a. De vector a ROI: Sobre la imagen recortada se carga el archivo vectorial de las muestras, este se exporta como ROI (Región de Interés) para poder editarlo y así poder realizar el primer entrenamiento sobre la imagen. Cabe señalar que el archivo ROI es solo un archivo que localiza posiciones dentro de una matriz, no posee información acerca de la proyección, por lo tanto sólo sirve para la imagen que se está trabajando, en este caso para el recorte de la imagen apilada Anvir-2 febrero 2008-2009. Figura N 40 Figura N 40 55

b. Edición de ROI: Al cargar el ROI recién creado, se procede con la edición, en este caso se edita el nombre del campo, ya que por defecto entrega otro nombre, se agrupan las diversas especies de entrenamiento y de testeo según especie (merge regions) y se le asigna un color a cada especie, Figura N 41: Figura N 41 56

4. Estadística a. Revisión de Firma Espectral: Una vez que las regiones de interés son editadas, se puede comenzar con la evaluación de la estadística, la que entrega el primer indicio de cómo se comporta espectralmente una muestra con otra, en las bandas de la imagen. Si estas firmas espectrales son muy parecidas entre un tipo de especie de fruto y otro, es un indicador de que el algoritmo no será capaz de distinguir claramente uno de otro. Figura N 42 Figura N 42 Se puede apreciar que cada una de las firmas espectrales de las especies seleccionadas se diferencian entre ellas, lo que permitirá lograr una buena clasificación. 57

b. Posibilidad de Separación: Otra forma de verificar si el algoritmo será capaz de distinguir una especie de otra en la imagen, es a través de la herramienta Compute ROI Separability, la cual entrega un reporte de cuáles especies el algoritmo será capaza de diferenciar. Figura N 43 Es importante que las muestras abarquen más píxeles de la cantidad de bandas que posea la imagen (independiente si se está trabajando con una combinación de bandas), por ejemplo para este ejemplo se está trabajando con 4 bandas, por lo tanto la cantidad de píxeles de la muestra tiene que ser superior a este número. La cantidad de píxeles recomendable para una muestra es 50, ya sea en un sólo polígono o varios pequeños (que después se agrupan con el comando merge regions ), según como esté distribuida la especie que se quiere representar. Al apreciar la cantidad de especies que no pueden ser separadas más la estadística recién revisada, se podrá comparar y evaluar si la cantidad de las especies no identificadas en la clase correcta, una vez aplicado el algoritmo a utilizar, está dentro de un porcentaje adecuado. Figura N 43 58

5. Clasificación Una vez observada y analizada la estadística y la posibilidad separación entre las especies, se procede a iniciar el proceso de clasificación. Tal como se indica y describe en la introducción de este informe, los siguientes algoritmos serán utilizados y comparados: a) Maximum Likelihood b) Neural Net c) Support Vector Machine Para cada caso se utilizó el algoritmo con las muestras de entrenamiento (TR) y para obtener la estadística fina a través de la matriz de confusión se utilizó las muestras de testero (TS), así por cada algoritmo utilizado se muestra el procedimiento y los resultados obtenidos: 59

a) Maximum Likelihood: Muestras de entrenamiento, Figura N 44: Figura N 44 Muestras de testero, Figura N 45: Figura N 45 60

b) Neural Net: Muestras de entrenamiento, Figura N 46: Muestras de testero, Figura N 47: Figura N 46 Figura N 47 61

c) Support Vector Machine: Muestras de entrenamiento, Figura N 48: Muestras de testero, Figura N 49: Figura N 48 Figura N 49 62

6. Comparación entre los Algoritmos de Clasificación en términos de porcentaje (%): A nivel general la Matriz de Confusión entrega los siguientes resultados de acuerdo a cada algoritmo utilizado: d) Maximum Likelihood: Overall Accuracy = (5087/5782) 87.9799% Kappa Coefficient = 0.7719 e) Neural Net: Overall Accuracy = (5509/5782) 95.2785% Kappa Coefficient = 0.9143 f) Support Vector Machine Overall Accuracy = (5121/5782) 88.5680% Kappa Coefficient = 0.7960 A nivel específico la Matriz de Confusión entrega los siguientes resultados de acuerdo a cada especie, según algoritmo utilizado, Tabla N 8: Especie / Porcentaje según Algoritmo (%) Maximum Likelihood Neural Net Support Vector Machine Ciruelo Japonés 60.90 81.78 89.10 Durazno Tipo Conservero 93.80 92.25 99.22 Kiwi 66.02 92.70 40.82 Manzano Rojo 51.25 69.38 70.00 Manzano Verde 95.76 98.18 97.58 Vid de Mesa 99.73 99.73 99.81 Tabla N 8 Por lo que se puede apreciar todos los métodos funcionaron muy bien con las muestras seleccionadas, se considera un porcentaje aceptable sobre el 75 %, para este tipo de clasificaciones. 63

PROCEDIMIENTO 1. Procesamientos de las Imágenes: PALSAR - FBS - febrero 2010 - enero 2009 - enero 2008 El Nivel de Procesamiento de estas 3 imágenes es L1.1, es decir, se denominan como Single Look Complex Image (SLC), vienen con datos en bruto y contienen datos de fase de la imagen y no se han aplicado algoritmos para la reducción del fenómeno "speckle" y los datos están en forma de "slant-range"10, es decir, en distancia oblicua. Debido a esto, y antes de apilar las imágenes, cada una de las imágenes tiene que pasar por los siguientes procesos para poder ser utilizadas: a. Calibrar b. Multilooking c. Filtrar el moteado d. Corregir el Terreno Cada una de las imágenes se importan y se procesan en Nest 5.1. A continuación se describe cada uno de estos procesos: 64

a. Calibrar: El objetivo de la calibración SAR es proporcionar imágenes en las que los valores de los píxeles pueden estar directamente relacionados con la retrodispersión de la escena del radar. Aunque sin calibrar las imágenes SAR son suficientes para el uso cualitativo, calibradas, las imágenes SAR, son esenciales para el uso cuantitativo de datos SAR. El procesamiento de datos SAR típico, que produce imágenes de nivel 1, no incluye correcciones radiométricas y sigue siendo significativo el sesgo radiométrico. Por lo tanto, es necesario aplicar la corrección radiométrica en imágenes SAR para que los valores de píxeles de las imágenes SAR representen verdaderamente la retrodispersión del radar de la superficie reflectante. La corrección radiométrica es también necesaria para la comparación de imágenes SAR adquiridas con diferentes sensores, o adquiridas desde el mismo sensor pero en diferentes momentos, de modos diferentes o procesadas por diferentes procesadores 11. Figura N 50 Figura N 50 11 NEST Overview 65

b. Multilooking: Generalmente, una imagen original SAR aparece salpicada de ruido speckle inherente. Para reducir este aspecto moteado inherente, varias imágenes se combinan incoherentemente como si correspondían a un aspecto diferente de la misma escena. Este proceso se conoce generalmente como procesamiento MultiLook. Como resultado de ello la imagen multilooked mejora la interpretabilidad imagen. Además, el procesamiento de multilook se puede utilizar para producir un producto de aplicación con el tamaño nominal de píxel de la imagen 12. Figura N 51 Figura N 51 12 NEST Overview 66

c. Filtrar el moteado: Las imágenes SAR tienen el efecto de sal y pimienta inherente como textura, llamado moteado, que degradan la calidad de la imagen y hacen que la interpretación de sus características sea más difícil. Las motas son el resultado de la suma de la fase de las ondas reflejadas difusamente, es la interferencia constructiva y destructiva de las señales individuales y modula aleatoriamente la intensidad de la señal en cada celda de resolución. La reducción de ruido speckle se puede aplicar ya sea por filtrado espacial o procesamiento multilook 13. Figura N 52 Figura N 52 13 NEST Overview 67

d. Corregir el Terreno: Debido a las variaciones topográficas de una escena y la inclinación del sensor del satélite, las distancias pueden ser distorsionadas en las imágenes SAR. Los datos de imágenes no directamente en el nadir de la ubicación del sensor tendrán una cierta distorsión. Las correcciones del terreno están destinadas a compensar estas distorsiones de modo que la representación geométrica de la imagen será lo más cerca posible al mundo real 14. Figura N 53 Figura N 53 14 NEST Overview 68

e. Reproyectar: Este proceso se realiza en ENVI 4.8. Una vez que se realizan todos los procesos en Nest, se exporta la imagen final con formado de ENVI, al hacer este paso se pierde el Datum, en vez de quedar en WGS84, aparece como NAD27, por lo tanto se debe reproyectar al Datum deseado, Figura N 54: Figura N 54 69

f. Georreferenciar Este proceso se realiza en ArcGis 9.3 Si bien es cierto las imágines ya están reproyectadas a los parámetros deseados, éstas no calzan perfectamente entre ellas lo que hace imposible apilarlas, tampoco calzan con la imagen Quickbird II, que es la imagen sobre la cual se realizó el catastro frutícola, por lo tanto cada una se georreferencia con la imagen Quickbird II. Figura N 55 Figura N 55 70

Los siguientes procesos de las imágenes se realizan en ENVI 4.8. g. Apilar las Bandas y cambiar de Huso: Cada imagen georrefenciada se exporta para ser abierta en ENVI con formato tif, se abre cada una y se verifica que esté con las características que se desean UTM - WGS84 - Huso 19 Sur. Se procede a apilar las 3 imágenes de distintos años de adquisición a través del la herramienta Layer Stacking, tal como se puede apreciar a continuación, Figura N 56: Figura N 56 71

h. Visualización en Color de las Imágenes Palsar FBS: Una vez apiladas, se realiza la combinación de imágenes, según canal y año de adquisición, Figura N 57: - En el canal R se coloca la imagen de 2010 - En el canal G se coloca la imagen de 2009 - En el canal B se coloca la imagen de 2008 Figura N 57 72

i. Recortar las Imágenes Apiladas Palsar FBS: Para que sea más efectiva la prueba de clasificación es necesario recortar la imagen, abarcando sólo el sector de la comuna donde se levantó el catastro y se tienen datos, ya que si se aplica sobre toda la imagen, no se puede verificar si está bien o no la clasificación, debido a que no se tienen datos para comprobarlo. La herramienta utilizada para el recorte de la imagen es Resize Data (Spatial/Spectral). Figura N 58 Figura N 58 73

2. Selección de Muestras: Una vez que se dejó la imagen con los parámetros deseados, se procede a seleccionar las muestras tanto de entrenamiento como de testeo. Este procedimiento se realiza en ArcGis 9.3. a. Selección de cultivos representativos: Se despliega la imagen recortada con la combinación recién vista, y sobre ella el archivo vectorial del catastro frutícola. Una vez que se identifican los cultivos, se generan polígonos de los cultivos más representativos de la comuna, es decir, los que visualmente se distinguen y diferencian. Figura N 59 Al crear el conjunto de muestras, es importante dejar 2 grupos de polígonos, los primeros para el entrenamiento, éstos serán los que utilice el algoritmo para clasificar y los segundos para el testeo, los cuales se utilizarán una vez que ha efectuado la clasificación éstos permitirán comprobar qué tan efectiva resultó la clasificación. Figura N 59 En el caso del Kiwi y del Durazno Tipo Conservero, se pudo diferenciar dentro de las especie dos clases del fruto, es decir 2 estados de Kiwi (Kiwi 1 y Kiwi) y 2 estados del Durazno Tipo Conservero (DTC 1 y DTC). 74

A continuación se indica qué especies se utilizaron para extraer muestras, cabe señalar que sólo se seleccionaron los predios en donde hay una sola especie por predio, ya que existen casos en donde hay hasta 3 especies, pero para efectos del ejercicio de clasificación, se descartaron. 1. Cerezo: 2. Duraznero Tipo Conservero: 3. Kiwi: 75

4. Manzano Rojo: 5. Vid de Mesa: 76

Las especies restantes, no se consideraron por diversas razones, a continuación se detallan en la siguiente tabla, Tabla N 9: SUPERFICIE OBSERVACIONES ESPECIE (ha) Almendro 12,6 Se descarta esta especie porque tiene 1 polígono. Arándano Americano 5,1 Se descarta esta especie porque tiene 3 polígonos. Ciruelo Europeo 64,9 Se descarta esta especie porque tiene 5 polígonos y están en distintos estados (ver ejemplo a continuación de la tabla). Ciruelo Japonés 56,0 Se descarta esta especie la mayoría de los polígonos caen en una zona muy distorsionada por el DEM utilizado. Damasco 30,3 Se descarta esta especie porque tiene 12 polígonos. Los predios son muy pequeños. Duraznero Consumo Fresco 63,8 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de Palsar FBS no se logra realizar una adecuada clasificación. Frambuesa 1,0 Se descarta esta especie porque tiene 2 polígonos Manzano Verde 353,7 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de Palsar FBS no se logra realizar una adecuada clasificación. Membrillo 11,6 Se descarta esta especie porque tiene 11 polígonos. Los predios son muy pequeños. Moras cultivadas e híbridos 0,4 Se descarta esta especie porque tiene 2 polígonos Nectarino 97,3 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de Palsar FBS no se logra realizar una adecuada clasificación. Nogal 1,8 Se descarta esta especie porque tiene 2 polígonos Palto 9,0 Se descarta esta especie porque tiene 11 polígonos. Los predios son muy pequeños. Peral 194,6 Se descarta esta especie porque está en distintos estados (ver ejemplo a continuación de la tabla), por lo tanto su reflectancia es muy diversa y a la resolución espacial de Palsar FBS no se logra realizar una adecuada clasificación. Peral asiático 5,4 Se descarta esta especie porque tiene 2 polígonos. Tabla N 9 77

A continuación se presenta un ejemplo de una especie en distinto estado, es decir, está en distintas condiciones al momento de obtención de la imagen, lo que hace que refleje en forma distinta entre un estado y otro, esto influye directamente en el resultado de la clasificación, ya que es muy fácil que se confunda con otra especie. Figura N 60 DURAZNERO CONSUMO FRESCO Figura N 60 78

3. Región de Interés Una vez que se ha seleccionado el conjunto de muestras a trabajar, se procede a crear en la imagen regiones de interés con las cuales se van a efectuar las primeras pruebas. Este proceso se realiza en ENVI 4.8. a. De vector a ROI: Sobre la imagen recortada se carga el archivo vectorial de las muestras, este se exporta como ROI (Región de Interés) para poder editarlo y así poder realizar el primer entrenamiento sobre la imagen. Cabe señalar que el archivo ROI es solo un archivo que localiza posiciones dentro de una matriz, no posee información acerca de la proyección, por lo tanto sólo sirve para la imagen que se está trabajando, en este caso para el recorte de la imagen apilada PALSAR - FBS - febrero 2010 - enero 2009 - enero 2008. Figura N 61 Figura N 61 79

b. Edición de ROI: Al cargar el ROI recién creado, se procede con la edición, en este caso se edita el nombre del campo, ya que por defecto entrega otro nombre, se agrupan las diversas especies de entrenamiento y de testeo según especie (merge regions) y se le asigna un color a cada especie, Figura N 62: Figura N 62 80

4. Estadística a. Revisión de Firma Espectral: Una vez que las regiones de interés son editadas, se puede comenzar con la evaluación de la estadística, la que entrega el primer indicio de cómo se comporta espectralmente una muestra con otra, en las bandas de la imagen. Si estas firmas espectrales son muy parecidas entre un tipo de especie de fruto y otro, es un indicador de que el algoritmo no será capaz de distinguir claramente uno de otro. Figura N 63 Figura N 63 Cabe señalar que al momento de realizar este informe se está trabajando con estas muestras, ya que tal como se puede apreciar, cada una de las firmas espectrales de las especies seleccionadas se diferencian unas de otras, pero no de forma muy prolija, por lo tanto se puede pronosticar un porcentaje aceptable, pero no muy bueno. 81

b. Posibilidad de Separación: Otra forma de verificar si el algoritmo será capaz de distinguir una especie de otra en la imagen, es a través de la herramienta Compute ROI Separability, la cual entrega un reporte de cuáles especies el algoritmo será capaza de diferenciar. Figura N 64 Es importante que las muestras abarquen más píxeles de la cantidad de bandas que posea la imagen (independiente si se está trabajando con una combinación de bandas), por ejemplo para este ejemplo se está trabajando con 3 bandas, por lo tanto la cantidad de píxeles de la muestra tiene que ser superior a este número. La cantidad de píxeles recomendable para una muestra es 50, ya sea en un sólo polígono o varios pequeños (que después se agrupan con el comando merge regions ), según como esté distribuida la especie que se quiere representar. Al apreciar la cantidad de especies que no pueden ser separadas más la estadística recién revisada, se podrá comparar y evaluar si la cantidad de las especies no identificadas en la clase correcta, una vez aplicado el algoritmo a utilizar, está dentro de un porcentaje adecuado. Figura N 64 82

5. Clasificación Una vez observada y analizada la estadística y la posibilidad separación entre las especies, se procede a iniciar el proceso de clasificación. Tal como se indica y describe en la introducción de este informe, los siguientes algoritmos serán utilizados y comparados: a) Maximum Likelihood b) Neural Net c) Support Vector Machine Para cada caso se utilizó el algoritmo con las muestras de entrenamiento (TR) y para obtener la estadística fina a través de la matriz de confusión se utilizó las muestras de testero (TS), así por cada algoritmo utilizado se muestra el procedimiento y los resultados obtenidos: 83

a) Maximum Likelihood: Muestras de entrenamiento, Figura N 65: Figura N 65 Muestras de testero, Figura N 66: Figura N 66 84

b) Neural Net: Muestras de entrenamiento, Figura N 67: Muestras de testero, Figura N 68: Figura N 67 Figura N 68 85

c) Support Vector Machine: Muestras de entrenamiento, Figura N 69: Muestras de testero, Figura N 70: Figura N 69 Figura N 70 86