Introducción al tratamiento de series temporales

Documentos relacionados
3. Señales. Introducción y outline

Transformadas de la imagen

PROCESOS DE MARKOV DE TIEMPO CONTINUO

POTENCIA DE UN PROCESO ALEATORIO. Análisis Espectral 1 / 30

Teoría de la Comunicación. a) Si X es una variable aleatoria con una distribución uniforme en el intervalo [ 2, 2], calcule las probabilidades

CREDITOS CONCLUSION GLOSARIO INTRODUCCION SEÑALES SISTEMAS SEÑALES C SEÑALES D TIPOS DIFERENCIA

Capítulo 2. Métodos estadísticos Simulación estadística. Simulación univariante

Repaso de Teoría de la Probabilidad

Procesamiento Digital Tren de pulsos

Procesos Integrados. Si (Y t ) no es estacionario pero la serie (Z t ) de las primeras diferencias. Z t = Y t = Y t Y t 1,

Part III. Modelos Box-Jenkins. Series de Tiempo. Germán Aneiros Pérez. Introducción. Procesos ARMA: Procesos ARIMA:

UNIVERSIDAD TECNOLÓGICA DE PEREIRA FACULTAD DE INGENIERÍAS MAESTRÍA EN INGENIERÍA DE SISTEMAS Y COMPUTACIÓN

Este manual se ha elaborado como material de guía y apoyo para que el alumno se inicie, tanto desde un punto de vista teórico como aplicado, en el

ANÁLISIS EN EL DOMINIO DEL TIEMPO

Teoría de señales SEÑALES ELECTROFISIOLÓGICAS. Wednesday, September 12, 12

Unidad Temática 3: Probabilidad y Variables Aleatorias

Análisis de Series de Tiempo

Curso de nivelación Estadística y Matemática

Series de tiempo. Miguel Ángel Chong R. 2 de abril del 2013

Integral de Fourier y espectros continuos

Econometría II Grado en finanzas y contabilidad

Ingeniería de Control I Tema 2. Transformadas

Econometría II Grado en finanzas y contabilidad

Germán Bassi. 9 de septiembre de X(i) = 1 N 1T X. i=1

transmisión de señales

Fundamentos de producción y tratamiento de audio mediante com

Sistemas Lineales. Tema 7. Problemas

Maestría en Bioinformática Probabilidad y Estadística: Clase 4

UNIVERSIDAD CENTRAL DE VENEZUELA FACULTAD DE INGENIERÍA ESCUELA DE INGENIERÍA ELÉCTRICA DEPARTAMENTO DE ELECTRÓNICA

Procesamiento Digital. 2.2 Muestreo o discretización

PROCESOS ESTOCÁSTICOS

Procesos estocásticos Sesión 5. Cadenas de Markov. Comportamiento asintótico

Lección 3: Formato y Modulación en Banda Base. Parte I

Procesos estocásticos Cadenas de Márkov

Análisis Estadístico de Datos Climáticos SERIES TEMPORALES 2

Transformada Discreta de Fourier.

Procesamiento de Señales 1D. 2.1 El mundo análogo de sistemas LIT. Se tiene un sistema H. se puede descomponer

Transformada Discreta de Fourier

Tratamiento de imágenes Adquisición y Digitalización

Teórica básica. Incluimos. - Temas

Sistemas Lineales. Problemas de Muestreo (V2.0)

ELECTIVA I PROGRAMA DE FISICA Departamento de Física y Geología Universidad de Pamplona Marzo de 2010 NESTOR A. ARIAS HERNANDEZ - UNIPAMPLONA

Última modificación: 1 de julio de

Modelos Arma y método Box & Jenkins

Cadenas de Markov Tiempo Continuo. Modelado y Análisis de Redes de Telecomunicaciones

CONFERENCIA TEMA: CADENAS DE MARKOV

Figura 1: Propiedades de textura: (a) Suavidad, (b) Rugosidad y (c) Regularidad

1. CONCEPTOS BASICOS DE SERIES DE TIEMPO 1.1 INTRODUCCIÓN

Variables aleatorias

Procesos Estocásticos

AUDIO DIGITAL. Diego Cabello Ferrer Dpto. Electrónica y Computación Universidad de Santiago de Compostela

REPRESENTACION DE SEÑALES Y SISTEMAS

Clasificación de sistemas

Práctica 4 - Programación en MatLab

Procesamiento digital de señales Semana 1. Introducción (segunda parte)

Procesamiento y análisis de imágenes digitales II

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

Aproximación. Escuela de Ingeniería Informática de Oviedo. (Dpto. de Matemáticas-UniOvi) Computación Numérica Aproximación 1 / 19

Sistemas Lineales e Invariantes a la Traslación

Macroeconometría ( ) Examen final

Variables aleatorias. Utilizando el resultado anterior, vemos que

PROCESOS ESTOCÁSTICOS

Introducción a la Teoría de la Información

Tratamiento de imágenes

Modelo Lineal Generalizado GAMMA. Distribución gamma: Otra parametrización mediante el parámetro de forma y la media:

PRÁCTICA DE CHATTER SUPERVISIÓN AUTOMÁTICA DE PROCESOS

CONTENIDOS. 1. Procesos Estocásticos y de Markov. 2. Cadenas de Markov en Tiempo Discreto (CMTD) 3. Comportamiento de Transición de las CMTD

SEÑALES, SISTEMAS Y CONVOLUCION SEÑALES

PPE - Probabilidad y Procesos Estocásticos

Maestría en Bioinformática Probabilidad y Estadística: Clase 10

Econometria con Series Temporales

I. INTRODUCCIÓN. A cada valor de una señal digital se le llama bit y es la unidad mínima de información.

Una pregunta pendiente

Hoja 4 Variables aleatorias multidimensionales

Conversión Analógico/Digital

6. PROGRAMACIÓN DEL CURSO 4º A DE E. S. O.

Apuntes de Series Temporales

Procesos Estocásticos. Procesos Estocásticos. Procesos Estocásticos. 1 Introducción y conceptos básicos. Al final del tema el alumno será capaz de:

2 CADENAS DE MARKOV HOMOGÉNEAS DE PARÁMETRO DISCRETO

Prof. María L. Calvo Clase del 23 y 24 de abril de 2012

Facultad de Ingeniería en Electrónica y Comunicaciones. Nombre del alumno: Erik Alan Fuentes Pérez. Experiencia educativa:

Pronóstico con Modelos ARIMA para los casos del Índice de Precios y Cotizaciones (IPC) y la Acción de América Móvil (AM)

Teoría de Telecomunicaciones

INDICE Capitulo 1. Entorno de Trabajo e SPSS Capitulo 2. Operadores y Funciones. Aplicaciones

INDICE 1. Panorama 2. Señales Analógicas 3. Señales Discretas 4. Sistemas Analógicos 5. Sistemas en Tiempo Discreto

Instructores: Dr. Martín A. Díaz Viera Dr. Ricardo Casar González

EXTRACCIÓN DE SEÑALES EN MODELOS ARIMA

Comunicaciones Digitales: Proceso de Conversión A/D

IDENTIFICACION DE SISTEMAS IDENTIFICACION NO PARAMETRICA

Tratamiento Digital de Señales TEMA 2 : DFT (I)

EC = ½. m i. ( r i ) 2 2. EC = ½. m i r i. 2 + ½. m 2 r 2 EC TOTAL = ½.

Probabilidad y Estadística

Movimiento Browniano Comentarios históricos

1. Señales continuas o sinusoidales. 2. Cualquier señal (incluyendo continuas o sinusoidales).

Sistemas Discretos LTI

ECONOMETRÍA II: ECONOMETRÍA DE SERIES TEMPORALES. Modelos ARMA

Tema 3. Series de Fourier. Análisis de Espectros. Indice:

Procesos estocásticos

CADENAS DE MARKOV. Una sucesión de observaciones X1, X2, Se denomina proceso estocástico

Transcripción:

Introducción al tratamiento de series temporales

1-Procesos estocásticos. Procesos estacionarios Serie temporal: Ejemplos: Hora a la que se pone el Sol cada día Presión arterial Distancia entre sucesivos postes de una línea eléctrica Sucesivas tiradas de un dado Notación Frecuente:

1. Procesos estocásticos. Procesos estacionarios Proceso estocástico: Serie temporal en la que cada valor es la realización de una variable aleatoria Mejor: cada valor es una realización de una variable aleatoria Hora a la que se pone el Sol cada día Presión arterial Distancia entre sucesivos postes de una línea eléctrica Sucesivas tiradas de un dado

1. Procesos estocásticos. Procesos estacionarios El caso más sencillo: Nuestro proceso está formado por una serie de variables aleatorias independientes e idénticamente distribuidas (i.i.d.) también llamado proceso homogéneo Variables independientes Idénticamente distribuidas Todas ellas siguen la misma distribución de probabilidad Ejemplos: Sucesivas tiradas de un dado Lanzamos n monedas una detrás de otra

1. Procesos estocásticos. Procesos estacionarios Procesos no homogéneos: Variables no independientes Ej. Consideremos la tirada de un dado + el valor de la tirada anterior Este ya no es tan sencillo pero: Las variables siguen la misma distribución de probabilidad Es más, se cumple que: Proceso Estacionario

1. Procesos estocásticos. Procesos estacionarios En la práctica es difícil comprobar si un proceso es estacionario Proceso estacionario en sentido amplio A la hora de la verdad el sentido es mucho más amplio : se habla de procesos estacionarios simplemente cuando la media se mantiene constante a lo largo del proceso. Cuando el proceso es estacionario podemos estudiar cualquier parte del proceso ya que vamos a obtener los mismos resultados.

1. Procesos estocásticos. Procesos estacionarios 5 0-5 -10-15 -20-25 -30 White noise Random walk -35 0 50 100 150 200 250 Ruido blanco (White noise) Estacionaria Paseo aleatorio (Random walk) No estacionaria

1. Procesos estocásticos. Procesos estacionarios Ejemplo: Series de intervalos entre sucesivos latidos del corazón 4 Intervalo entre latidos 2 0-2 -4 4 2 0-2 -4 0 100 200 300 400 500 600 número de latido

1. Procesos estocásticos. Procesos estacionarios Ejemplo: Series de radiación solar en Málaga Radiación solar normalizada 0.8 0.6 0.4 0.2 0.0 0 100 200 300 400 500 600 t (horas) Promedio semanal de radiación solar normalizada 0.8 0.7 0.6 0.5 0.4 0.3 0.2 0 100 200 300 400 500 t (semanas) Estacionalidad

2. Función de autocorrelación Es una herramienta muy útil para detectar patrones y periodicidades en series temporales Definición: dada una serie temporal con varianza: La función de autocorrelación se define como:

2. Función de autocorrelación. Es una forma de medir la dependencia del valor en la posición con el valor en la posición Sólo mide la dependencia lineal Si las variables son independientes Pero no implica que lo sean Ojo! No distingue entre dependencia (en sentido causal) y simple persistencia. Inconveniente: Si queremos medir a una distancia grande necesitamos tener muchos datos. Error debido al tamaño finito:

2. Función de autocorrelación. Ejemplos: ruido blanco (en general serie de variables i.i.d.) 1.0 0.8 0.6 0.4 0.2 0.0-0.2 0 5 10 15 20

2. Función de autocorrelación. Ejemplos: Random walk (en general serie con tendencias) 60 40 20 0-20 -40 1.0 0.8 0 1000 2000 3000 4000 0.6 1.0 0.8 0.6 0.4 0.2 0.4 0.2 0 20 40 60 80 100 0 200 400 600 800 1000

2. Función de autocorrelación. Ejemplos: Serie alternada 1.0 0.8 0.6 0.4 0.2 0.0 1 0 10 20 30 40 50 60 0.1 1.0 0.5 0.0-0.5-1.0 0 10 20 30 40 50 60 0.01 1E-3 1 10 Valores negativos: ANTICORRELACIONES

3. Transformada de Fourier Radiación solar normalizada 0.8 0.6 0.4 0.2 0.0 0 100 200 300 400 500 600 t (horas) Esta serie tiene periodicidades podemos explicarlas? nos interesa la variación periódica o cómo fluctúa alrededor de la tendencia periódica? En cualquier caso es interesante ser capaces de extraerlas

3. Transformada de Fourier Dada una funcion definida en toda la recta real, se define su transformada de Fourier como: donde es la frecuencia en hercios. La transformada inversa nos da la propia función a partir de la transformada de Fourier: Representa a la función en el dominio temporal Representa a la función en el dominio de frecuencias

3. Transformada de Fourier Además, está relacionada con la función de correlación Se demuestra que la transformada de Fourier de la función de correlación es el producto de las transformadas de Fourier de las funciones: En particular la transformada de Fourier de la función de autocorrelación (correlación de una función consigo misma) es el módulo al cuadrado de la transformada de Fourier de la función: Teorema de Wiener-Khinchin

3. Transformada de Fourier ESPECTRO DE POTENCIA TRANSFORMADA DISCRETA DE FOURIER En realidad, uno (casi) nunca se encuentra con funciones del tiempo continuas, sino que en realidad se tiene una serie discreta de datos, es decir, muestreados para ciertos valores de tiempo. El caso más frecuente es tener una serie muestreada a intervalos uniformes de tiempo: (cada segundo, cada minuto, cada hora, etc)

3. Transformada de Fourier Ojo! Teorema de Nyquist (o de muestreo): Dado un intervalo de muestreo, existe una frecuencia crítica tal que la transformada de Fourier (discreta) sólo contiene frecuencias hasta f c. Esto es bueno si la señal está limitada en frecuencias, y el límite es menor que f c. PERO es malo si no lo es, porque entonces las frecuencias se mezclan (aliasing). Ejemplo: señales de audio y su versión digital en CD. TRANSFORMADA DISCRETA Supongamos N valores de una serie temporal:

3. Transformada de Fourier Puesto que tenemos N datos de entrada, no podemos producir más de N datos independientes de salida, así que en lugar de obtener la Transformada de Fourier en todo el intervalo fc,fc, la obtenemos sólo en ciertos valores discretos: Finalmente, se trata de sustituir la integral por un sumatorio Estrictamente hablando, la DFT es sólo el último sumando: Que es independiente de. (equivale a considerar =1)

3. Transformada de Fourier Cómo se implementa la DFT? El algoritmo de cálculo más extendido es la FFT, algoritmo revolucionario que permite pasar de tiempo de calculo de orden N 2 a orden N log N. El software comercial (ya sea de tratamiento de datos o de análisis de señales) suele llevar implementada la FFT. Ojo! La FFT funciona bien si N es potencia de 2 Si no lo es, o bien se trunca la serie, o bien se autocopia hasta alcanzar el tamaño adecuado PROBLEMA: y si los datos no están equiespaciados temporalmente? Existen variantes de la FFT para resolver este problema: Transformada LOMB (véase Numerical Recipes)

4. Modelos de series temporales Vamos a considerar algunos modelos usuales que se usan para describir o generar series temporales: Modelos (cadenas) de Markov Modelos AR, MA, ARMA, ARIMA, etc Los modelos de Markov se usan fundamentalmente para estudiar series temporales DISCRETAS, es decir, cuando la variable aleatoria sólo toma valores dentro de un conjunto finito de estados posibles. Los modelos AR, MA, etc, se usan fundamentalmente para modelar series temporales CONTINUAS, especialmente con el objetivo de predecir valores futuros de la serie temporal.

4. Modelos de series temporales MODELOS O CADENAS DE MARKOV Consideremos un conjunto finito de estados que pueden ser adoptados por una variable estocástica: Asignemos a cada par de estados (i, j) un número real p ij que cumpla:

4. Modelos de series temporales Con estos números, podemos definir la matriz de transición: Ojo! Recordemos que la matriz está normalizada por filas Es decir, la probabilidad de aparición de un estado en el tiempo t+1 SÓLO depende del estado en el tiempo t (memoria de orden 1)

4. Modelos de series temporales Además, se tiene que: EJEMPLO: Serie temporal estocástica con dos estados posibles, A y B

4. Modelos de series temporales Las cadenas de Markov presentan correlaciones, PERO DE CORTO ALCANCE, que caen usualmente de forma exponencial. EJEMPLO: Supongamos un sistema binario, con estados 1 y -1 1.0 1.0 10 0 X(t) 0.5 0.0 C(l) 0.8 0.6 0.4 10-1 10-2 10-3 10-4 -0.5 0.2 0 5 10 15-1.0 0.0 0 20 40 60 80 100 t 0 5 10 15 20 l

4. Modelos de series temporales OTRO EJEMPLO: 1.0 1.0 0.5 0.8 X(t) 0.0 C(l) 0.6 0.4-0.5 0.2-1.0 0 20 40 60 80 100 t 0.0 0 5 10 15 20 l Este ejemplo corresponde a una señal aleatoria pura. PREGUNTA: Cómo se generarían ANTICORRELACIONES?

4. Modelos de series temporales MODELOS AUTORREGRESIVOS (AR) Supongamos ahora una serie temporal X(t) que describe un proceso estocástico, en el que la serie toma valores continuos (reales). Cuando la serie tiene persistencias es razonable suponer que el valor de la serie en un tiempo t está influido por los valores anteriores de la serie. Esta influencia no puede ser estricta, porque la serie no es determinista, sino que tiene que tener una componente aleatoria. Los modelos autorregresivos consideran que: Esta ecuación describe un modelo autoregresivo de orden p, AR(p) La componente aleatoria va incluida en ε(t), que normalmente es un ruido blanco gaussiano. Al término ε(t) se le llama INNOVACIÓN

4. Modelos de series temporales El caso más sencillo posible sería AR(1): Ejemplo: 6 4 2 X(t) 0-2 -4-6 0 50 100 150 200 250 300 t

4. Modelos de series temporales Sin embargo, estos modelos producen también correlaciones de CORTO ALCANCE, que caen de forma exponencial 1.0 10 0 10-1 C(l) 0.5 10-2 0 5 10 15 20 0.0 0 5 10 15 20 l

4. Modelos de series temporales Los modelos MA tienen una filosofía parecida, pero en lugar de depender de los valores anteriores de la serie, dependen de las INNOVACIONES anteriores. Ejemplo: Modelo MA de orden q Finalmente, los modelos ARMA unen los modelos AR y MA, es decir, el valor de la serie depende de los p valores anteriores de la serie y de los q valores anteriores de las innovaciones Ejemplo: Modelo ARMA(p,q)

4. Modelos de series temporales Todos estos modelos se usan generalmente para PREDECIR valores futuros de una serie temporal, y por eso se suelen usar en economía, además de en diversas disciplinas científicas. Sin embargo, sean del tipo que sean, su característica común es que aunque sirven para generar series con correlaciones, éstas caen siempre de forma exponencial, con lo que tenemos siempre CORRELACIONES DE CORTO ALCANCE. En la Naturaleza, aparecen muchos sistemas en los que las correlaciones NO son de corto alcance, sino que decaen mucho más lentamente que de forma exponencial: ADN, dinámica del corazón, propiedades físicas en las transiciones de fase, etc.

4. Modelos de series temporales Por qué nos interesan los modelos lineales AR y MA?. No solo porque pueden ser intercambiables sino porque puede aplicarse el siguiente resultado: Teorema de descomposición de Wold Toda serie temporal estacionaria puede ser descompuesta en la suma de un proceso determinista (no estocástico) y de un MA. La clave del éxito es conseguir estacionarizar la serie temporal dada mediante adecuadas transformaciones de los datos, usualmente diferenciando reiteradamente la serie para estabilizar la media y/o aplicando transformaciones estabilizadoras de la varianza (tomar logaritmos, Box-Cox, etc).

5. Correlaciones de largo alcance y ruidos 1/f Empecemos con un ejemplo: la función de autocorrelación correspondiente al cromosoma 20 del genoma humano. 10-1 10-2 Slope = 0.259 C(l) 10-3 10-4 Mapping rule SW Fit to a power law 10-5 10 0 10 1 10 2 10 3 10 4 10 5 10 6 10 7 l Como vemos, la función de autocorrelación decae en forma de LEY DE POTENCIAS

5. Correlaciones de largo alcance Cuando la función de autocorrelación es de la forma: Se dice que la señal presenta correlaciones de largo alcance. El nombre viene dado porque una ley de potencias decae mucho más lentamente que una exponencial, y por lo tanto las correlaciones llegan más lejos. La señales que poseen esta propiedad están asociadas con la geometría fractal. El motivo es que si la autocorrelación es de esa forma, la señal no posee ninguna escala (espacial o temporal) característica, o, dicho de otra forma, es INVARIANTE frente al cambio de escalas, concepto análogo a la propiedad principal de los fractales. Ejemplo: con una correlación que decaiga exponencialmente Existe una escala característica (a). En una ley de potencias no la hay.

5. Correlaciones de largo alcance La señal es fractal porque estadísticamente hablando una porción de la misma es indistinguible de la señal entera Ejemplo: Random Walk 60 0 30 X(t) 0-30 -60 X(t) -60-90 0 2000 4000 6000 8000 10000 12000 14000 16000 t 6000 8000 10000 t Ojo! El cambio de escala NO es igual en los dos ejes: la señal puede ser autoafín, y no autosimilar.

5. Correlaciones de largo alcance La fortaleza de las correlaciones se caracteriza a través del exponente de la función de autocorrelación, γ. Series de este tipo aparecen por doquier: señales biofísicas, ruidos en circuitos, series económicas, geofísicas, etc. Sin embargo, estadísticamente hablando, la función de autocorrelación no es un buen estimador de la correlaciones presentes en una serie, por lo que se usan herramientas alternativas. Una de las más destacadas es el uso de la Transformada de Fourier. Puede demostrarse que una señal con correlaciones de largo alcance posee un espectro de potencia de la forma: Es decir, el espectro de potencia es OTRA LEY DE POTENCIAS.

5. Correlaciones de largo alcance Por eso a estas señales se les llama también RUIDOS 1/f Ejemplo: Random Walk X(t) 60 30 0-30 -60 S( f ) 1x10-2 1x10-5 1x10-8 10-11 -90 0 3000 6000 9000 12000 15000 18000 t 10-14 10-3 10-2 10-1 f (Hz) Para este caso concreto, se tiene que

5. Correlaciones de largo alcance Ejemplos de ruidos 1/f 4 6 2 4 2 X(t) 0 X(t) 0-2 -2-4 -4 0 100 200 300 400 500 t -6 0 100 200 300 400 500 t X(t) 12 10 8 6 4 2 0-2 -4-6 -8 X(t) 25 20 15 10 5 0-5 -10-15 0 100 200 300 400 500 t 0 100 200 300 400 500 t

6. Análisis de la fluctuación Las correlaciones parecen estar 4 relacionadas con las 2 0 fluctuaciones alrededor -2 del valor medio que -4 presentan las series 0 100 200 t 300 400 500 X(t) X(t) 6 4 2 0-2 -4-6 0 100 200 300 400 500 t Se pueden medir las correlaciones midiendo la fluctuación X(t) 12 10 8 6 4 2 0-2 -4-6 -8 0 100 200 300 400 500 t X(t) 25 20 15 10 5 0-5 -10-15 0 100 200 300 400 500 t

6. Análisis de la fluctuación

6. Análisis de la fluctuación

6. Análisis de la fluctuación 4 x(t) 2 0-2 -4 0 500 1000 1500 2000 2500 3000 t 0.1 0.01 100 1E-3 1E-4 1E-6 1E-7 10 10 0 10 1 10 2 10 3 10 4 10 5 10 6 S(f) 1E-8 1E-9 1E-10 1E-11 1E-12 1E-13 10-5 10-4 10-3 10-2 10-1 10 0 f (Hz) 1 10 0 10 1 10 2 10 3 10 4

6. Análisis de la fluctuación Qué pasa si la serie no es estacionaria?

6. Análisis de series no estacionarias 2 x(t) 0-2 -4 0 5000 10000 15000 20000 25000 30000 t Este sigue funcionando pero Es por definición! S(f) 1E-4 1E-5 1E-6 1E-7 1E-8 1E-9 1E-10 1E-11 1E-12 1E-13 1E-14 10-5 10-4 10-3 10-2 10-1 10 0 f (Hz)

6. Análisis de series no estacionarias 1 0.1 10 0 10 1 10 2 10 3 10 4 10 5 10000 1000 100 10 1 10 0 10 1 10 2 10 3 10 4

6. Análisis de series no estacionarias Nos quedamos con el espectro de potencia por cuestión de interpretación Métodos de análisis: Análisis de la fluctuación sin tendencia (DFA) Modificación del análisis de la fluctuación Wavelets Modificación de la transformada de Fourier

6. Análisis de series no estacionarias Análisis de la fluctuación sin tendencia (DFA) 2 x(t) 0-2 -4 0 5000 10000 15000 20000 25000 30000 t w(t) 4000 2000 0-2000 -4000-6000 -8000 w(t) 4000 2000 0-2000 -4000-6000 -8000 0 5000 10000 15000 20000 25000 30000 0 5000 10000 15000 20000 25000 30000 t t

6. Análisis de series no estacionarias 4 2 walk 0-2 -4 1235 1240 1245 1250 1255 1260 1265 posición en la serie

6. Análisis de series no estacionarias 10000 1000 100 10 1 0.1 0.01 1E-3 10 0 10 1 10 2 10 3 10 4 FUNCIONA!!

6. Análisis de series no estacionarias WAVELETS Algo parecido a la Transformada de Fourier para series no estacionarias Transformada de Fourier: Información sobre la frecuencia Se pierde por completo la información espacial (Si la serie es estacionaria esto no es un problema)

6. Análisis de series no estacionarias 2 Ejemplo: 0.5 0.4 0.3 f(t) 0 T[f(t)] 0.2 0.1-2 0 100 200 300 400 t 0.0-0.1 0.00 0.02 0.04 0.06 0.08 0.10 t Hace falta un método que analice la serie LOCALMENTE

6. Análisis de series no estacionarias 1.0 0.8 0.6 0.4 0.2 0.0-5 0 5 10 15 20 x

6. Análisis de series no estacionarias 1.0 0.5 0.0-1.0-0.5 0.0 0.5 1.0

6. Análisis de series no estacionarias 7 6 5 4 3 2-20 -10 0 10 20 30 40 50 7 6 t f(t) W [ f ] 5 4 3 2-20 -10 0 10 20 30 40 50 t

6. Análisis de series no estacionarias

6. Análisis de series no estacionarias 1.0 0.5 0.0-0.5-1.0-1.0-0.5 0.0 0.5 1.0 1.0 0.5 0.0-0.5-1.0-2 0 2

6. Análisis de series no estacionarias 4 3 2 1 0 4 3-20 -10 0 10 20 30 40 50 t f(t) W [ f ] 2 1 0-20 -10 0 10 20 30 40 50 t

6. Análisis de series no estacionarias

6. Análisis de series no estacionarias 100 50 0 f(t) W [ f ] -10 0 10 20 30 40 t