Tema 7: Procesos Estoca sticos

Documentos relacionados
Ejercicios de Procesos Estocásticos

Tema 4: Variable Aleatoria Bidimensional

SEÑALES ALEATORIAS Y RUIDO. E. T. S. de Ingenieros de Telecomunicación Universidad de Valladolid.

Clase 3. Procesos estocásticos en Teoría de la señal.

IDENTIFICACIÓN DE SISTEMAS SISTEMAS LINEALES Y PROCESOS ESTOCÁSTICOS

Procesos Estocásticos. Procesos Estocásticos. Procesos Estocásticos. 1 Introducción y conceptos básicos. Al final del tema el alumno será capaz de:

Guía 3 - Densidad espectral de potencia, transformación de procesos, ergodicidad

Tema 3: Funcio n de Variable Aleatoria

Procesado con Sistemas Lineales Invariantes en el Tiempo

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Unidad Temática 3: Probabilidad y Variables Aleatorias

Procesado Lineal Bidimensional

Tema 2. Introducción a las señales y los sistemas (Sesión 1)

Tema 9. Transformada de Fourier. Prof. William La Cruz Bastidas

Tratamiento Digital de Señales TEMA 2 : DFT (I)

Si conocemos x(n) y obtenemos la salida del sistema podemos determinar la respuesta al impulso del sistema obteniendo en primer lugar H(z) con: = n(

Tema 2: Variables Aleatorias Unidimensionales

Series y Transformada de Fourier

UNIDAD 1: SEÑALES Y SISTEMAS CONTINUOS - TEORÍA

Sistemas Lineales. Tema 5. La Transformada Z. h[k]z k. = z n (

Material introductorio

SISTEMAS LINEALES. Tema 3. Análisis y caracterización de sistemas continuos empleando la transformada de Laplace

Econometría II Grado en finanzas y contabilidad

Tema 2. Sistemas Lineales e Invariantes en el Tiempo (Sesión 2)

TEORÍA DE LAS TELECOMUNICACIONES

SEÑALES Y SISTEMAS CAPÍTULO UNO. 1.1 Introducción Señales y Clasificación de Señales Señales Periódicas y No Periódicas 6

Tema 1. Introducción a las señales y los sistemas

Probabilidad y Estadística

Ruido en los sistemas de comunicaciones

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

EL4005 Principios de Comunicaciones Clase No.15: Ruido Blanco y Procesos Gaussianos

Contenidos. Importancia del tema. Conocimientos previos para este tema?

Sistemas de Comunicaciones

Análisis de procesos estocásticos en el dominio de

ANÁLISIS FRECUENCIAL DE SEÑALES

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

APUNTES DE CONTROL DE SISTEMAS II

Tema 3. Análisis de Fourier de señales y sistemas de tiempo continuo.

PROCESOS ALEATORIOS. Capítulo AXIOMAS DE PROBABILIDAD

Sistemas de comunicación

Transmisión digital por canales con ruido

Señales y Sistemas de Tiempo Discreto

1. Sistemas Muestreados

Concepto de VA bidimensional. Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL. Concepto de VA bidimensional. Concepto de VA bidimensional

5. Distribuciones de probabilidad multivariadas

Repaso de conceptos de álgebra lineal

Vectores Aleatorios. Vectores Aleatorios. Vectores Discretos. Vectores Aleatorios Continuos

Ecuaciones Diferenciales Ordinarias

TEMA4: Implementación de Filtros Discretos

Variables aleatorias bidimensionales discretas

3. Señales. Introducción y outline

Participantes. Comité para el Diseño de Especialidad DIET. Academia de Comunicaciones DIET. Comité de Investigación DIET

Transformada de Laplace (material de apoyo)

Distribuciones de probabilidad multivariadas

Sistemas Lineales e Invariantes en el Tiempo (LTI)

Análisis de señales biomédicas

Muestreo y Procesamiento Digital

Problemas del tema 3. Sistemas lineales e invariantes en el tiempo

Vibraciones aleatorias en sistemas con un grado de libertad

Matemática Computacional

Práctico 2 Análisis de proceso autorregresivo de orden 2 Proceso WSS filtrado

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

SISTEMAS LINEALES. Tema 6. Transformada Z

transmisión de señales

Tema 2: Modelos probabilísticos de series

Introducción a la Teoría de la Información

Ejercicios de ECUACIONES DIFERENCIALES ORDINARIAS

Prof. Eliana Guzmán U. Semestre A-2015

Transformada Discreta de Fourier.

Probabilidad y Estadística

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Sistemas Lineales. Sistemas

Función Característica

Caracterización del canal de radio

Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL

UNIVERSIDAD NACIONAL AUTONOMA DE MEXICO FACULTAD DE INGENIERIA ANALISIS DE SISTEMAS Y SEÑALES TAREA. TRANSFORMADAS LAPLACE, FOURIER, Z

ELECTIVA I PROGRAMA DE FISICA Departamento de Física y Geología Universidad de Pamplona Marzo de 2010 NESTOR A. ARIAS HERNANDEZ - UNIPAMPLONA

Señales y Sistemas. Señales y Clasificación Sistemas y Clasificación Respuesta al impulso de los sistemas. 5º Curso-Tratamiento Digital de Señal

Econometría Aplicada para Bancos Centrales

Estadística. Soluciones ejercicios: Procesos estocásticos. Versión 8. Emilio Letón

Teoría de Telecomunicaciones

Procesos estocásticos

Soluciones Examen de Estadística Ingeniería Superior de Telecomunicación

Variables aleatorias. Tema Introducción Variable aleatoria. Contenido

Sistemas Lineales e Invariantes PRÁCTICA 2

Capítulo 6: Variable Aleatoria Bidimensional

Sistemas continuos. Francisco Carlos Calderón PUJ 2010

Procesos autorregresivos

Transcripción:

Tema 7: Procesos Estoca sticos Teorı a de la Comunicacio n Curso 2007-2008

Contenido 1 Definición 2 Caracterización Estadística 3 Estadísticos 4 Estacionariedad 5 Ergodicidad 6 Densidad Espectral de Potencia 7 Filtrado de Procesos Estocásticos

Contenido 1 Definición 2 Caracterización Estadística 3 Estadísticos 4 Estacionariedad 5 Ergodicidad 6 Densidad Espectral de Potencia 7 Filtrado de Procesos Estocásticos

Definición Procesos Estocásticos Definición: Un Proceso Estocástico X(t) es una función que asocia una señal a cada posible resultado de un experimento aleatorio. S Ω X(t, S) R Variable independiente: t T R (T espacio de tiempos) Interpretación Si se fija el suceso: X(t, S 0 ) es una señal Si se fija el tiempo: X(t 0, S) es una variable aleatoria Si se fijan ambos: X(t 0, S 0 ) es un n o real Si ambos varían: X(t, S) es un proceso estocástico

Definición Procesos Estocásticos. Ejemplo Realizaciones de un Proceso Estocástico x(t,s 1 ) 10 0 X: 5 Y: 2.746 Realizaciones de un Proceso Estocástico X: 20 Y: 0.128 10 0 5 10 15 20 25 30 35 40 45 50 t 10 x(t,s 2 ) 0 X: 5 Y: 3.786 X: 20 Y: 0.8176 10 0 5 10 15 20 25 30 35 40 45 50 t 10 x(t,s 3 ) 0 X: 5 10 Y: 3.641 X: 20 0 5 10 15 Y: 6.604 20 25 30 35 40 45 50 t 10 x(t,s 4 ) 0 X: 5 Y: 3.67 X: 20 10 Y: 3.524 0 5 10 15 20 25 30 35 40 45 50 t

Clasificación Clasificación de Procesos Estocásticos En función del Espacio de Tiempos T : T continuo: Proceso Estocástico T discreto: Secuencia Estocástica En función del espacio de estados S = {X(t, S) t T S Ω} S continuo S discreto T continuo Proceso Estocástico Continuo Proceso Estocástico Discreto T discreto Secuencia Estocástica Continua Secuencia Estocástica Discreta Otra Clasificación: Deterministas (o predecibles): Los valores futuros se pueden predecir de manera exacta a partir de los valores anteriores Ejemplo: X(t) = A cos(ωt + Θ) con Θ v.a. uniforme en ( π, π) No Deterministas (impredecibles): No se pueden predecir de manera exacta los valores futuros

Contenido 1 Definición 2 Caracterización Estadística 3 Estadísticos 4 Estacionariedad 5 Ergodicidad 6 Densidad Espectral de Potencia 7 Filtrado de Procesos Estocásticos

Funciones Distribución y Densidad de Probabilidad de Primer Orden F.D. y fdp de primer orden Fijando t X(t 1) es una v.a. Función Distribución de primer orden: F X(x 1; t 1) = P (X(t 1) x 1) Función Densidad de Probabilidad de primer orden: f X(x 1; t 1) = δfx(x1; t1) δx 1 Observaciones: Ambas funciones se han de conocer para todo t 1 T En general, el proceso estocástico no queda completamente caracterizado por las funciones de primer orden

Funciones Distribución y Densidad de Probabilidad de Segundo Orden F.D. y fdp de segundo orden Considerando dos instantes t 1, t 2 v.a. bidimensional (X(t 1), X(t 2)) Función Distribución de segundo orden: F X(x 1, x 2; t 1, t 2) = P (X(t 1) x 1, X(t 2) x 2) Función Densidad de Probabilidad de segundo orden: f X(x 1, x 2; t 1, t 2) = δ2 F X(x 1, x 2; t 1, t 2) δx 1δx 2 Observaciones: Ambas funciones se han de conocer para todo par (t 1, t 2) En general, el proceso estocástico no queda completamente caracterizado por las funciones de segundo orden Obtención de las marginales (funciones de primer orden): F X(x 1; t 1) = F X(x 1, x 2 = ; t 1, t 2) f X(x 1; t 1) = f X(x 1, x 2; t 1, t 2)dx 2

Funciones Distribución y Densidad de Probabilidad de Orden n F.D. y fdp de orden n Considerando n instantes t 1, t 2,..., t n Caracterización Conjunta de n variables aleatorias Función Distribución de orden n: F X (x 1, x 2,..., x n; t 1, t 2,..., t n) = P (X(t 1 ) x 1,..., X(t n) x n) Función Densidad de Probabilidad de orden n: f X (x 1, x 2,..., x n; t 1, t 2,..., t n) = δn F X (x 1, x 2,..., x n; t 1, t 2,..., t n) δx 1 δx 2... δx n Observaciones: Un proceso estocástico queda completamente caracterizado a si conocemos su fdp (o F.D.) de orden n n x 1, x 2,..., x n R t 1, t 2,..., t n T a En la práctica, suele bastar con conocer la fdp o F.D. de segundo orden.

Contenido 1 Definición 2 Caracterización Estadística 3 Estadísticos 4 Estacionariedad 5 Ergodicidad 6 Densidad Espectral de Potencia 7 Filtrado de Procesos Estocásticos

Estadísticos de un Proceso Estocástico Media de un Proceso Estocástico Definición: η X(t) = E[X(t)] = En general, η X(t) depende del tiempo Se requiere la fdp de primer orden xf X(x; t)dx Autocorrelación de un Proceso Estocástico Definición: R X(t 1, t 2) = E[X(t 1)X(t 2)] = x 1x 2f X(x 1, x 2; t 1, t 2)dx 1dx 2 En general, la autocorrelación depende de t 1 y t 2

Estadísticos de un Proceso Estocástico Autocovarianza de un Proceso Estocástico Definición: C X(t 1, t 2) = E [(X(t 1) η X(t 1)) (X(t 2) η X(t 2))] = = E[X(t 1)X(t 2)] η X(t 1)η X(t 2) = R X(t 1, t 2) η X(t 1)η X(t 2) Valor Cuadrático Medio (Potencia) de un Proceso Estocástico Es el momento no centrado de orden 2 de la v.a. X(t): m 2(t) = E [ X 2 (t) ] = R X(t, t) Varianza de un Proceso Estocástico Es el momento centrado de orden 2 de la v.a. X(t): µ 2(t) = σ 2 X(t) = Var [X(t)] = E [ X 2 (t) ] η 2 X(t) = C X(t, t)

Estadísticos de un Proceso Estocástico Coeficiente de Autocorrelación Definición análoga al caso de 2 variables aleatorias: r X(t 1, t 2) = C X(t 1, t 2) Var [X(t1)] Var [X(t 2)] = C X(t 1, t 2) CX(t 1, t 1)C X(t 2, t 2) 1 r X(t 1, t 2) 1 r X(t 1, t 2) indica el grado de relación lineal entre X(t 1) y X(t 2) Ejemplo X(t) = at + Y con Y v.a. uniforme en (0, 1), a = cte. Media: η X(t) = at + 1/2 Autocorrelación: R X(t 1, t 2) = a 2 t 1t 2 + 1 2 a(t1 + t2) + 1 3 Autocovarianza: C X(t 1, t 2) = 1 12 Varianza: σ 2 X(t) = Var [X(t)] = C X(t, t) = 1 12 Valor Cuadrático Medio: E [ X 2 (t) ] = R X(t, t) = a 2 t 2 + at + 1 3 Coeficiente de Autocorrelación: r X(t 1, t 2) = 1

Estadísticos de un Proceso Estocástico Ruido Blanco Un Proceso Estocástico es Ruido Blanco sii: C X(t 1, t 2) = 0 R X(t 1, t 2) = η X(t 1)η X(t 2) t 1 t 2 Las variables aleatorias X(t 1), X(t 2) están incorreladas No se puede estimar linealmente X(t 2) a partir de X(t 1) ( t 1 t 2) Realizaciones de Ruido Blanco: Carácter Errático Ruido Blanco Estricto Un Proceso Estocástico es Ruido Blanco Estricto sii: f X(x 1, x 2; t 1, t 2) = f X(x 1; t 1)f X(x 2; t 2) t 1 t 2 Las variables aleatorias X(t 1), X(t 2) son independientes No hay ninguna relación (ni lineal ni no lineal) entre X(t 1) y X(t 2)

Estadísticos de un Proceso Estocástico Caracterización de Procesos Estocásticos Discretos en el tiempo Secuencias Estocásticas: Espacio de tiempos T = {..., t 1, t 0, t 1,...} X[n] = X(t n) n Z Definiciones Análogas a las de Procesos Estocásticos Continuos Función Distribución: F X[x; n] = P (X[n] x) fdp: δfx[x; n] f X[x; n] = δx Media: η X[n] = E [X[n]] Autocorrelación: R X[n 1, n 2] = E [X[n 1]X[n 2]] Autocovarianza: C X [n 1, n 2] = R X[n 1, n 2] η X[n 1]η X[n 2] Valor Cuadrático Medio (Potencia): m 2[n] = E [ X 2 [n] ] Varianza: σ 2 X[n] = Var [X[n]] = E [ (X[n] η X[n]) 2] = E [ X 2 [n] ] η 2 X[n] Coeficiente de Autocorrelación: r X[n 1, n 2] = C X [n 1,n 2 ] CX [n 1,n 1 ]C X [n 2,n 2 ]

Estadísticos de dos Procesos Estocásticos Caracterización de dos Procesos Estocásticos Procesos Estocásticos X(t), Y (t) Función Distribución Conjunta: F XY (x 1,..., x N, y 1,..., y M ; t 1,..., t N, t 1,..., t M ) fdp Conjunta: f XY (x 1,..., x N, y 1,..., y M ; t 1,..., t N, t 1,..., t M ) Estadísticos de dos Procesos Estocásticos Correlación Cruzada: R XY (t 1, t 2) = E [X(t 1)Y (t 2)] Covarianza Cruzada: C XY (t 1, t 2) = E [(X(t 1) η X(t 1)) (Y (t 2) η Y (t 2))] Propiedades: R X(t 1, t 2) = R X(t 2, t 1) C X(t 1, t 2) = C X(t 2, t 1) R XY (t 1, t 2) = R Y X(t 2, t 1) C XY (t 1, t 2) = C Y X(t 2, t 1) R XY (t 1, t 2) R XY (t 2, t 1) C XY (t 1, t 2) C XY (t 2, t 1)

Contenido 1 Definición 2 Caracterización Estadística 3 Estadísticos 4 Estacionariedad 5 Ergodicidad 6 Densidad Espectral de Potencia 7 Filtrado de Procesos Estocásticos

Estacionariedad Proceso Estocástico Estacionario de Orden 1 Definición: Se dice que un proceso estocástico es estacionario de orden uno sii: f X(x; t) = f X(x; t + ) t, es decir, la fdp (y F.D.) de orden 1 no dependen de t, lo que implica: η X(t) = η X = cte. σ 2 X(t) = σ 2 X = cte. Proceso Estocástico Estacionario de Orden 2 Definición: Se dice que un proceso estocástico es estacionario de orden dos sii: f X(x 1, x 2; t 1, t 2) = f X(x 1, x 2; t 1 +, t 2 + ) t 1, t 2, Implicaciones: La fdp (y F.D.) de orden dos no depende de los tiempos absolutos t 1, t 2 sino solamente de la diferencia τ = t 1 t 2 Un P.E. estacionario de orden 2 también lo es de orden 1 R X(t 1, t 2) = R X(t 1 t 2) = R X(τ)

Estacionariedad Proceso Estocástico Estacionario en Sentido Estricto Definición: Un proceso estocástico es estacionario en sentido estricto sii es estacionario de orden n n Proceso Estocástico Estacionario en Sentido Amplio Definición: Un P.E. es estacionario en sentido amplio a sii: η X(t) = E[X(t)] = η X = cte. R X(t 1, t 2) = R X(t 1 t 2) = R X(τ) = E [X(t + τ)x(t)] En el caso discreto: η X[n] = E[X[n]] = η X = cte. R X[n 1, n 2] = R X[n 1 n 2] = R X[m] = E [X[n + m]x[n]] Observación: Estacionario de orden 2 a WSS: Wide Sense Stationary Estacionario en Sentido Amplio

Estacionariedad Ejemplo 1 Tono de fase aleatoria: X(t) = A cos(ωt + Θ) Θ uniforme en ( π, π) f X(x; t) = f X(x) = 1 π A 2 x 2 x A Estacionario orden 1 Media: π η X (t) = E [A cos(ωt + Θ)] = A π Autocorrelación: cos(ωt + θ) 1 dθ = 0 = cte. 2π R X (t 1, t 2 ) = E [X(t 1 )X(t 2 )] = E [ A 2 cos(ωt 1 + Θ) cos(ωt 2 + Θ) ] = = A2 2 E [cos(ω(t 1 + t 2 ) + 2Θ)] +E [cos(ω(t 1 t 2 ))] }{{} = 0 = A2 2 cos(ω(t 1 t 2 )) R X (τ) = A2 2 cos(ωτ)

Estacionariedad Ejemplo 1. Continuación X(t) = A cos(ωt + Θ) es estacionario en sentido amplio Realizaciones del Proceso Estocástico 1 Proceso Estocástico Estacionario 0.8 0.6 0.4 Realizaciones de X(t) 0.2 0 0.2 0.4 0.6 0.8 1 0 1 2 3 4 5 6 7 8 9 t

Estacionariedad Ejemplo 2 X(t) = A cos(ωt + θ) con A v.a. uniforme en ( a, a) X(t) es una v.a uniforme en [ a cos(ωt + θ), a cos(ωt + θ)] Dependencia con t Proceso Estocástico No Estacionario 1 Proceso Estocástico No Estacionario 0.8 0.6 0.4 Realizaciones de X(t) 0.2 0 0.2 0.4 0.6 0.8 1 0 1 2 3 4 5 6 7 8 9 t

Estacionariedad Procesos Conjuntamente Estacionarios Definición: Los procesos estocásticos X(t), Y (t) son conjuntamente estacionarios en sentido amplio sii: X(t), Y (t) son estacionarios en sentido amplio por separado R XY (t + τ, t) = E [X(t + τ)y (t)] = R XY (τ) Algunas Propiedades de los Procesos Estacionarios Propiedades de R X(τ) R X(τ) = R X( τ) τ R X(τ) R X(0) τ Propiedades de R XY (τ) R XY (τ) = R Y X( τ) τ R XY (τ) R X(0)R Y (0) τ Para Z(t) = X(t) + Y (t) R Z (τ) = E [Z(t + τ)z(t)] = E [(X(t + τ) + Y (t + τ)) (X(t) + Y (t))] R Z (τ) = R X (τ) + R Y (τ) + R XY (τ) + R Y X (τ)

Relaciones Entre Procesos Estocásticos Procesos Estocásticos Independientes Definición: Dos procesos estocásticos son independientes sii: f XY (x 1,..., x N, y 1,..., y M ; t 1,..., t N, t 1,..., t M ) = = f X (x 1,..., x N ; t 1,..., t N )f Y (y 1,..., y M ; t 1,..., t M ) N, M Procesos Estocásticos Incorrelados Definición: Dos procesos estocásticos son incorrelados sii: C XY (t + τ, t) = 0 t, τ X(t) no se puede estimar de manera lineal a partir de la observación de Y (t) Procesos Estocásticos Ortogonales Definición: Dos procesos estocásticos son ortogonales sii: R XY (t + τ, t) = 0 t, τ Ejemplo (ruido en RX): Z(t) = X(t) + Y (z) con X(t), Y (t) ortogonales R Z (t + τ, t) = R X (t + τ, t) + R Y (t + τ, t)

Contenido 1 Definición 2 Caracterización Estadística 3 Estadísticos 4 Estacionariedad 5 Ergodicidad 6 Densidad Espectral de Potencia 7 Filtrado de Procesos Estocásticos

Ergodicidad Procesos Estocásticos Ergódicos Pregunta: Dada una realización de un proceso estocástico... Podemos caracterizarlo estadísticamente? Intuición: Un proceso estocástico es ergódico si se puede caracterizar estadísticamente a partir de una realización Promedio Temporal y Autocorrelación Temporal Dada una realización X(t, S 0) de un P.E. se define Promedio Temporal: 1 T M X(S 0) = lím X(t, S 0)dt T 2T T Autocorrelación Temporal: 1 T A X(τ, S 0) = lím X(t + τ, S 0)X(t, S 0)dt T 2T T En general, M X(S) es una v.a. y A X(τ, S) es un proceso estocástico

Ergodicidad Ergodicidad Respecto a la Media Definición: Un P.E. X(t) es ergódico respecto a la media sii: X(t) es estacionario en sentido amplio El promedio temporal es igual a la media M X(S) = η X S Condiciones para que X(t) (WSS) sea ergódico respecto a la media Teorema 1: Condición Necesaria y Suficiente 1 2T ( lím 1 τ ) C X (τ)dτ = 0 T 2T 2T 2T Teorema 2: Condición Suficiente Teorema 3: Condición Suficiente C X (τ) dτ < C X (0) < lím C X(τ) = 0 τ

Ergodicidad Ejemplo 1 X(t) = A con A variable aleatoria uniforme en (0, 1) Promedio estadístico ( vertical ): η X = E[X(t)] = E[A] = 1/2 1 T Promedio temporal ( horizontal ): M X = lím T Adt = A 2T T η X M X no es ergódico respecto a la media Ejemplo 2 Lanzamiento de una moneda y dos formas de onda X(t, cara ) = cos(ωt) X(t, cruz ) = e ct η X(t) No es WSS No es ergódico respecto a la media

Ergodicidad Ejemplo 3 X(t) = A cos(ωt + Θ) Θ uniforme en ( π, π) X(t) es estacionario en sentido amplio: Promedio Temporal: η X = 0 R X(τ) = A2 2 cos(ωτ) M X = lím T = lím T = lím T 1 T A cos(ωt + Θ)dt = lím 2T T T A (sin(ωt + Θ) sin( ωt + Θ)) = 2T ω A sin(ωt ) cos(θ) = 0 = ηx T ω A 2T ω sin(ωt + Θ) T T = WSS y η X = M X Ergódico respecto a la media

Ergodicidad Ergodicidad Respecto a la Autocorrelación Definición: Un P.E. X(t) es ergódico respecto a la autocorrelación sii: X(t) es estacionario en sentido amplio La Autocorrelación Temporal es igual a la Autocorrelación A X(τ, S) = R X(τ) τ, S Ejemplo X(t) = A cos(ωt + Θ) Θ uniforme en ( π, π) η X = 0 R X(τ) = A2 2 cos(ωτ) Autocorrelación Temporal: 1 T A X(τ) = lím A cos(ω(t + τ) + Θ)A cos(ωt + Θ)dt = T 2T T = A2 2 cos(ωτ) = RX(τ) Ergódico resp. Autocorrelación

Contenido 1 Definición 2 Caracterización Estadística 3 Estadísticos 4 Estacionariedad 5 Ergodicidad 6 Densidad Espectral de Potencia 7 Filtrado de Procesos Estocásticos

Densidad Espectral de Potencia Caracterización Espectral de Procesos Estocásticos WSS Objetivo: Caracterización frecuencial de un proceso estocástico WSS Herramienta: Transformada de Fourier X(ω) = X(f) = x(t)e jωt dt x(t) = 1 2π x(t)e j2πft dt x(t) = X(ω)e jωt dω X(f)e j2πft df Primera Aproximación Obtención de la T.F. de cada Realización x(t) = X(t, S) Problemas: En general, x(t) puede no tener Transformada de Fourier Cond. suficiente para T.F. x(t) dt < Buscamos el espectro del P.E., no de una realización

Densidad Espectral de Potencia Segunda Aproximación Consideración de una ventana temporal { X(t, S) T < t < T X T (t, S) = X 0 resto T (ω, S) = X T (t, S)e jωt dt Ventajas: Energía finita Existe Transformada de Fourier. T a de Parseval: T E T (S) = (X T (t, S)) 2 dt = 1 X T (ω, S) 2 dω T 2π Inconvenientes: Seguimos considerando realizaciones Sólo consideramos un intervalo temporal (T E T (S) ) P T (S) = 1 2T T T (X T (t, S)) 2 dt = 1 2π X T (ω, S) 2 dω 2T

Densidad Espectral de Potencia Solución: Densidad Espectral de Potencia Consideramos la Potencia P X = lím E[P T (S)] = lím T T 1 T E[XT 2 2T (t, S)]dt = R X(0) = T = 1 lím 2π T Densidad Espectral de Potencia (DEP) E [ X T (ω, S) 2] 2T E [ X T (ω, S) 2] S X(ω) = lím T 2T Además, la DEP y la Función de Autocorrelación satisfacen la relación: S X(ω) = TF [R X(τ)] = R X(τ) = TIF [S X(ω)] = 1 2π R X(τ)e jωτ dτ dω S X(ω)e jωτ dω

Densidad Espectral de Potencia Densidad Espectral de Potencia de P.E. Discretos en el tiempo Definición análoga S X(Ω) = TF [R X[m]] = m= R X[m] = TIF [S X(Ω)] = 1 2π 2π R X[m]e jωm S X(Ω)e jωm dω En este caso, la DEP es periódica de periodo 2π P X = R X[0] = 1 S X(ω)dω 2π 2π

Densidad Espectral de Potencia Densidad Espectral de Potencia Ejemplo 1: DEP y Función de Autocorrelación de un Proceso Estocástico 1 0.8 S X (f) 0.6 0.4 0.2 0 0 20 40 60 80 100 120 140 160 180 200 Frecuencia (Hz) 10 5 R X (τ) 0 5 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 τ (s)

Densidad Espectral de Potencia Densidad Espectral de Potencia Ejemplo 1: Realizaciones del Proceso Estocástico 10 0 10 0 0.2 0.4 0.6 0.8 1 t (s) 10 0 10 0 0.2 0.4 0.6 0.8 1 t (s) 20 0 20 0 0.2 0.4 0.6 0.8 1 t (s) 10 0 10 0 0.2 0.4 0.6 0.8 1 t (s) 10 0 10 0 0.2 0.4 0.6 0.8 1 t (s) 5 0 5 0 0.2 0.4 0.6 0.8 1 t (s) 10 0 10 0 0.2 0.4 0.6 0.8 1 t (s) 10 0 10 0 0.2 0.4 0.6 0.8 1 t (s)

Densidad Espectral de Potencia Densidad Espectral de Potencia Ejemplo 2: DEP y Función de Autocorrelación de un Proceso Estocástico 1 0.8 S X (f) 0.6 0.4 0.2 0 0 20 40 60 80 100 120 140 160 180 200 Frecuencia (Hz) 60 40 R X (τ) 20 0 20 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 τ (s)

Densidad Espectral de Potencia Densidad Espectral de Potencia Ejemplo 2: Realizaciones del Proceso Estocástico 50 0 50 0 0.2 0.4 0.6 0.8 1 t (s) 50 0 50 0 0.2 0.4 0.6 0.8 1 t (s) 50 0 50 0 0.2 0.4 0.6 0.8 1 t (s) 50 0 50 0 0.2 0.4 0.6 0.8 1 t (s) 20 0 20 0 0.2 0.4 0.6 0.8 1 t (s) 20 0 20 0 0.2 0.4 0.6 0.8 1 t (s) 50 0 50 0 0.2 0.4 0.6 0.8 1 t (s) 50 0 50 0 0.2 0.4 0.6 0.8 1 t (s)

Densidad Espectral de Potencia Densidad Espectral de Potencia Propiedades: S X(ω) es una función real La DEP es no negativa: S X(ω) 0 Para P.E. reales, la DEP es par: S X( ω) = S X(ω) S X(ω) = TF [R X(τ)] Analogía con una fdp: La DEP indica como se distribuye la potencia de un P.E. con la frecuencia Ejemplo 1 X(t) = A cos(ω 0t + Θ), con Θ uniforme en ( π, π) Función de Autocorrelación: R X(τ) = A2 2 cos(ω0τ) Densidad Espectral de Potencia: S X(ω) = TF [R X(τ)] = A2 π [δ(ω ω0) + δ(ω + ω0)] 2 Potencia: P X = R X(0) = 1 A2 SX(ω)dω = 2π 2

Densidad Espectral de Potencia Ejemplo 2 Ruido Blanco con media cero: Densidad Espectral de Potencia: S X(ω) = N0 2 Watt/Hz Autocorrelación: R X(τ) = C X(τ) = TIF [S X(ω)] = N 0 2 δ(τ) Potencia en una Ancho de Banda BW (en Hercios): P BW = BW N 0 = σ 2 Caso discreto: Ruido Blanco de media cero y varianza σ 2 Autocorrelación: R X[m] = C X[m] = { 0 m 0 σ 2 m = 0 Densidad Espectral de Potencia: S X(Ω) = TF [R X[m]] = σ 2 Ω

Densidad Espectral de Potencia Densidad Espectral de Potencia Cruzada Definición: Sean X(t), Y (t) dos procesos estocásticos conjuntamente estacionarios, se define la DEP cruzada como En el caso discreto: S XY (ω) = TF [R XY (τ)] = R XY (τ) = TIF [S XY (ω)] = 1 2π S XY (Ω) = TF [R XY [m]] = m= R XY [m] = TIF [S XY (Ω)] = 1 2π R XY (τ)e jωτ dτ 2π S XY (ω)e jωτ dω R XY [m]e jωm Particularidades: S XY (ω) puede ser compleja y puede no ser par S XY (ω) = S Y X( ω) S XY (Ω)e jωm dω

Contenido 1 Definición 2 Caracterización Estadística 3 Estadísticos 4 Estacionariedad 5 Ergodicidad 6 Densidad Espectral de Potencia 7 Filtrado de Procesos Estocásticos

Transformación de Señales Aleatorias Sistemas con Entradas Aleatorias Planteamiento General: Supongamos que un proceso estocástico X(t) es la entrada a un determinado sistema T [ ]. Nuestro objetivo consiste en caracterizar el proceso estocástico de salida Y (t) X(t) T [ ] Y (t) En general, Y (t) se podría caracterizar a partir de la estadística de X(t) y del conocimiento del sistema T [ ] (determinista) Para simplificar el problema, aquí nos centraremos en dos tipos particulares de sistemas: Sistemas sin Memoria (Transformación de Procesos Estocásticos) Sistemas LTI (Filtrado de Procesos Estocásticos)

Sistemas sin Memoria Sistemas sin Memoria Sistemas del tipo Y (t) = g (X(t)) La salida en el instante t sólo depende de la entrada en el instante t Equivale a una función de una variable aleatoria Obtención de la fdp de primer orden: A partir de f X(x; t) y de la función g( ) Teorema Fundamental Obtención de la media: η Y (t) = E[Y (t)] = E[g(X(t))] = g(x)f X(x; t)dx

Sistemas sin Memoria Sistemas sin Memoria (Continuación) Obtención de la fdp de segundo orden: } Y (t 1 ) = g(x(t 1 )) Funciones de 2 variables aleatorias Y (t 2 ) = g(x(t 2 )) Teorema Fundamental: f Y (y 1, y 2; t 1, t 2) = i f X(x 1i, x 2i; t 1, t 2) J(x 1i, x 2i) = i f X(x 1i, x 2i; t 1, t 2) g (x 1i)g (x 2i) Obtención de la Función de Autocorrelación R Y (t 1, t 2) = E [Y (t 1)Y (t 2)] = g(x 1)g(x 2)f X (x 1, x 2; t 1, t 2)dx 1dx 2 Observaciones sobre la Estacionariedad X(t) est. sentido estricto Y (t) est. sentido estricto X(t) est. de (hasta) orden n Y (t) est. de (hasta) orden n X(t) WSS Y (t) WSS

Sistemas sin Memoria Ejemplo Detector Cuadrático: Y (t) = X 2 (t) fdp de primer orden: Raíces: y = g(x) = x 2 x 1 = y, x 2 = y (y 0) Derivada: g (x) = 2x fdp: f Y (y; t) = f X ( y;t) 2 + f X ( y;t) y 2 y fdp de orden 2: Y (t 1 ) = X 2 (t 1 ) Y (t 2 ) = X 2 (t 2 ) Raíces (y 1 0,y 2 0): y 1 = x 2 } 1 y 2 = x 2 x 1 2 x 2 = ± y 1 = ± y 2 4 parejas de soluciones!! Jacobiano: J(x 1, x 2 ) = 4x 1 x 2 fdp: f Y (y 1, y 2 ; t 1, t 2 ) = 4 f X (± y 1,± y 2 ;t 1,t 2 ) i=1 4 y 1 y 2

Sistemas Lineales e Invariantes en el Tiempo Sistemas Lineales e Invariantes en el Tiempo X(t) L[ ] Y (t) Utilizaremos L[X(t)] (en lugar de T [X(t)]) para distinguir que se trata de un operador lineal Características: Permiten un estudio general Se pueden caracterizar en el dominio de la frecuencia Aparecen con frecuencia en aplicaciones prácticas

Sistemas Lineales e Invariantes en el Tiempo Sistemas Lineales e Invariantes en el Tiempo Repaso: [ N ] Linealidad: L i=1 a ix i (t) Invarianza temporal: = N i=1 a il [x i (t)] y(t) = L[x(t)] y(t + c) = L[x(t + c)] c Respuesta al impulso y convolución: h(t) = L[δ(t)] y(t) = L[x(t)] = x(t) h(t) = x(t α)h(α)dα Caracterización Frecuencial: L [ e jω 0t ] = H(ω 0 )e jω 0t H(ω) = TF [h(t)] = h(t)e jωt dt Causalidad: x(t) = 0 t < t 0 y(t) = 0 t < t 0 Estabilidad: x(t) < M t K y(t) < K t h(t) dt <

Sistemas Lineales e Invariantes en el Tiempo Caracterización Estadística de Sistemas LTI Teorema: Los operadores E[ ] y L[ ] son intercambiables E [L [x(t)]] = L [E [x(t)]] La demostración es directa a partir de la linealidad de E[ ] y L[ ] Media del Proceso Estocástico de Salida Obtención de la media η Y (t) = E [Y (t)] = E [L[X(t)]] = L [E[X(t)]] = L[η X(t)] η Y (t) = η X(t α)h(α)dα = η X(t) h(t) Caso particular: X(t) est. en sentido amplio (η X(t) = η X) η Y (t) = η Xh(α)dα = η X h(α)dα η Y = η XH(0)

Sistemas Lineales e Invariantes en el Tiempo Autocorrelación del Proceso Estocástico de Salida Asumiendo que X(t) es estacionario en sentido amplio R Y (τ) = E [Y (t + τ)y (t)] = R X(τ) h(τ) h( τ) R X (τ) h( τ) R XY (τ) h(τ) R Y (τ) Correlación Cruzada Entrada-Salida R XY (τ) = R X(τ) h( τ) R Y X(τ) = R X(τ) h(τ) Densidad Espectral de Potencia A partir de la definición: S Y (ω) = TF [R Y (τ)] Y teniendo en cuenta: TF [h(τ)] = H(ω), TF [h( τ)] = H( ω) Además, para h(τ) real: H( ω) = H (ω) Obtenemos: S Y (ω) = S X(ω)H (ω)h(ω) = S X(ω) H(ω) 2

Sistemas Lineales e Invariantes en el Tiempo Ejemplo Filtrado de Ruido Blanco con Media Cero: Autocorrelación de la Entrada: R X(τ) = N 0 2 δ(τ) DEP de la entrada: S X(ω) = N 0 2 Sistema LTI: h(t) H(ω) Autocorrelación de la salida: R Y (τ) = N0 N0 δ(τ) h(τ) h( τ) = (h(τ) h( τ)) 2 2 DEP de la salida: S Y (ω) = N0 2 H(ω) 2

Sistemas Lineales e Invariantes en el Tiempo Ejemplo Promediador de Media Móvil: Respuesta del Sistema: Y (t) = 1 T X(t)dt 2T T Función de trasferencia: DEP de la salida: H(ω) = sin(ωt ) ωt S Y (ω) = S X(ω) sin2 (ωt ) (ωt ) 2