Procesos estocásticos

Documentos relacionados
Repaso de Teoría de la Probabilidad

TEORÍA DE LA COMUNICACIÓN TEMA 2 RUIDO EN LOS SISTEMA DE COMUNICACIONES. Variable aleatoria (Real)

Tema 7: Procesos Estoca sticos

Unidad Temática 3: Probabilidad y Variables Aleatorias

IDENTIFICACIÓN DE SISTEMAS SISTEMAS LINEALES Y PROCESOS ESTOCÁSTICOS

TEMA 5. PROCESOS ESTOCÁSTICOS.-CURSO 2017/18

Procesos Estocásticos. Procesos Estocásticos. Procesos Estocásticos. 1 Introducción y conceptos básicos. Al final del tema el alumno será capaz de:

Ejercicios de Procesos Estocásticos

SEÑALES ALEATORIAS Y RUIDO. E. T. S. de Ingenieros de Telecomunicación Universidad de Valladolid.

Teoría de la Comunicación. a) Si X es una variable aleatoria con una distribución uniforme en el intervalo [ 2, 2], calcule las probabilidades

Sistemas de Comunicaciones

Estadística Maestría en Finanzas Universidad del CEMA. Profesor: Alberto Landro Asistente: Julián R. Siri

Sistemas de comunicación

Ruido en los sistemas de comunicaciones

POTENCIA DE UN PROCESO ALEATORIO. Análisis Espectral 1 / 30

EL4005 Principios de Comunicaciones Clase No.15: Ruido Blanco y Procesos Gaussianos

Material introductorio

Econometría II Grado en finanzas y contabilidad

Tema 4: Variable Aleatoria Bidimensional

VECTORES ALEATORIOS Julián de la Horra Departamento de Matemáticas U.A.M.

Sistemas de comunicación

Guía 3 - Densidad espectral de potencia, transformación de procesos, ergodicidad

PROCESOS ALEATORIOS. Capítulo AXIOMAS DE PROBABILIDAD

TEMA 3.- VECTORES ALEATORIOS.- CURSO

3. Variables aleatorias

Clase 3. Procesos estocásticos en Teoría de la señal.

A502 - Teoría de Sistemas y Señales

Hoja 4 Variables aleatorias multidimensionales

Part I. Variables aleatorias unidimensionales. Estadística I. Mario Francisco. Definición de variable aleatoria. Variables aleatorias discretas

Distribución Gaussiana Multivariable

Probabilidad y Procesos Aleatorios

Probabilidad y Estadística

Repaso de conceptos de álgebra lineal

Ejercicio 1. Ejercicio 2

Estadística. Tema 2. Variables Aleatorias Funciones de distribución y probabilidad Ejemplos distribuciones discretas y continuas

Folleto de Estadísticas. Teoría del 1er Parcial

Detección y Estimación Maestría en Ing. Electrónica Capitulo I Probabilidad, Variables y Procesos Aleatorios

SOLUCIONES AL EXAMEN DE SEPTIEMBRE DE ESTADÍSTICA EXAMEN DE MATEMÁTICAS II

Capítulo 5: Probabilidad e inferencia

Notas de clase. Prof. Nora Arnesi

Tema 4: Variables aleatorias. Tema 4: Variables Aleatorias. Tema 4: Variables aleatorias. Objetivos del tema:

Sistemas Discretos LTI

Apunte de procesos estocásticos

Examen de Estadística

Tema 2: Variables Aleatorias Unidimensionales

DISTRIBUCIONES MULTIDIMENSIONALES DE PROBABILIDAD

Estadística. Tema 3. Esperanzas Esperanza. Propiedades Varianza y covarianza. Correlación

Modelos de probabilidad. Modelos de probabilidad. Modelos de probabilidad. Proceso de Bernoulli. Objetivos del tema:

REPRESENTACIÓN DE SEÑALES PASABANDA. Prof. Germán González Depto de Electrónica USB Junio 2002

TEMA 2.- VARIABLES ALEATORIAS UNIDIMENSIONALES.- CURSO 17/18

Departamento de Matemática Aplicada a las T.I.C. SOLUCIONES

Tema 4: VARIABLE ALEATORIA N-DIMENSIONAL

Resumen de Probabilidad

Distribuciones de probabilidad bidimensionales o conjuntas

ENRIC RUIZ MORILLAS ESTADÍSTICA APLICADA A EXPERIMENTOS Y MEDICIONES

Soluciones Examen de Estadística Ingeniería Superior de Telecomunicación

Técnicas Cuantitativas para el Management y los Negocios I

PPE - Probabilidad y Procesos Estocásticos

TEMA 5: ANÁLISIS DE LA CALIDAD EN MODULACIONES ANALÓGICAS

Representaciones gráficas de las distribuciones bidimensionales de frecuencias... 74

Concepto de VA bidimensional. Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL. Concepto de VA bidimensional. Concepto de VA bidimensional

Tema 5 Modelos de distribuciones de Probabilidad

Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL

Cuestiones propuestas de la primera prueba de la primera preparación

Tema 3: Función de Variable Aleatoria y Teoremas Asintóticos

Estadística Espacial

Definición Se dice que una variable aleatoria X es continua si su conjunto de posibles valores es todo un intervalo (finito o infinito) de números

Tema 3: Funcio n de Variable Aleatoria

Cálculo de probabilidad. Tema 3: Variables aleatorias continuas

Examen de Estadística Grado en Ingeniería de Telecomunicación

TEMA 3: Probabilidad. Modelos. Probabilidad

Variables aleatorias bidimensionales discretas

Procesos estocásticos

Tema 4: Variables aleatorias.

Procesos estocásticos. Definición

Tema 10: Introducción a los problemas de Asociación y Correlación

EXPERIMENTO ALEATORIO

Folleto de Estadísticas. Teoría del 2do Parcial

Comunicaciones Digitales

Transmisión digital por canales con ruido

SEÑALES Y SISTEMAS Clase 13

Transcripción:

Teoría de la comunicación Comunicaciones - U.A.H.

Indice Probabilidad. Variables Aleatorias. Procesos Estocásticos. Comunicaciones - U.A.H.

Probabilidad Probabilidad. Dado un experimento ε del tipo que sea, se define el espacio muestral como el conjunto de todos los resultados posibles del experimento. Al espacio muestral, normalmente se le denota con la letra S. El lanzar un dado es un experimento cuyo espacio muestral está formado por los seis posibles números, es decir, S={,, 3, 4, 5, 6} Se define un suceso A, respecto a un espacio muestral S, como un conjunto de posibles resultados. Normalmente el suceso A va a suponer un subconjunto del espacio muestral S. Comunicaciones - U.A.H. 3

Probabilidad. Se define la frecuencia relativa de un suceso A ε, al cociente entre el número de veces que se da el suceso A, después de repetir n veces el experimento ε. Las principales propiedades de la frecuencia relativa son: 0 f A. f A = si A ocurre en las n repeticiones. f A =0 si A no ocurre en las n repeticiones. f A = n A n Sea A y B dos sucesos pertenecientes al experimento ε y mutuamente excluyentes, entonces f A B =f A +f B. Si el número de repeticiones del experimento ε tiende a infinito, n, la frecuencia relativa f A converge en cierto sentido probabilístico hacia la probabilidad de A. P ( A) n = = A f A n n n Comunicaciones - U.A.H. 4

Probabilidad. Dado un experimento ε cuyo espacio muestral es S, si a cada suceso A se le asocia un número real designado por P(A), resultado de obtener f A cuando n, se van a a cumplir las siguientes propiedades: 0 P(A). P(S)=. Si es el conjunto vacío, P( )=0. P( A) = P( A) Si A y B son dos sucesos cualquiera P(A B)=P(A)+P(B)-P(A B). Si A y B son sucesos mutuamente excluyentes P(A B)=P(A)+P(B) Si A B entonces P(A) P(B). Comunicaciones - U.A.H. 5

Probabilidad. Sean A y B dos sucesos asociados a un experimento ε, se define la probabilidad condicionada de B al suceso A como la probabilidad de que se de el suceso B si se ha dado el suceso A, y se define como: ( B P ) ( A B) = ( A) ( A) 0 P P > A P Así mismo se define la probabilidad de A condicionada a que se halla dado el suceso B, como: ( A ) P( A B) = ( B) ( B) 0 P P > B P Comunicaciones - U.A.H. 6

Probabilidad. A partir de las dos ecuaciones anteriores es posible obtener el teorema de Bayes que establece: P ( A B) = P( B ) P( A) = P( A ) P( B) A B P P ( B ) A ( A ) B = = P P ( A ) P( B) B P ( A) ( B ) P( A) A P ( B) Comunicaciones - U.A.H. 7

Variables aleatorias. Dado un experimento ε cuyo espacio muestral asociado es S, se define la variable aleatoria, a la función que asigna a cada uno de los elementos s S, un número real (s). Si S contiene un número contable de muestras, entonces (s) es una variable aleatoria discreta, en caso contrario (s) será una v.a. continua. La principal ventaja que presentan las variables aleatorias son que permiten manejar sucesos del tipo P(=a) o bien P( a), siendo a un punto de la recta real x. Comunicaciones - U.A.H. 8

Variables aleatorias. Función de distribución de probabilidad (F.D.). Considerando un experimento ε al que se ha asociado una variable aleatoria, se define la función distribución de probabilidad F (x), como la probabilidad de que x, o lo que es lo mismo P( x). F ( x) = P( x) < x < Comunicaciones - U.A.H. 9

Variables aleatorias. Sus principales propiedades son: 0 F (x), siendo F (- )=0 y F ( )=. F (x) es continua por la derecha, es decir, F (x+)= F (x). F (x) es una función no decreciente, es decir, F (x ) F (x ) si x > x P(>x) = - F (x). P(a<x b) = F (b) - F (a), siendo b>a Comunicaciones - U.A.H. 0

Variables aleatorias. Función densidad de probabilidad (f.d.p.). La función densidad de probabilidad se define como: f ( x) = df dx ( x) La función de distribución es muy útil para el cálculo de probabilidades, sin embargo, en comunicaciones se va a trabajar sobre todo con promedios estadísticos, por ello va a ser más útil trabajar con la función densidad de probabilidad. Comunicaciones - U.A.H.

Variables aleatorias. Las propiedades de la función densidad de probabilidad para variables aleatorias continuas, son: P( x) = F ( x) = f ( λ) f (x) 0. f x dx = ( ) x dλ P( a < b) = F ( b) F ( a) f ( x) b = dx a Comunicaciones - U.A.H.

Variables aleatorias. F.D. y f.d.p. conjuntas. Algunos experimentos se caracterizan por más de una variable aleatoria que pueden o no ser independientes, en este caso se habla de F.D. y f.d.p. conjuntas. Por sencillez se estudia el caso de dos variables aleatorias. La función distribución conjunta se define como: F Y ( x, y) = P( x, Y y) La función densidad de probabilidad conjunta, se define como:. f Y ( xy) = d F Y dx dy ( xy) Comunicaciones - U.A.H. 3

Variables aleatorias. Propiedades de la F.D. y f.d.p. conjunta. P F x y ( x < x, y < Y y ) = f ( xy) F f Y dy dx x y ( ) = f ( xy) dy dx Y Y = F f ( x) = F ( x, ) = P( x < Y ) Y, Y Y ( x) = f ( xy) Y dy ( y) = F (, y) = P( <,Y y) Y ( y) = f ( xy) Y dx Comunicaciones - U.A.H. 4

Variables aleatorias. Dos variables aleatorias son estadísticamente independientes si el valor que toma cada una de ellas no influye sobre los valores de la otra, por lo tanto se va a cumplir: F f Y Y ( xy) = F ( x) FY ( y) ( xy) = f ( x) f ( y) Y Si dos variables aleatorias no son independientes, es posible obtener su f.d.p. conjunta en función de las f.d.p. condicionales: f Y ( ) ( y xy = f ) f ( x) = f ( ) x f ( y) Y x Y y Y Comunicaciones - U.A.H. 5

Variables aleatorias. Promedios estadísticos de una v.a. La F.D. y la f.d.p. caracterizan totalmente a una variable aleatoria, sin embargo, en algunas ocasiones o bien no es necesaria tanta información o bien es muy difícil obtener dichas funciones y es suficiente con definir algunos promedios de dicha v.a. Media Varianza Coeficiente de correlación Comunicaciones - U.A.H. 6

Variables aleatorias. Media estadística. Se define la media como el valor con mas probabilidad esperado. Sea una variable aleatoria discreta con valores posibles x, x,..., x n y sea p(x i )=P(=x i ), i=,,..., n. El valor esperado de se denota por E[] y se define como: E [ ] = m = x p( x ) Dada una v.a. continua, cuya f.d.p. es f (x), su valor medio es: E n i= [ ] m = x f ( x) = dx i i Comunicaciones - U.A.H. 7

Variables aleatorias. Propiedades de la media estadística: Si =Cte entonces E[]=Cte. E[k]=k E[]. E[+Y]=E[]+E[Y] E[ + +...+ n ]=E[ ]+E[ ]+...+E[ n ] Sea (,Y) una v.a. bidimensional con ey independientes E[Y]=E[] E[Y] Dada Y=g() es posible obtener la media de la nueva variable Y, como: E [ Y ] y f ( y) dy = E[ g( )] = g( x) f ( x) = dx Y Comunicaciones - U.A.H. 8

Variables aleatorias. Varianza de una v.a. La varianza es una medida de la concentración de la f.d.p. de alrededor de la media. Cuanto mayor sea la varianza, mayor es la probabilidad de encontrar valores alejados de la media. La varianza se define como: Var = σ = E m Si es una v.a. discreta la varianza de la función se define como: σ Si es una v.a. continua: σ = [ ] ( ) ( ) xn m ) P( = xn ) ( n= = ( x m ) f ( x) dx Comunicaciones - U.A.H. 9

Variables aleatorias. Propiedades de la varianza. σ = E [( ) ] [ ] m = E E [ ] Var(k) = k Var() Var(+k) = Var() Si (,Y) es una v.a. bidimensional donde e Y son independientes se cumple: ( + Y ) = Var( ) Var( Y ) Var + Sea,,..., n v.a. independientes. Se cumple: ( + +... + ) = Var( ) + Var( ) +... Var( ) Var + n n Comunicaciones - U.A.H. 0

Variables aleatorias. Coeficiente de correlación. El coeficiente de correlación de dos variables aleatorias e Y da, en gran parte, el grado de similitud entre las dos variables aleatorias. Se define el coeficiente de correlación entre e Y, como. ρ Y = E [( m ) ( Y my )] Var[ ] Var[ Y ] { Var[ ] y Var[ Y ]} ρ El numerador del coeficiente de correlación representa la covarianza de e Y (C Y ). Y 0 C Y = E [( m ) ( Y my )] = E[ Y] m my Comunicaciones - U.A.H.

Variables aleatorias. Variables aleatorias incorreladas. Se dice que dos v.a. e Y están incorreladas si su coeficiente de correlación es nulo y por lo tanto su covarianza. Si e Y son dos v.a. independientes, también serán v.a. incorreladas. La incorrelación es una condición mucho más débil que la independencia. Dos variables aleatorias e Y pueden estar incorreladas pero no tiene porque ser independientes. Si e Y están incorreladas Var[+Y]=Var[]+Var[Y]. Comunicaciones - U.A.H.

Variables aleatorias. Variables aleatorias ortogonales. Dos variables aleatorias e Y son ortogonales si E[Y]=0. Variables aleatorias independientes. Dos variables aleatorias e Y son independientes si se cumple: F f Y Y ( xy) = F ( x) FY ( y) ( xy) = f ( x) f ( y) Y Comunicaciones - U.A.H. 3

Variables aleatorias. Distribución Gaussiana. Una de las v.a. continuas más importantes es aquella cuya f.d.p. tiene una distribución normal o Gaussiana, que toma valores de x entre y -, y cuya expresión es: f x m σ ( x) = e = N( m, σ ) < x < πσ f (x) x E[]-σ E[] E[]+σ x Comunicaciones - U.A.H. 4

Variables aleatorias. Distribución uniforme. La f.d.p. uniforme tiene la misma probabilidad en un intervalo de x, siendo dicho probabilidad nula fuera del mismo. f (x) a E[] b x f ( x) = b a 0 a x Re sto b x E σ [ ] = b + a = ( b ) a Comunicaciones - U.A.H. 5

Variables aleatorias. Distribución de Rayleigh. El modelo de Rayleigh describe una v.a. continua producida por dos variables aleatorias Gaussianas,Y resultante de la transformación mostrada en la figura : y Y R Φ Las variables aleatorias e Y van a ser independientes y además van a cumplir: E [ ] = E[ Y ] = 0 ; σ = σ Y = σ 0 x Comunicaciones - U.A.H. 6

Comunicaciones - U.A.H. 7 Variables aleatorias. La v.a. R tiene una f.d.p. denominada de Rayleigh y cuya ecuación es la siguiente: () () [ ] [ ] [ ] = = = = 0 0 0 0 r 0 R R Var R E R E r u e r r f σ π σ σ π σ σ r f (r) R E[R] (b) () ( ) () r u e r R P r F 0 r R = = σ Y R + =

Los procesos aleatorios o procesos estocásticos son extensiones de los conceptos asociados con las variables aleatorias cuando se introduce el parámetro tiempo en la función. La mayoría de las señales que se utilizan en comunicaciones son de tipo determinístico, sin embargo en ciertas situaciones, como es el caso de un sistema al que se le suma ruido térmico, las señales que se generan no van a ser determinísticas sino aleatorias. Comunicaciones - U.A.H. 8

v(t,e ) t Fuente de ruido v(t) v(t,e ) v(t,e ) 3 t t v(t,e ) 4 t Comunicaciones - U.A.H. 9

En general v(t,ei) va a representar la forma de la señal de ruido cuando se produce el evento Ei del espacio muestral. Se dice que v(t,ei) es una función muestral del espacio muestral. Al conjunto de todas las funciones muestrales v(t,ei) se le denomina simplemente conjunto y define al proceso aleatorio que caracteriza, en este caso, a la fuente de ruido. Al observar la forma de la señal generada por la fuente de ruido, se ve una de las funciones muestrales. Es posible comparar la definición de variable aleatoria y la de proceso estocástico, ya que mientras la variable aleatoria transforma los eventos en constantes, el proceso estocástico transforma los eventos en funciones del tiempo. Comunicaciones - U.A.H. 30

Respecto a un proceso estocástico v(t,e) se pueden dar los siguientes casos: Si t es variable y E es variable se tiene un proceso estocástico o aleatorio. Si t es variable y E es fija se tiene una función determinística y representa una realización concreta del proceso aleatorio. Si t fija y E variable se tiene una variable aleatoria. Si t fija y E fija se tiene un número real. En general, el proceso aleatorio v(t,e) se va a conocer como v(t), por comodidad. Comunicaciones - U.A.H. 3

v(t,e ) t t t v(t,e ) Fuente de ruido v(t) v(t,e ) 3 t t t t t t v(t,e ) 4 t t t v(t,e ) i v(t,e ) i Comunicaciones - U.A.H. 3

Función de Distribución de primer y segundo orden. Se va a suponer que x(t,e)=x(t) es un proceso real. La función de distribución de primer orden de x(t) va a ser una función dependiente del tiempo y se va a definir como: F ( x; t) = P( ( t) x) Dado un proceso aleatorio x(t,e)=x(t) y dados dos instantes de tiempo t y t, se tiene las variables aleatorias x(t ) y x(t ). La función de distribución conjunta va a depender de t y t y se va a definir como: F ( x,x ;t,t ) = P[ ( t ) x, ( t ) ] x Comunicaciones - U.A.H. 33

Función Densidad de Probabilidad de primer y segundo orden. Se define la función densidad de probabilidad como: ( x;t) f = df( x;t) dx Dado un proceso aleatorio x(t,e)=x(t) y dados dos instantes de tiempo t y t, se tiene las variables aleatorias x(t ) y x(t ). La función densidad de probabilidad conjunta, va a depender de t y t y se va a denotar por: ( x,x ;t,t ) f = d F ( x,x ;t,t ) dx dx Comunicaciones - U.A.H. 34

Estadísticos temporales. Estadísticos de primer orden. Media Valor cuadrático medio. Varianza. Estadísticos de segundo orden Autocorrelación. Autocovarianza. Comunicaciones - U.A.H. 35

Media. La media de un proceso x(t) es la esperanza de la v.a. x(t), y se define como: m x en general va a ser una función dependiente del tiempo. Valor cuadrático medio. () t E[ x() t ] = x f ( x;t) = dx El valor cuadrático medio se define como: E [ x () t ] x f ( x;t) = dx Comunicaciones - U.A.H. 36

Varianza. Se define la varianza de x(t),, como la diferencia entre el valor cuadrático medio y el cuadrado del valor medio. Var [ x( t) ] = σ = E x ( t) [ ] E x( t) [ ] también va a ser una función dependiente del tiempo. Comunicaciones - U.A.H. 37

Autocorrelación. La función autocorrelación es una media de conjunto de las variables aleatorias x(t ) y x(t ), definiéndose como: R ( t,t ) E[ x( t ) x( t )] = x x f ( x,x ;t,t ) dx dx = va a ser una función de t y t. Autocovarianza. La autocovarianza de x(t) es la covarianza de las variables aleatorias x(t ) y x(t ): C ( t,t ) = E[ ( x( t ) m ( t ) ) ( x( t ) m ( t ) )] C ( t,t ) = R( t,t ) m ( t ) m ( t ) x x x x Comunicaciones - U.A.H. 38

En función de la relación de la relación entre x(t ) y x(t ), se pueden dar las siguientes situaciones: Si x(t ) y x(t ) son v.a. incorreladas u ortogonales o independientes, entonces x(t) será un proceso de incrementos incorrelados u ortogonales o independientes, cuyo caso se cumplirá: R ( t,t ) = E[ x( t )] E[ x( )] si x(t ) y x(t ) son independientes o incorrelados. t E[x(t ) x(t )]=0 si x(t ) y x(t ) son ortogonales [ ] ( ) ( ) Si t =t =t, entonces R t,t = E x t y representa el valor cuadrático medio de la v.a. x(t). Comunicaciones - U.A.H. 39

La importancia de la función autocorrelación radica en que describe completamente la densidad espectral de potencia y por lo tanto el contenido en potencia de un gran número de señales aleatorias. La autocorrelación es una medida de relación o dependencia entre x(t ) y x(t ). Cuando es necesario examinar los estadísticos conjuntos de dos procesos aleatorios reales, x(t) e y(t), se habla de correlación cruzada y covarianza cruzada, definiéndose como: R C Y Y ( t,t ) = E[ x( t ) y( t )] ( t,t ) = R ( t,t ) E[ x( t )] E[ y( t )] Y Comunicaciones - U.A.H. 40

Se dice que dos procesos están incorrelados, si para todo t y t, se cumple: R C Y Y ( t,t ) = E[ x( t )] E[ y( t )] ( t,t ) = R ( t,t ) E[ x( t )] E[ y( t )] = 0 Y Dos procesos aleatorios independientes serán procesos incorrelados. La independencia física de dos procesos implica independencia estadística de los mismos y por lo tanto incorrelación entre ellos, sin embargo, la incorrelación de dos procesos no implica necesariamente independencia entre ambos. Se dice que dos procesos son ortogonales si: ( t,t ) = E[ x( t ) y( t )] 0 RY = Comunicaciones - U.A.H. 4

En general si un proceso x(t) es función de una variable aleatoria Y, es decir: ( t) g( Y,t) x = para t=t aleatoria. x(t )=g(y,t ) va a ser una transformación de una variable Si se conoce la f.d.p. de Y, f Y (y), se podrán calcular sus estadísticos temporales como: E R [ x() t ] E[ g( Y,t)] = g( Y,t) f ( y) = dy Y ( t,t ) E[ g( Y,t ) g( Y,t )] = g( Y,t ) g( Y,t ) f ( y) = dy Y Comunicaciones - U.A.H. 4

Procesos estacionarios. Se dice que un proceso aleatorio es estacionario en sentido estricto, si sus características estadísticas no se ven afectadas por traslaciones en el tiempo, es decir, los procesos x(t) y x(t+t 0 ) tienen las mismas características estadísticas para cualquier valor de t 0. En general dados dos procesos aleatorios x(t) e y(t), se dice que ambos procesos son conjuntamente estacionarios si las características estadísticas conjuntas de x(t) e y(t) son las mismas que las de x(t+t 0 ) e y(t+t 0 ) para cualquier valor de t 0. Debido a la dificultad de establecer de forma rigurosa esta propiedad, es más común utilizar la definición de proceso estacionario en sentido amplio, la cual solo va referida a los estadísticos de primer y segundo orden. Comunicaciones - U.A.H. 43

Procesos estacionarios en sentido amplio. Un proceso x(t) es estacionario en sentido amplio si sus estadísticos de primer orden no dependen del tiempo y los de segundo orden solo dependen del intervalo de tiempo τ = t -t. Estadísticos de primer orden m σ ( t) () t = m = σ Estadísticos de segundo orden R C ( t,t ) = R ( t t ) = R ( τ ) ( t,t ) = C ( t t ) = C ( τ ) Comunicaciones - U.A.H. 44

Si el proceso aleatorio es estacionario se puede simplificar la notación y se puede reescribir la ecuación correspondiente a la función de autocorrelación como: R ( τ ) = E[ x( t) x( t τ )] = E[ x( t) x( t + τ )] Propiedades de la función autocorrelación de un proceso estacionario x(t): R (τ) es una función par, es decir, R (τ)=r (-τ). El máximo valor de R (τ) se da para τ=0. R 0 = [ ] ( ) E x ( t) Comunicaciones - U.A.H. 45

Procesos conjuntamente estacionarios en sentido amplio. Dos procesos x(t) e y(t), son conjuntamente estacionarios en sentido amplio si cumplen que su media es constante, su autocorrelación depende del intervalo τ y su correlación cruzada de pende solo de τ=t - t, es decir: E E [ x() t ] = cte ; R ( τ ) = E[ x( t) x( t + τ )] [ y() t ] = cte ; R ( τ ) = E[ y( t) y( t + τ )] Y R Y ( τ ) = E[ x( t) y( t + τ )] Comunicaciones - U.A.H. 46

Propiedades de la función R Y (τ): R Y (τ) es una función par, es decir, R Y (τ)=r Y (-τ). R Y (τ)=r Y (-τ). R Y ( τ ) R ( 0) R ( 0) Y ( ) [ ( ) R ( 0) ] R Y τ R 0 + Si x(t) e y(t) son dos procesos incorrelados: Y R Y ( τ ) = E[ x( t) ] E[ y( t) ] Dos procesos x(t) e y(t) son ortogonales si R Y ( τ ) = 0 τ Comunicaciones - U.A.H. 47

Procesos ergódicos. En general, se dice que un proceso x(t) es ergódico si todos sus parámetros estadísticos se pueden determinar con una única realización del proceso x(t;e i ). Esto implica que los diversos parámetros estadísticos se pueden expresar como medias temporales. Se puede decir que un proceso es ergódico si las medias temporales coinciden con las medias estadísticas. Comunicaciones - U.A.H. 48

Ergodicidad respecto a la media. E [ x() t ] = x f ( x) x T T () t = Lim x() t T T dx dt E [ x() t ] = x() t Comunicaciones - U.A.H. 49

Ergodicidad respecto a la varianza. E [ ()] x t = x f ( x) x T T () t = Lim x () t T T dx dt E [ ()] x t = x () t Comunicaciones - U.A.H. 50

Comunicaciones - U.A.H. 5 Procesos estocásticos Ergodicidad respecto a la autocorrelación. Un proceso ergódico debe ser estrictamente estacionario, sin embargo un proceso estacionario no tiene porque ser ergódico. La ergodicidad implica que una sola función muestral es representativa para caracterizar todo el proceso aleatorio ( ) ( ) ( ) [ ] () ( ) () ( ) ( ) ( ) ( ) τ τ τ τ τ τ + = + = + + = t x t x R dt t x t x T Lim t x t x t x t x E R T T T ( ) ( ) ( ) [ ] () ( ) () ( ) ( ) ( ) ( ) τ τ τ τ τ τ + = + = + + = t y t x R dt t y t x T Lim t y t x t y t x E R Y T T T Y

Espectro de potencia (densidad espectral de potencia). El espectro de potencia de una señal aleatoria estacionaria, refleja la distribución de potencia en el dominio de la El teorema de Wiener-Kintchine establece que cuando x(t) es un proceso estacionario en sentido amplio, la densidad espectral de potencia se obtiene como la transformada de Fourier de la función autocorrelación: G R ( ω) = TF{ R ( τ )} = R ( τ ) ( τ ) = TF { G ( ω) } = G ( ω ) π e jωτ dτ e jωτ dω Comunicaciones - U.A.H. 5

Respuesta de un sistema L.T.I. a una entrada aleatorio. Este estudio se va a restringir al análisis con señales aleatorias estacionarias. Si x(t) es un proceso estacionario, de media m y autocorrelación R (τ), que pasa a través de un sistema LTI estable, cuya respuesta impulsiva es h(t) de tipo real, se obtendrá un proceso aleatorio y(t) también estacionario. x(t) ( ω) R ( τ) G ( ω) Sistema LTI h(t) H(ω) y(t) Y( ω) R ( τ) Y G ( ω) Y Comunicaciones - U.A.H. 53

x(t) ( ω) R ( τ) G ( ω) Sistema LTI h(t) H(ω) y(t) Y( ω) R ( τ) Y G ( ω) Y y R G E TF () t = x( t) h( t) Y ( ω ) = ( ω ) H ( ω ) Y ( τ ) = h( τ ) h( τ ) R ( τ ) Y ( ω ) = H ( ω ) G ( ω ) [ y() t ] = E[ x() t ] H ( 0) Comunicaciones - U.A.H. 54

Proceso aleatorio gaussiano. Se dice que un proceso aleatorio x(t), es Gaussiano si su f.d.p. f(x;t) es Gaussiana para todos los valores de t, su f.d.p. bidimensional, f(x,x ;t,t ) es también una variable aleatoria Gaussiana para todo t y t y su f.d.p. conjunta de mayor orden también deberá ser una variable aleatoria Gaussiana. La importancia de los procesos aleatorios Gaussianos radica en su papel fundamental en el estudio de las comunicaciones, ya que el modelo Gaussiano se aplica a muchos fenómenos aleatorios eléctricos. Comunicaciones - U.A.H. 55

Las principales propiedades que cumple un proceso aleatorio Gaussiano son: x(t) queda totalmente descrito por E[x(t)] y R (t,t ). ( ) [ ( )] [ ( )] Si R t,t = E x t E x t entonces x(t ) y x(t ) están incorreladas y son estadísticamente independientes. Si x(t) es estacionario en sentido amplio, entonces también es estacionario en sentido estricto y ergódico. Cualquier operación lineal sobre x(t) produce otro proceso aleatorio Gaussiano. Comunicaciones - U.A.H. 56

Ruido blanco Gaussiano. El ruido blanco Gaussiano es un proceso aleatorio de tipo Gaussiano y es capaz de caracterizar el ruido producido por el movimiento de los electrones debido a su agitación termal. El ruido va a tener una distribución Gaussiana siempre que se consideren múltiples fuentes de ruido independientes. Si a la entrada de un sistema LTI se tiene un proceso aleatorio Gaussiano, a la salida se obtiene también un proceso aleatorio Gaussiano. Se dice que un ruido es blanco y Gaussiano si su densidad espectral de potencia es constante para todo el espectro de frecuencias. G R η0 ( ω ) = Comunicaciones - U.A.H. 57

A partir de la densidad espectral de potencia de ruido, es posible obtener la función autocorrelación: R R 0 ( τ ) = TF [ G ( ω) ] = δ ( τ ) R Debido a que R R (τ)=0 para τ 0, cualquiera dos ejemplos de ruido blanco Gaussiano van a ser incorrelados y estadísticamente independientes. Si se tiene un ruido blanco Gaussiano cuya densidad espectral de potencia es η 0 /, y este se filtra mediante un sistema LTI cuya función de transferencia es H(ω) se obtiene la señal de salida y(t): G R Y Y η 0 ( ω ) = H ( ω ) G ( ω ) = H ( ω ) η [ ] 0 ( τ ) = TF H ( ω ) R η Comunicaciones - U.A.H. 58

Procesos paso banda. En la mayoría de los sistemas de comunicación en los que se modula la información para ser transmitida, mediante una portadora fp, se cumple que el ancho de banda del canal es pequeño comparado con fp. Cuando un proceso aleatorio es modulado por una portadora para transmitirlo a través de un canal de transmisión, el resultado es un proceso aleatorio paso banda. El ruido que se suma a la transmisión de una señal en el canal, va a ser un proceso aleatorio paso banda. Para trabajar en estos casos es conveniente representar el ruido n(t), en términos de las componentes en fase y cuadratura. Comunicaciones - U.A.H. 59

n n f c n() t = n f ( t) cos( ω pt + ϕ p ) nc ( t) sen( ω pt + ϕ p ) () t = n() t cos( ω pt) + nˆ ( t) sen( ω pt) componente en fase () t = n() t cos( ω t) nˆ () t sen( ω t) componente en cuadratura p p Si n(t) es un proceso aleatorio Gaussiano paso banda de media cero y estacionario, la componente en fase n f (t) y la componente en cuadratura n c (t) también van a ser procesos aleatorios Gaussianos, conjuntamente estacionarios, de media cero e independientes, pero de banda base. E σ R R [ n( t) ] = E n ( t) n n n f f = σ [ ] = E n ( t) = σ = σ [ ] ( τ ) = Rn ( τ ) = Rn ( τ ) cos( ω pτ ) ± Rˆ n( τ ) sen( ω τ ) c p ( τ ) = R ( τ ) cos( ω τ ) Rˆ ( τ ) sen( ω τ ) n c n f n f n c 0 p c = 0 n p Comunicaciones - U.A.H. 60

También es posible obtener la señal de ruido en función de la envolvente R(t) y de la fase instantánea φ(t): () () () R t = n f t + nc t n() t = R() t cos( ω pt + ϕ p + φ() t ) nc () t φ () t = artg n f () t R(t) es un proceso aleatorio que sigue una función de distribución de Rayleigh, definida por: π = σ f R σ0 () r = e u() r σ r 0 r E E R Var [ R() t ] [ () t ] [ R() t ] = σ π = σ 0 φ(t) es una proceso aleatorio uniformemente distribuido entre -π y π e independiente de R(t). 0 0 Comunicaciones - U.A.H. 6

Teoría de la comunicación Comunicaciones - U.A.H. 6